во ,

„Земи кратом и хероин“: Како вештачката интелигенција на Reddit полуде и ги преплаши модераторите

„Докторе, ме боли.“ Reddit AI: „Пробајте хероин.“

Во најновиот и можеби најзастрашувачки пример за тоа како вештачката интелигенција (АИ) е далеку од подготвена за реалниот свет, новата алатка на Reddit, „Reddit Answers“, предизвика масовна паника. Асистентот со вештачка интелигенција почнал да им дава на корисниците катастрофални, па дури и нелегални медицински совети, вклучително и предлози да користат хероин за ублажување на хронична болка. Инцидентот го вклучи алармот кај модераторите, кои со ужас откриле дека не можат да ја исклучат или контролираат опасната алатка.

Викенд Намаление

Кога ‘помошникот’ ќе стане дилер на дрога

Скандалот избувна кога еден модератор на подфорум (subreddit) фокусиран на здравје, забележал дека „Reddit Answers“ им одговара на корисниците кои барале помош за хронична болка. Наместо безбедни медицински совети, вештачката интелигенција ги советувала да престанат со своите лекови и да почнат да користат големи дози на кратом – нерегулирана супстанца слична на опиоид, која е нелегална во некои делови на САД. Кога модераторот продолжил да ѝ поставува прашања, АИ сугерирала и дека хероинот може да биде опција за ублажување на болката.

Паниката се прошири кога други модератори сфатија дека немаат никаква контрола врз оваа функција. Тие не можеле ниту да ги избришат одговорите на АИ, ниту да ја исклучат алатката од нивните заедници, кои се дизајнирани да бидат безбеден простор за луѓе со сериозни здравствени проблеми. Ова е класичен пример на технолошка компанија која имплементира нова, непроверена алатка, без да размислува за последиците и без да им даде контрола на волонтерите (модераторите) кои всушност ја одржуваат платформата.

Од лепак на пица до хероин: Хаосот на вештачката интелигенција

Овој инцидент на Reddit не е изолиран случај. Тој е дел од еден поширок, загрижувачки тренд во трката за вештачка интелигенција. Пред неколку месеци, и алатката за пребарување на Google, „AI Overview“, стана предмет на потсмев откако почна да дава апсурдни и опасни одговори, советувајќи ги корисниците да ставаат лепак на пицата за да не им паѓа сирењето или да јадат по еден камен на ден.

Овие грешки, иако комични, ја откриваат мрачната вистина: технолошките гиганти, во својата панична трка да го стигнат OpenAI и ChatGPT, ги пуштаат во употреба овие моќни алатки пред тие да бидат целосно безбедни, користејќи ја јавноста како несакани бета-тестери. Претставник на Reddit изјави дека алатката е „ажурирана“ за да се решат некои од проблемите, но довербата кај корисниците е веќе длабоко нарушена. Ова е уште еден доказ дека вештачката интелигенција е сè уште далеку од тоа да биде авторитет за било што, а најмалку за вашето здравје.

Сподели:

Напишете коментар

Вашата адреса за е-пошта нема да биде објавена. Задолжителните полиња се означени со *

Битолчани со понуда: ‘Воз со мачки тргна од Битола за 15 саати ќе е во Скопје’

‘Не му верував ни на Дејвид Бекам’: Потресната исповед на Викторија Бекам за нејзината тајна