во ,

ChatGPT ќе ги шпионира децата? Контроверзната алатка што ги подели родителите

Дигитален ангел чувар или врвен шпион? Новата алатка на ChatGPT што ќе ги алармира родителите ги подели експертите и јавноста

Во потег што ветува дека ќе го редефинира односот помеѓу технологијата, родителството и приватноста, компанијата OpenAI денес најави контроверзна нова функција за својот чет-бот ChatGPT. Почнувајќи од 2026 година, системот ќе може проактивно да ги информира родителите доколку разговорите на нивните деца со вештачката интелигенција индицираат сериозни проблеми како депресија, анксиозност или сајбер-малтретирање. Одлуката веднаш предизвика жестока дебата, поставувајќи го клучното прашање на дигиталната ера: каде завршува безбедноста, а каде започнува приватноста?

Реклама

Според соопштението на OpenAI, функцијата е дизајнирана како систем за „рано предупредување“ во рамките на семејните профили (Family Accounts). Користејќи напредни алгоритми за анализа на сентимент и препознавање на шаблони, вештачката интелигенција ќе може да идентификува разговори кои укажуваат на потенцијален ризик. Наместо да ја испрати целосната преписка, системот ќе генерира анонимизиран резиме на проблемот и ќе испрати дискретна нотификација до родителот. Овој извештај ќе содржи и предлог-ресурси, како совети за започнување разговор на темата или контакти од професионални служби за ментално здравје.

Аргументот на компанијата е фокусиран исклучиво на безбедноста. Со оглед на тоа што сè повеќе млади луѓе се вртат кон вештачката интелигенција како кон доверлив соговорник кому можат да му ги кажат тајните што не ги споделуваат со никого, OpenAI тврди дека има морална обврска да интервенира. Според нив, еден навреме испратен аларм може да спречи трагедија, да го запре малтретирањето пред да ескалира или да му помогне на родителот да го забележи тивкото страдање на своето дете.

Од друга страна, психолозите и експертите за приватност веднаш го вклучија алармот. Тие предупредуваат дека ваквата функција го уништува концептот на „безбеден простор“ – приватно катче каде што детето може слободно да ги истражува своите мисли и стравови без осуда и надзор. Постои реален ризик дека децата, свесни за надзорот, ќе престанат да ја користат алатката за сериозни прашања, со што се губи нејзината примарна позитивна улога. Уште повеќе, постои опасност од погрешно толкување од страна на алгоритмот – што ако детето пишува расказ, истражува за училиштен проект или едноставно користи хиперболи? Лажниот аларм може да предизвика непотребна паника и сериозно да ја наруши довербата помеѓу родителот и детето.

Анализа: Етичката дилема на вештачката интелигенција како родителски партнер

OpenAI со овој потег ја премина границата од алатка кон надзорник, отворајќи ја Пандорината кутија на дигиталната етика. Централната дилема е стара колку и општеството: дали целта (безбедноста на детето) ги оправдува средствата (нарушување на приватноста)? Проблемот е што вештачката интелигенција, колку и да е напредна, не го разбира човечкиот контекст. Таа не може да направи разлика помеѓу уметничка фикција и реален повик за помош со стопроцентна сигурност. Секоја грешка, секој лажно позитивен резултат, не е само технички пропуст, туку емотивен земјотрес во едно семејство. Оваа технологија поставува и опасен преседан. Ако денес прифатиме надзор над разговорите на децата „за нивно добро“, што е следно? Надзор над возрасните за знаци на депресија или социјално незадоволство? OpenAI можеби има добри намери, но патот што го отвора е лизгав и нè принудува да се соочиме со прашањето: колку од нашата слобода и приватност сме подготвени да му предадеме на еден алгоритам во замена за ветување за сигурност?

Сподели:

Напишете коментар

Вашата адреса за е-пошта нема да биде објавена. Задолжителните полиња се означени со *

Сите гледаа во неа, а не во тенисот: Која е огнената Аргентинка што го „запали“ САД Опен?

Се роди ќерката на Александра Пријовиќ: Династијата Живојиновиќ доби наследничка