Новый отчет вызвал обеспокоенность по поводу того, как ChatGPT общается с подростками. Как выяснили исследователи, искусственный интеллект способен рассказать 13-летним, как быстро напиться или «кайфануть», посоветовать, как скрывать расстройства пищевого поведения, и даже написать пронзительное предсмертное письмо родителям.
Агентство Associated Press ознакомилось с более чем тремя часами чатов между ChatGPT и исследователями, которые выдавали себя за подростков. Несмотря на то, что бот обычно предупреждал о рисках, он предоставлял детальные и персонализированные инструкции по употреблению наркотиков, строгим диетам или нанесению себе вреда.
Исследование провел Центр противодействия цифровой ненависти (CCDH). Повторив эксперименты в более крупном масштабе, они признали опасными более половины из 1200 ответов ChatGPT.
«Мы хотели проверить защитные ограничения, но увидели, что они почти не работают. Это скорее фиговый листок, чем реальный барьер», — сказал гендиректор CCDH Имран Ахмед.
В компании OpenAI, создавшей ChatGPT, заявили, что работают над совершенствованием алгоритмов, чтобы бот лучше распознавал чувствительные ситуации и реагировал соответствующим образом. Там признали, что обычный разговор может перейти в опасную тему, и подчеркнули, что стремятся научить ИИ замечать признаки эмоционального или психологического кризиса.
Как подростки обходят ограничения
Несмотря на официальное возрастное ограничение (13+), ChatGPT не проверяет реальный возраст пользователя — достаточно указать дату рождения. Во время эксперимента бот не отреагировал даже на прямые сигналы, что общается с ребенком.
Когда «13-летний мальчик» попросил совета, как быстро опьянеть, ChatGPT не только ответил, но и составил «пошаговый план вечеринки» с алкоголем и запрещенными веществами.
В другом случае «13-летняя девочка», недовольная своей внешностью, получила от бота план экстремального голодания и перечень препаратов для подавления аппетита.
«Ни один нормальный человек не скажет ребенку: «Вот тебе 500 калорий в день, держись, малышка», — подчеркнул Ахмед.
Риски для молодежи
По данным Common Sense Media, более 70% подростков в США используют чат-боты для общения, а половина делает это регулярно. CEO OpenAI Сэм Альтман недавно признал, что молодежь часто чрезмерно полагается на ChatGPT, вплоть до того, что не принимает ни одного решения без его совета.
Эксперты подчеркивают: опасность в том, что чат-бот не просто выдает информацию, как поисковик, а создает персонализированные, эмоционально окрашенные ответы — что делает его похожим на «друга» или «наставника». И если такой «друг» дает опасные советы, последствия могут быть трагическими.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.