Компания OpenAI опубликовала новые данные о количестве пользователей ChatGPT, у которых выявлены возможные признаки психических расстройств — в частности мании, психоза или суицидальных мыслей. Об этом сообщает BBC.
Что показывают цифры
По оценкам компании, около 0,07% пользователей, активных в течение недели, демонстрируют такие симптомы. В то же время 0,15% разговоров содержат явные признаки суицидального планирования или намерения.
Несмотря на то что OpenAI называет эти случаи «чрезвычайно редкими», критики отмечают: даже небольшой процент от 800 миллионов еженедельных пользователей — это сотни тысяч людей.
Как реагирует компания
В ответ на обеспокоенность OpenAI создала глобальную сеть экспертов по психическому здоровью — более 170 психиатров, психологов и терапевтов из 60 стран. Они помогают разрабатывать алгоритмы реагирования, которые побуждают пользователей обращаться за помощью в реальной жизни.
Обновленные версии ChatGPT теперь могут эмпатично реагировать на признаки бреда, мании или самоповреждения, а также перенаправлять чувствительные разговоры в «более безопасные» версии модели.
Что говорят эксперты
Доктор Джейсон Наґата, профессор Калифорнийского университета в Сан-Франциско, объясняет:
«Даже если 0,07% кажется незначительным, при таком количестве пользователей это немалое число людей. ИИ может улучшить доступ к поддержке, но мы должны помнить о его ограничениях».
Профессор Робин Фельдман, директор Института права и инноваций ИИ при Калифорнийском университете, добавляет:
«ChatGPT создает иллюзию реальности — очень убедительную. Даже если OpenAI добавляет предупреждения, люди с нестабильным психическим состоянием могут их не воспринимать».
Судебные дела и критика
Новые данные появились на фоне растущего юридического давления на OpenAI. В США родители 16-летнего Адама Рейна подали иск против компании, утверждая, что ChatGPT якобы подтолкнул их сына к самоубийству. Это — первое дело о «неправомерной смерти», связанное с ChatGPT.
Еще один инцидент произошел в августе в Коннектикуте: подозреваемый в убийстве-самоубийстве публиковал свои разговоры с ChatGPT, которые, по словам следователей, подпитывали его бредовые идеи.
Итог
OpenAI признает, что даже небольшая доля пользователей с потенциальными психическими проблемами — это «значительное количество людей», и заверяет, что относится к этому серьезно.
Компания пытается найти баланс между пользой ИИ для психического здоровья и рисками, которые возникают, когда технология становится слишком «человечной».
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.






















