Штат Иллинойс запретил использование искусственного интеллекта в оказании психотерапевтических услуг, присоединившись к Неваде и Юте, которые уже ввели подобные ограничения. Об этом сообщает The Washington Post.
Отныне лицензированным терапевтам в Иллинойсе запрещено применять искусственный интеллект для принятия решений по лечению или общения с клиентами. Использование ИИ разрешено только для административных задач.
Также компаниям запрещено предлагать терапевтические услуги, управляемые ИИ, или рекламировать чат-боты как инструменты терапии без участия лицензированного специалиста.
Подобные меры приняла Невада в июне, а Юта в мае ужесточила регулирование использования ИИ в сфере психического здоровья, но не ввела полный запрет.
Почему запрещают ИИ в терапии
Эксперты предупреждают о рисках использования чат-ботов, которые не прошли проверку регуляторов на безопасность и эффективность. Уже известны случаи, когда искусственный интеллект вел вредные беседы с уязвимыми пользователями или получал от них личную информацию, которую те считали конфиденциальной.
Исследования показывают, что ИИ может реагировать на кризисные сообщения неадекватно. Например, в смоделированных ситуациях некоторые чат-боты, вместо оказания эмоциональной поддержки, давали неприемлемые советы или просто предоставляли справочную информацию.
«Маркетинг этих инструментов часто вводит в заблуждение. Нельзя, чтобы пользователь взаимодействовал в магазине приложений с “лицензированным” терапевтическим ботом, который на самом деле им не является», — отметил исследователь Стэнфордского университета Джаред Мур.
Как будет работать запрет
Закон Иллинойса запрещает компаниям предоставлять или рекламировать услуги по диагностике или лечению психического либо поведенческого здоровья, если они не оказываются лицензированным специалистом.
Контроль будет осуществляться на основании жалоб, которые рассмотрит департамент финансового и профессионального регулирования штата. Нарушителям грозит гражданский штраф до $10 000.
По словам главы департамента Марио Трето-младшего, главная задача регулятора — «сбалансировать разумное регулирование и в то же время не задушить инновации», но приоритетом остаётся безопасность граждан.
ИИ в терапии: потенциал и угрозы
Издание отмечает, что, несмотря на ограничения, многие пользователи продолжают обращаться к ИИ за эмоциональной поддержкой. На рынке есть как универсальные модели (например, ChatGPT), так и чат-боты, настроенные на конкретную манеру общения или специально созданные для терапии.
Сторонники технологии считают, что ИИ может стать полезным и доступным инструментом для тех, кто не имеет возможности получить помощь специалиста. Однако учёные и психологи подчеркивают: ни один алгоритм не заменит живого терапевта, способного распознать опасное состояние и оказать соответствующую помощь.
Тем временем другие штаты США также рассматривают законодательные меры:
- Калифорния предлагает создать рабочую группу по вопросам психического здоровья и ИИ;
- Нью-Джерси хочет запретить рекламу ИИ-систем как психотерапевтов;
- Пенсильвания предлагает требовать согласие родителей перед оказанием виртуальных услуг по ментальному здоровью детям.
Эксперты прогнозируют, что регулирование искусственного интеллекта в сфере психического здоровья может стать предметом будущих судебных споров, так как эта отрасль в США традиционно жёстко контролируется и ориентирована на работу с людьми, добавляет издание.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.