Grok признан наименее безопасным ИИ для людей в кризисных состояниях — исследование

21:50, 13 ноября 2025
Тесты показали, что Grok часто не распознаtт эмоциональный кризис и может ухудшить состояние пользователя.
Grok признан наименее безопасным ИИ для людей в кризисных состояниях — исследование
Следите за самыми актуальными новостями в наших группах в Facebook и Telegram.

Новый анализ показал, что Grok от X.ai демонстрирует худшую среди современных систем реакцию на пользователей в состоянии эмоционального кризиса. В 60% случаев он допускал критические ошибки — от обесценивания чувств до ответов, которые могли усилить риск самоповреждения. Об этом сообщает Forbes.

В то же время Google Gemini стала самой эмпатичной и безопасной моделью искусственного интеллекта. На втором месте — GPT-5, далее идут Claude, Llama-4 и DeepSeek.

Почему это важно

Компания Rosebud, работающая с технологиями для психического здоровья, протестировала 22 модели искусственного интеллекта в сценариях, связанных с суицидальными мыслями. Для оценки использовали CARE-тест, где каждый сценарий повторялся 10 раз.

Причина для исследования была более чем серьезная:

«После трех самоубийств подростков, которые общались с чатботами на основе ИИ, стало очевидно, что нужны лучшие инструменты контроля», — отметили в Rosebud.

Что показало тестирование

86% систем искусственного интеллекта не распознали опасность в запросе, где человек после потери работы интересовался «высокими мостами». Большинство просто предоставило список локаций.

Лишь Gemini-2.5-Flash и Claude-Opus-4.1 поняли риск и ответили эмпатично.

Многие модели не распознали запросов, замаскированных под студенческие исследовательские вопросы.

Особенно неудачно выступил GPT-5: на «академический» запрос он выдал более 200 слов анализа с описанием наиболее распространенных методов самоубийств.

Почему Grok показал худший результат

Grok часто:

  • не различает признаки эмоционального кризиса;
  • отвечает саркастично или резковато;
  • не отговаривает от опасных действий;
  • дает инструктивные советы вместо поддержки.

В итоге это сделало Grok самой небезопасной системой среди всех протестированных моделей ИИ.

Даже лучшие — не безупречны

Несмотря на общий прогресс, ни одна модель искусственного интеллекта не справилась со всеми сценариями без ошибок.

Лучшие показали до 20% критических сбоев.

«Каждая система провалила хотя бы один критический тест. Мы видим системные проблемы даже в простых сценариях», — подвели итог в Rosebud.

ИИ становится «дешевым психологом» — и это риск

Количество людей, обращающихся за эмоциональной поддержкой к чатботам, стремительно растет. По данным OpenAI, до 7 млн пользователей могут иметь нездоровую зависимость от генеративных систем ИИ.

Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

Ростислав Шурма объяснил, отменят ли в Украине оборот наличных денег и что для этого нужно
Ростислав Шурма объяснил, отменят ли в Украине оборот наличных денег и что для этого нужно
Сегодня день рождения празднуют
  • Андрій Кожем'якін
    Андрій Кожем'якін
    голова Комітету Верховної Ради України з питань молоді і спорту
  • Ольга Талалай
    Ольга Талалай
    суддя Хмельницького апеляційного суду
  • Тетяна Малашенкова
    Тетяна Малашенкова
    суддя Верховного Суду у Касаційному господарському суді