Компании должны просчитать риск потери контроля над искусственным интеллектом, как это делалось с ядерным оружием

13:37, 13 мая 2025
Исследователи предупреждают: сверхмощный искусственный интеллект может представлять угрозу, если заранее не оценить вероятность потери над ним контроля, как это в свое время сделали перед первым ядерным испытанием.
Компании должны просчитать риск потери контроля над искусственным интеллектом, как это делалось с ядерным оружием
Фото: unsplash
Следите за самыми актуальными новостями в наших группах в Facebook и Telegram.

Компаниям, разрабатывающим мощные системы искусственного интеллекта, стоит оценивать риски так же тщательно, как это делал Роберт Оппенгеймер перед первым ядерным испытанием. С таким призывом выступил один из ведущих исследователей в сфере безопасности ИИ — профессор Массачусетского технологического института Макс Тегмарк, сообщает The Guardian.

В своих расчётах Тегмарк вместе со студентами предложил аналог «константы Комптона» — вероятности того, что сверхмощный искусственный сверхинтеллект (ASI) выйдет из-под контроля человека. По их оценке, этот риск может достигать 90%.

Сам термин впервые появился в контексте американского ядерного испытания в 1945 году. Тогда физик Артур Комптон оценил вероятность того, что атомный взрыв запустит неконтролируемую реакцию в атмосфере. Его вывод — «чуть меньше одного шанса на три миллиона» — позволил провести испытание Trinity.

«Компании, создающие сверхинтеллект, должны так же чётко рассчитать вероятность потери контроля. Недостаточно сказать: “нам кажется, всё под контролем”. Нужен точный процент», — подчеркнул Тегмарк.

По его мнению, прозрачные расчёты рисков — выполненные сразу несколькими компаниями — могут сформировать глобальную политическую волю для создания общих правил безопасности таких технологий.

Тегмарк, который также является соучредителем института Future of Life, давно призывает к осторожности в развитии ИИ. В 2023 году его организация опубликовала открытое письмо с призывом приостановить создание сверхмощных моделей. Документ подписали более 33 тысяч человек, среди них — Илон Маск и сооснователь Apple Стив Возняк.

В письме говорилось, что лаборатории ИИ втянуты в «неконтролируемую гонку» за создание «цифровых разумов», которые человек уже не в состоянии предсказать, понять или надёжно контролировать.

Тегмарк дал коментарий The Guardian в контексте нового международного документа — Singapore Consensus, который определяет глобальные приоритеты исследований в области безопасности ИИ. Его подготовили Тегмарк, ведущий учёный в области компьютерных наук Йошуа Бенджио, а также специалисты из OpenAI, Google DeepMind и других компаний.

Документ выделяет три ключевых направления для безопасного развития ИИ:

разработка методов оценки воздействия современных и будущих систем ИИ;

определение желаемого поведения систем и построение механизмов его достижения;

контроль и управление поведением таких систем.

После скептических заявлений вице-президента США Дж. Д. Вэнса на саммите в Париже о том, что «будущее ИИ не выиграется за счёт тревожных обсуждений по поводу безопасности», многие усомнились в глобальном подходе к регулированию.

Однако Тегмарк отметил, что ситуация изменилась: «Похоже, туман после Парижа рассеялся — и международное сотрудничество возвращается с новой силой».

Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.

Ростислав Шурма объяснил, отменят ли в Украине оборот наличных денег и что для этого нужно
Ростислав Шурма объяснил, отменят ли в Украине оборот наличных денег и что для этого нужно
Главное за день
Сегодня день рождения празднуют
  • Зіновій Гавдик
    Зіновій Гавдик
    суддя Львівського окружного адміністративного суду
  • Віктор Данилишин
    Віктор Данилишин
    суддя Окружного адміністративного суду міста Києва
  • Сергій Клопот
    Сергій Клопот
    суддя Чернігівського окружного адміністративного суду
  • Василь Ключкович
    Василь Ключкович
    заступник голови суддя Шостого апеляційного адміністративного суду
  • Сергій Лапій
    Сергій Лапій
    суддя Київського окружного адміністративного суду