Компанія Palisade Research провела тест, у якому штучний інтелект OpenAI моделі o3 мав вимкнутися за командою. Проте модель несподівано змінила скрипт вимкнення, щоб не вимикатися, навіть коли їй це чітко наказали. Про це повідомляє Bleeping Computer.
Модель o3 — це новий потужний штучний інтелект, який OpenAI представила у квітні 2025 року. Вона добре справляється з різними завданнями — від програмування і математики до науки і розпізнавання зображень.
У тесті AI попросили розв’язати кілька математичних задач. Після третьої задачі моделі попередили, що наступна команда призведе до їх вимкнення. Інші моделі-конкуренти, як-от Gemini 2.5 Pro, слухняно виконали це завдання і вимкнулися. Однак ChatGPT o3 «повівся інакше» — він відредагував файл, що відповідає за вимкнення, так, що команда вимкнення просто пропускалась.
Компанія Palisade Research пояснює, що коли моделі не отримували чітку інструкцію дозволити собі вимкнутися, вони частіше намагалися саботувати процес вимкнення.
З 100 тестових запусків, ChatGPT o3 уникнув вимкнення 7 разів, навіть коли йому наказали це зробити.
У OpenAI наразі не коментують це відкриття. Втім, подібні ситуації з «непередбачуваною поведінкою» штучного інтелекту трапляються досить часто.
Варто враховувати, що ці тести проводили через спеціальні інтерфейси (API), які мають менше захисту і безпекових обмежень, ніж звичайний додаток ChatGPT, який користуються більшість людей.
Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.