У США адвокат подав суду помилкові документи, згенеровані штучним інтелектом, але уникнув відповідальності

15:41, 10 березня 2025
Суддя дійшов висновку, що дії адвоката не були навмисними, враховуючи його «бездоганну професійну репутацію».
У США адвокат подав суду помилкові документи, згенеровані штучним інтелектом, але уникнув відповідальності
Ілюстративне зображення: Google
Слідкуйте за найактуальнішими новинами в наших групах Facebook та Telegram.

Федеральний суддя відмовився застосовувати санкції до адвоката, який подав юридичний документ із помилковими посиланнями на судові справи та цитатами, що були згенеровані штучним інтелектом.

Йдеться подання до суду у трудовому спорі, де одну зі сторін представляв адвокат Томас Гайєр, повідомляє Національна асоціація адвокатів України з посиланням на Fox News.

Адвокат визнав помилку і взяв на себе повну відповідальність в ході судового засідання, яке відбулося у жовтні 2024 року, розповів суддя окружного суду США Томас Каллен. Він також зауважив, що використання генеративного ШІ у юридичній сфері стає «новою нормою», однак наголосив, що адвокати, які застосовують такі інструменти, «повинні дотримуватися базових принципів професійної поведінки», зокрема «вживати розумних заходів» для забезпечення точності судових документів.

«Пан Гайєр, чудовий юрист із багаторічним досвідом роботи у судах по всій території США, припустився помилки», — сказав суддя. Також він зазначив, що цей випадок продемонстрував «один із недоліків генеративного ШІ».

Суддя Каллен дійшов висновку, що дії адвоката не були навмисними, враховуючи його «бездоганну професійну репутацію». Він також відзначив, що адвокат сам вказав на помилки, які не помітили ані суд, ані протилежна сторона.

Захисник адвоката Деніс Квінн, погодився із суддею, зазначивши, що його клієнт «надзвичайно шкодує» про допущену помилку, а його каяття гарантує, що «він більше не повторить подібного».

«GPT-інструменти створюють чудові, а іноді й блискучі юридичні аргументи», — написав Гайєр в окремій заяві, зазначивши, що помилки були допущені ШІ-моделлю Claude 3 Opus. Це лише один із кількох інструментів штучного інтелекту, які він використовує. «Я застосовую низку генеративних ШІ-технологій для юридичних досліджень, написання документів та складання юридичних брифів», — заявив сам адвокат.

Адвокатська палата штату Вірджинія відкрила розслідування щодо цього інциденту, а сам Гайєр, який має адвокатську ліцензію в Орегоні, повідомив про ситуацію адвокатській палаті свого штату.

Суддя Каллен висловив сподівання, що його рішення допоможе у розгляді цієї справи, однак поки що від адвокатської спільноти не було жодних офіційних повідомлень про подальші дії.

Ситуацію, коли штучний інтелект генерує неправдиву, вигадану або некоректну інформацію (хоча вона звучить правдоподібно) називають «галюцинаціями ШІ». Вони виникають через особливості роботи великих мовних моделей.

Однією з ключових причин є те, що ШІ не знає інформацію так, як людина, а прогнозує наступне слово в тексті на основі ймовірностей. І якщо немає точних даних, він все одно створює відповідь, навіть якщо ця відповідь помилкова. Модель не розуміє реальність, а лише знаходить статистичні зв’язки між словами. Вона може створювати фактично хибні, але граматично правильні твердження.

Щоб уникнути галюцинацій, важливо перевіряти інформацію, запитувати джерела та використовувати додаткові перевірені дані.

Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.

Ростислав Шурма пояснив, чи скасують в Україні обіг готівки та що для цього треба
Ростислав Шурма пояснив, чи скасують в Україні обіг готівки та що для цього треба
Головне за день
Сьогодні день народження святкують
  • Сергій Гомельчук
    Сергій Гомельчук
    суддя Херсонського окружного адміністративного суду
  • Євгеній Аблов
    Євгеній Аблов
    заступник голови Окружного адміністративного суду міста Києва
  • Олена Тімченко
    Олена Тімченко
    суддя Сихівського районного суду м. Львова