Суд по семейным делам в Сингапуре рассмотрел необычный случай: мужчина, представлявший себя самостоятельно в процессе по делу о защитном судебном приказе, сослался на 14 дел, которых в реальности не существовало. Позднее он признался, что воспользовался ChatGPT для поиска судебных прецедентов, однако не проверил достоверность информации, пишет ChannelNewsAsia.
Что произошло
Бывшие супруги обратились в суд после развода, чтобы получить защитный судебный приказ друг против друга и в защиту своих дочерей. В материалах дела мужчина использовал устаревшие положения Женской хартии и вымышленные дела. Судья Сох Киан Пенг отметил, что часть прецедентов была явно фиктивной, а некоторые выглядели убедительно, но также оказались вымышленными.
Суд изучил видеозаписи, на которых бывшие супруги спорили по поводу детей. Судья пришел к выводу, что их действия были «далеки от идеала», но не перешли грань домашнего насилия. В итоге суд отклонил все заявления о защитном судебном приказе, но обязал мужчину выплатить экс-супруге 1000 сингапурских долларов (почти 780 долларов).
Решение суда по поводу ИИ
Чтобы предотвратить подобные случаи в будущем, судья обязал мужчину письменно декларировать использование генеративного ИИ при подготовке любых документов для суда и подтверждать, что он соблюдает официальное руководство.
Сох подчеркнул, что цитирование дел в системе общего права играет ключевую роль, а использование «галлюцинаций» ИИ подрывает доверие к правосудию.
При этом суд не запретил пользоваться ChatGPT или другими инструментами — но предписал делать обязательные заявления, если материалы формируются с их помощью.
Подписывайтесь на наш Тelegram-канал t.me/sudua и на Google Новости SUD.UA, а также на наш VIBER, страницу в Facebook и в Instagram, чтобы быть в курсе самых важных событий.