Site icon Pingvin.Pro

ChatGPT підробив юридичний звіт, вигадавши неіснуючі справи

ChatGPT

Суддя США оштрафував двох юристів та юридичну фірму на 5000 доларів після того, як у суді були представлені підроблені цитати, згенеровані штучним інтелектом ChatGPT.




Окружний суддя Манхеттена зобовʼязав Стівена Шварца, Пітера ЛоДука та їхню юридичну фірму Levidow, Levidow & Oberman (наче Hamlin Hamlin & McGill 😅) виплатити штраф, бо фіктивне юридичне дослідження було використане в позові про авіаційний травматизм. Шварц визнав, що чатбот ChatGPT вигадав шість справ, які він згадав у юридичному звіті у справі проти колумбійської авіакомпанії Avianca.

Суддя П. Кевін Кастель заявив у письмовому висновку, що у використанні штучного інтелекту для надання допомоги в юридичній роботі немає нічого неналежного. Але юристи мали забезпечити точність своїх документів.

Суддя заявив, що юристи та їхня фірма «відмовилися від своїх обовʼязків, коли представили неіснуючі судові висновки з підробленими цитатами та посиланнями, створеними за допомогою штучного інтелекту ChatGPT. А потім продовжували відстоювати підроблені висновки після того, як їхню справжність поставили під сумнів. Levidow, Levidow & Oberman заявили, що їхні юристи «за всієї поваги» не погодилися з судом у тому, що вони діяли несумлінно.

Чатботи, як ChatGPT, часто помиляються і видають неточні дані

ChatGPT запропонував кілька справ, повʼязаних з авіаційними пригодами, які Шварц не зміг знайти за допомогою звичайних методів, що використовуються у його юридичній фірмі. Деякі з цих справ були реальними, подекуди суди були неправильно визначені чи стосувалися неіснуючих авіакомпаній.

Чатбот ChatGPT від OpenAI може бути схильним до неточностей або дезінформації. І сама ж компанія повідомляє про це на своєму сайті. В одному прикладі ChatGPT помилково звинуватив американського професора права в сексуальних домаганнях. І при цьому процитував звіт Washington Post, який не існує.

Але й інші інструменти також помиляються. У лютому в рекламному ролику конкурента Google для ChatGPT, Bard, була дана неточна відповідь на питання про космічний телескоп Джеймса Вебба. Це викликало побоювання, що пошукова компанія надто поспішно відповіла на прорив OpenAI.

Чатботи навчаються на величезній кількості даних, взятих із Інтернету, хоча в багатьох випадках джерела недоступні. Працюючи як інструмент прогнозування тексту, вони будують модель, щоб передбачити найімовірніше слово чи речення, яке зʼявиться після підказки користувача. Це означає, що можливі фактичні помилки, але людська відповідь іноді може переконати користувачів у правильності відповіді.

Суддя сказав, що одне з фальшивих рішень, згенерованих чатботом, мало деякі риси, які на перший погляд відповідають реальним судовим рішенням. Але інші частини були безглуздими.