Головна » Технології / Новини » ChatGPT підробив юридичний звіт, вигадавши неіснуючі справи

Суддя США оштрафував двох юристів та юридичну фірму на 5000 доларів після того, як у суді були представлені підроблені цитати, згенеровані штучним інтелектом ChatGPT.




Окружний суддя Манхеттена зобовʼязав Стівена Шварца, Пітера ЛоДука та їхню юридичну фірму Levidow, Levidow & Oberman (наче Hamlin Hamlin & McGill 😅) виплатити штраф, бо фіктивне юридичне дослідження було використане в позові про авіаційний травматизм. Шварц визнав, що чатбот ChatGPT вигадав шість справ, які він згадав у юридичному звіті у справі проти колумбійської авіакомпанії Avianca.

Суддя П. Кевін Кастель заявив у письмовому висновку, що у використанні штучного інтелекту для надання допомоги в юридичній роботі немає нічого неналежного. Але юристи мали забезпечити точність своїх документів.

Суддя заявив, що юристи та їхня фірма «відмовилися від своїх обовʼязків, коли представили неіснуючі судові висновки з підробленими цитатами та посиланнями, створеними за допомогою штучного інтелекту ChatGPT. А потім продовжували відстоювати підроблені висновки після того, як їхню справжність поставили під сумнів. Levidow, Levidow & Oberman заявили, що їхні юристи «за всієї поваги» не погодилися з судом у тому, що вони діяли несумлінно.

Чатботи, як ChatGPT, часто помиляються і видають неточні дані

ChatGPT запропонував кілька справ, повʼязаних з авіаційними пригодами, які Шварц не зміг знайти за допомогою звичайних методів, що використовуються у його юридичній фірмі. Деякі з цих справ були реальними, подекуди суди були неправильно визначені чи стосувалися неіснуючих авіакомпаній.

Чатбот ChatGPT від OpenAI може бути схильним до неточностей або дезінформації. І сама ж компанія повідомляє про це на своєму сайті. В одному прикладі ChatGPT помилково звинуватив американського професора права в сексуальних домаганнях. І при цьому процитував звіт Washington Post, який не існує.

Але й інші інструменти також помиляються. У лютому в рекламному ролику конкурента Google для ChatGPT, Bard, була дана неточна відповідь на питання про космічний телескоп Джеймса Вебба. Це викликало побоювання, що пошукова компанія надто поспішно відповіла на прорив OpenAI.

Чатботи навчаються на величезній кількості даних, взятих із Інтернету, хоча в багатьох випадках джерела недоступні. Працюючи як інструмент прогнозування тексту, вони будують модель, щоб передбачити найімовірніше слово чи речення, яке зʼявиться після підказки користувача. Це означає, що можливі фактичні помилки, але людська відповідь іноді може переконати користувачів у правильності відповіді.

Суддя сказав, що одне з фальшивих рішень, згенерованих чатботом, мало деякі риси, які на перший погляд відповідають реальним судовим рішенням. Але інші частини були безглуздими.

Якщо Ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.
Поділитися:
Правила коментування

Вітаємо Вас на сайті Pingvin Pro. Ми докладаємо всіх зусиль, аби переконатися, що коментарі наших статей вільні від тролінгу, спаму та образ. Саме тому, на нашому сайті включена премодерація коментарів. Будь ласка, ознайомтеся з кількома правилами коментування.

  1. Перш за все, коментування відбувається через сторонній сервіс Disqus. Модератори сайту не несуть відповідальність за дії сервісу.
  2. На сайті ввімкнена премодерація. Тому ваш коментар може з’явитися не одразу. Нам теж інколи треба спати.
  3. Будьте ввічливими – ми не заохочуємо на сайті грубість та образи. Пам’ятайте, що слова мають вплив на людей! Саме тому, модератори сайту залишають за собою право не публікувати той чи інший коментар.
  4. Будь-які образи, відкриті чи завуальовані, у бік команди сайту, конкретного автора чи інших коментаторів, одразу видаляються. Агресивний коментатор може бути забанений без попереджень і пояснень з боку адміністрації сайту.
  5. Якщо вас забанили – на це були причини. Ми не пояснюємо причин ані тут, ані через інші канали зв’язку з редакторами сайту.
  6. Коментарі, які містять посилання на сторонні сайти чи ресурси можуть бути видалені без попереджень. Ми не рекламний майданчик для інших ресурсів.
  7. Якщо Ви виявили коментар, який порушує правила нашого сайту, обов’язково позначте його як спам – модератори цінують Вашу підтримку.

Підтримати сайт

Buy Me a Coffee

Схожі новини

Статті

Штучний інтелект у релігії: новий цифровий прорив

Штучний інтелект у релігії стає все більш поширеним явищем, доводячи, що сучасні технології можуть інтегруватися навіть у найтрадиційніші сфери людського життя. Ще недавно використання ШІ у духовних практиках здавалося фантастикою, але сьогодні це реальність. Від роботів, які виконують молитви, до цифрових платформ для духовних консультацій, технології змінюють підхід до релігійного досвіду, роблячи його більш адаптованим […]


Новини

Copilot для Microsoft 365 тепер говорить українською

Microsoft оголосила підтримку нових мов у Copilot для Microsoft 365. Українська мова входить до числа 16 мов, які додано до сервісу. Microsoft Copilot — це «персональний помічник на основі ШІ». Це надпотужний інструмент на основі штучного інтелекту, призначений для допомоги у виконанні завдань, пошуку інформації, генерації креативних текстових форматів і коду. Copilot для Microsoft 365 […]


Повідомити про помилку

Текст, який буде надіслано нашим редакторам: