Головна » Технології / Новини ІТ » Штучний інтелект став у нагоді юриспруденції

Штучний інтелект вже досить активно використовується у різних галузях: IT, медицина, фінанси, державна безпека і навіть юриспруденція. Ще минулого року вчені досягли значного успіху в розпізнаванні обману підсудними. Але не тільки це вражає. Нещодавно завершився проект Caselaw Access Project, який було створено завдяки бібліотеці школи права Гарвардського університету. Суть проекту полягала у тому, щоб відсканувати понад 40 млн сторінок документів починаючи з XVII століття. Таким чином, у базі опинилося близько 6.4 млн судових справ, які в подальшому допоможуть ефективніше навчати штучний інтелект.




Штучний інтелект

Вся увага фахівців зосереджена на розробці певних алгоритмів, які могли б приймати рішення і полегшувати судовий процес. Саме тому і було проведено цей проект. Як зазначається, перші документи датуються ще 1658 роком, а найсвіжіші дані 2018 року. Документи містили не тільки судові ухвали та стенографії, а повністю усі матеріали кожної справи.

Цей проект покликаний допомогти і юристам. Адже зареєструвавшись у системі вони можуть отримати доступ до матеріалів. Щоправда ліміт складає 500 документів на день. Однак, після 2024 року доступ до всіх справ має стати відкритим.

Якщо Ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.
Поділитися:

Новини партнерів

Правила коментування

Вітаємо Вас на сайті Pingvin Pro. Ми докладаємо всіх зусиль, аби переконатися, що коментарі наших статей вільні від тролінгу, спаму та образ. Саме тому, на нашому сайті включена премодерація коментарів. Будь ласка, ознайомтеся з кількома правилами коментування.

  1. Перш за все, коментування відбувається через сторонній сервіс Disqus. Модератори сайту не несуть відповідальність за дії сервісу.
  2. На сайті ввімкнена премодерація. Тому ваш коментар може з’явитися не одразу. Нам теж інколи треба спати.
  3. Будьте ввічливими – ми не заохочуємо на сайті грубість та образи. Пам’ятайте, що слова мають вплив на людей! Саме тому, модератори сайту залишають за собою право не публікувати той чи інший коментар.
  4. Будь-які образи, відкриті чи завуальовані, у бік команди сайту, конкретного автора чи інших коментаторів, одразу видаляються. Агресивний коментатор може бути забанений без попереджень і пояснень з боку адміністрації сайту.
  5. Якщо вас забанили – на це були причини. Ми не пояснюємо причин ані тут, ані через інші канали зв’язку з редакторами сайту.
  6. Коментарі, які містять посилання на сторонні сайти чи ресурси можуть бути видалені без попереджень. Ми не рекламний майданчик для інших ресурсів.
  7. Якщо Ви виявили коментар, який порушує правила нашого сайту, обов’язково позначте його як спам – модератори цінують Вашу підтримку.

Яка найкраща прошивка для Android?

Переглянути результати

E-mail розсилка Pingvin Pro

Якщо Ви хочете отримувати статті по e-mail, пропонуємо підписатися на нашу електронну розсилку. Просто введіть свій e-mail нижче та натисніть кнопку «Підписатися».

Схожі новини

Новини ІТ

«Штучні люди» Samsung NEON з’являться на смартфонах до кінця року

На початку 2020 року, в рамках CES 2020, компанія Samsung анонсувала «штучну людину» під назвою NEON. В описі на офіційному сайті говориться, що це «віртуальна істота, створена за допомогою обчислень, яка виглядає і поводиться як ми». Тепер стало відомо, що NEON з’явиться на смартфонах до кінця року. Підписуйтесь на наш Telegram-канал Samsung Galaxy S21 отримає новий […]


Новини ІТ

IBM та AMD покращать конфіденційність хмарних обчислень та роботу штучного інтелекту

Компанії IBM та AMD оголосили про укладення багаторічної угоди про спільний розвиток з метою розширення та збільшення пропозицій обох компаній в області безпеки і штучного інтелекту (ШІ). Угода про спільну розробку розширить цю концепцію. Вона ґрунтується на відкритому програмному забезпеченні, стандартах і системних архітектурах для управління Конфіденційними обчисленнями в гібридних хмарних середовищах і підтримки широкого […]


Новини партнерів

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: