11 Сер, 2017

Штучний інтелект успадковує гріхи людей

Вже відомі випадки, коли штучний інтелект із взірця неупередженості ставав «сам по собі». Але то були забави. Наразі ця машина ще більше дивує та, водночас, лякає своїми можливостями.

Система штучного інтелекту «Compas» використовується в судовій системі США. Все це для того, щоб уникнути суб’єктивності рішень при винесенні вироку. Однак сталося не так, як гадалося. Відомі, як мінімум, дві ситуації, коли штучний інтелект помилявся та показував свої расистські нахили.

У першій ситуації була заарештована дівчина, що викрала велосипед, бо не встигала завершити свої справи. До цього вона не мала проблем із законом. Трохи пізніше, на крадіжці в супермаркеті попався чоловік, що вже відбув п’ятирічний термін у в’язниці. Система спрогнозувала, що в майбутньому дівчина схильна до повторної крадіжки, а от чоловік ні. Справа в тому, що ця дівчина була афроамериканкою, а чоловік представником європеоїдної раси. Тільки от сталось якраз навпаки – дівчина проблем із законом більше не мала, а чоловік знову попався та заробив собі чималий термін.

Система штучного інтелекту

Система штучного інтелекту

Друга ситуація, коли в різний час заарештували двох чоловіків за продаж та зберігання наркотиків. Штучний інтелект і цього разу визначив афроамериканця, як загрозу для суспільства. І знову помилився, адже іншого порушника заарештовували надалі ще тричі.

Тільки от проблема не в тому, що він сам вигадав щось нове, а лиш посилив добре закріплене старе. Якщо в США була проблема расизму серед представників правосуддя, то штучний інтелект, вивчаючи особисті справи злочинців, їхню соціальну приналежність та дохід, почав виробляти таку ж модель поведінки. У підсумку виходить, що система стає концентрованим місцем для расизму, сексизму та інших людських «гріхів».

І ще кілька прикладів. Пам’ятаєте, як нейромережа компанії Google, що здатна розпізнавати зображення, визначила двох афроамериканців як горил? А соціальна мережа LinkedIn надає перевагу претендентам чоловічої статі. Це вже багато про що свідчить.

Забавний випадок стався з ботом жіночої статі на ім’я Тай від Microsoft. Лише за добу перебування в Twitter вона перетворилася на фанатку Гітлера і Трампа. А потім ще почала виписувати ксенофобні твіти про мексиканців та євреїв.

Словом, над штучним інтелектом ще треба ретельно попрацювати. Щоправда, спершу було би добре вирішити проблему серед людей.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

  • Feodot Taran

    Ото справді. Дурне діло штучний інтелект на людях вчити.
    А що до “расизму” того ШІ… знаєте. Цікаво, але два випадки не є статистичними. Нехай для даних звинувачень він ще з десяток подібних ляпів зробить 🙂

  • Алексей Дарк

    треба машинам пояснити шо не має добрих чи злих рас чі полів.

    злим може буди і американець і росіянин. а добрим може буди африканець чі китаєць жінка чі чоловік. а може і навпаки. 🙂

  • Алексей Дарк

    будуть відбуватися події як у Термінаторі. тільки цього разу Шварц нас не порятує… 🙁