Site icon Pingvin.Pro

Штучний інтелект успадковує гріхи людей

AI-помічника / Samsung і штучний інтелект \ Японці

Вже відомі випадки, коли штучний інтелект (ШІ) із взірця неупередженості ставав «сам по собі». Але то були забави. Наразі ця машина ще більше дивує та, водночас, лякає своїми можливостями.




Система штучного інтелекту «Compas» використовується в судовій системі США. Все це для того, щоб уникнути суб’єктивності рішень при винесенні вироку. Однак сталося не так, як гадалося. Відомі, як мінімум, про дві ситуації, коли штучний інтелект помилявся та показував свої расистські нахили.

Штучний інтелект також помиляється

У першій ситуації була заарештована дівчина, що викрала велосипед, бо не встигала завершити свої справи. До цього вона не мала проблем із законом. Трохи пізніше, на крадіжці в супермаркеті попався чоловік, що вже відбув п’ятирічний термін у в’язниці. Система спрогнозувала, що в майбутньому дівчина схильна до повторної крадіжки, а от чоловік ні. Річ у тім, що ця дівчина була афроамериканкою, а чоловік представником європеоїдної раси. Тільки от сталось якраз навпаки – дівчина проблем із законом більше не мала, а чоловік знову попався та заробив собі чималий термін.

Система штучного інтелекту

Друга ситуація, коли в різний час заарештували двох чоловіків за продаж та зберігання наркотиків. Штучний інтелект і цього разу визначив афроамериканця, як загрозу для суспільства. І знову помилився, адже іншого порушника заарештовували надалі ще тричі.

Тільки от проблема не в тому, що він сам вигадав щось нове, а лиш посилив добре закріплене старе. Якщо в США була проблема расизму серед представників правосуддя, то штучний інтелект, вивчаючи особисті справи злочинців, їхню соціальну приналежність та дохід, почав виробляти таку ж модель поведінки. У підсумку виходить, що система стає концентрованим місцем для расизму, сексизму та інших людських «гріхів».

І ще кілька прикладів. Пам’ятаєте, як нейромережа компанії Google, що здатна розпізнавати зображення, визначила двох афроамериканців як горил? А соціальна мережа LinkedIn надає перевагу претендентам чоловічої статі. Це вже багато про що свідчить.

Забавний випадок стався з ботом жіночої статі на ім’я Тай від Microsoft. Лише за добу перебування в Twitter вона перетворилася на фанатку Гітлера і Трампа. А потім ще почала виписувати ксенофобні твіти про мексиканців та євреїв.

Словом, над штучним інтелектом ще треба ретельно попрацювати. Щоправда, спершу було би добре вирішити проблему серед людей.