Вже відомі випадки, коли штучний інтелект із взірця неупередженості ставав «сам по собі». Але то були забави. Наразі ця машина ще більше дивує та, водночас, лякає своїми можливостями.

Система штучного інтелекту «Compas» використовується в судовій системі США. Все це для того, щоб уникнути суб’єктивності рішень при винесенні вироку. Однак сталося не так, як гадалося. Відомі, як мінімум, дві ситуації, коли штучний інтелект помилявся та показував свої расистські нахили.

У першій ситуації була заарештована дівчина, що викрала велосипед, бо не встигала завершити свої справи. До цього вона не мала проблем із законом. Трохи пізніше, на крадіжці в супермаркеті попався чоловік, що вже відбув п’ятирічний термін у в’язниці. Система спрогнозувала, що в майбутньому дівчина схильна до повторної крадіжки, а от чоловік ні. Справа в тому, що ця дівчина була афроамериканкою, а чоловік представником європеоїдної раси. Тільки от сталось якраз навпаки – дівчина проблем із законом більше не мала, а чоловік знову попався та заробив собі чималий термін.

Система штучного інтелекту

Система штучного інтелекту

Друга ситуація, коли в різний час заарештували двох чоловіків за продаж та зберігання наркотиків. Штучний інтелект і цього разу визначив афроамериканця, як загрозу для суспільства. І знову помилився, адже іншого порушника заарештовували надалі ще тричі.

Тільки от проблема не в тому, що він сам вигадав щось нове, а лиш посилив добре закріплене старе. Якщо в США була проблема расизму серед представників правосуддя, то штучний інтелект, вивчаючи особисті справи злочинців, їхню соціальну приналежність та дохід, почав виробляти таку ж модель поведінки. У підсумку виходить, що система стає концентрованим місцем для расизму, сексизму та інших людських «гріхів».

І ще кілька прикладів. Пам’ятаєте, як нейромережа компанії Google, що здатна розпізнавати зображення, визначила двох афроамериканців як горил? А соціальна мережа LinkedIn надає перевагу претендентам чоловічої статі. Це вже багато про що свідчить.

Забавний випадок стався з ботом жіночої статі на ім’я Тай від Microsoft. Лише за добу перебування в Twitter вона перетворилася на фанатку Гітлера і Трампа. А потім ще почала виписувати ксенофобні твіти про мексиканців та євреїв.

Словом, над штучним інтелектом ще треба ретельно попрацювати. Щоправда, спершу було би добре вирішити проблему серед людей.


Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.


64x64

Грицина Вікторія

Перфекціоніст в хаосі, цікавлюсь технологіями та самостійно вивчаю SMM

Останнє з рубрики

34 хв
Статті

Найкращі ігрові смартфони сьогодення

Чи можуть смартфони повноцінно замінити ігрові комп’ютери або консолі такого рівня, як Play Station або Xbox? Звичайно ж ні! Але це поки що. Навіть незважаючи на те, що мудрофони з кожним роком збільшують свою продуктивність і в деякій мірі здатні замінити комп’ютери для виконання простих завдань. А як же ж в плані ігор? Точніше мобільних […]


1 хв
Статті

Hyperloop в Індії може з’явитися швидше ніж в Україні?!

Ще в лютому з’явилась інформація, що компанія Virgin Hyperloop One планує побудувати трасу в Індії. Вона має об’єднати Мумбай, Пуне та міжнародний аеропорт Мумбаю. Згідно новій інформації, це має статися вже в 2025 році. Того ж місяця, Міністерство інфраструктури України оголосило про плани запуску проекту транспортних інновацій HypeUA.


1 хв
Статті

У нас проблеми: Android з двома вирізами в екрані

Ера нестандартних дизайнів та інтерфейсів смартфонів переходить усі межі. Тільки-но користувачі почали звикати до вирізу вгорі екрану, як тут виробники задумали спробувати щось таке, але внизу. Що відбувається в головах у цих людей?! В Android P Developer Preview можна подивитися, як виглядатиме це божевілля.


Повідомити про помилку

Текст, який буде надіслано нашим редакторам: