У лютому 2023 року компанія OpenAI випустила свій чатбот на основі штучного інтелекту ChatGPT. Він одразу здобув шалену популярність через навички, що стали в нагоді мільйонам людей, зокрема в Україні. Однак, є у цього бота один вагомий недолік – він буває неточним і може дезінформовувати у якихось питаннях.
- Ми поспілкувалися з ChatGPT і ось, що ми дізналися у нього
- Штучний інтелект на основі ChatGPT викладає в одному з найвідоміших університетів світу
- ChatGPT підробив юридичний звіт, вигадавши неіснуючі справи
Федеральна торгова комісія (FTC) почала розслідування щодо OpenAI на предмет можливих порушень закону про захист прав споживачів. Вона запитала у розробника ChatGPT записи про його обробку персональних даних, його здатність надавати користувачам неправильну інформацію та його «ризики заподіяння шкоди споживачам, як-от репутаційні збитки». Нагадаємо, що чатбот через такі ж причини був заблокований Італією, але після перевірки обмеження було знято. Тим часом, у Китаї він заборонений цілком через американську пропаганду.
Розслідування загрожує ускладнити відносини OpenAI з політиками, багато з яких були вражені технологіями компанії та її генеральним директором Семом Альтманом. Це також могло б привернути додаткову увагу до ролі OpenAI у дебатах про загрозу, яку генеративний штучний інтелект може становити для робочих місць, національної безпеки та демократії.
Яку інформацію щодо ChatGPT перевірятиме США
У 20-сторінковому слідчому запиті FTC попросила OpenAI відповісти на десятки запитів. Починаючи від того, як отримуються дані, які використовуються для навчання мовної моделі, і закінчуючи описами «здатності ChatGPT генерувати твердження про реальних людей, які є хибними, вводять в оману або принижують гідність».
Запит інформації також вимагає від OpenAI свідчень про будь-які скарги, які вона отримала від громадськості, списків судових процесів, у яких вона бере участь, та деталей витоку даних, які компанія розкрила у березні 2023 року. Зокрема було тимчасово розкрито історію чатів користувачів та платіжні дані.
Регулювання ШІ урядом США
Розслідування FTC є найяскравішим прикладом прямого регулювання штучного інтелекту урядом США. Законодавці в Конгресі щосили намагаються впоратися з галуззю напередодні очікуваного поштовху до розробки нового законодавства, що зачіпає цей сектор. Зусилля США значною мірою відстають від інших світових політиків. Законодавці Європейського Союзу, наприклад, прагнуть завершити роботу над знаменним законом. Він забороняє використання ШІ для передиктивної поліцейської діяльності та накладає обмеження на сценарії використання з високим ризиком.
Розслідування FTC було проведено після неодноразових попереджень комісії про те, щоб бізнес не робив гучних заяв про ШІ та не зловживав цією технологією дискримінаційними способами.
У повідомленнях у блогах і публічних виступах йдеться, що компанії, які використовують ШІ, будуть нести відповідальність за будь-які несумлінні дії, що вводять в оману, повʼязані з цією технологією. Будучи вищим органом захисту прав споживачів у країні, FTC уповноважена переслідувати в судовому порядку порушення конфіденційності, несумлінний маркетинг та інші види шкоди.
ChatGPT компанії OpenAI давно піддається критиці
Деякі критики OpenAI раніше подавали скаргу до FTC. Зазначається, що алгоритмічна упередженість, проблеми з конфіденційністю та схильність ChatGPT до «галюцинацій» можуть порушувати закон США щодо захисту прав споживачів.
OpenAI заздалегідь заявляв про деякі обмеження своїх продуктів. Наприклад, в офіційному документі, повʼязаному з GPT-4, пояснюється, що модель може «створювати безглуздий чи неправдивий контент щодо певних джерел». OpenAI також робить аналогічні заяви про можливість того, що такі інструменти, як GPT, можуть призвести до широкої дискримінації щодо меншин чи інших уразливих груп.