Site icon Pingvin.Pro

Лідери розробок штучного інтелекту порівняли технологію з пандеміями та ядерною зброєю

допомога штучного інтелекту

Технології штучного інтелекту вже зараз досягли неабиякого розвитку. Та за словами фахівців, крім допомоги людству, це може нести і потенційну небезпеку. Лідери OpenAI, Google DeepMind, Anthropic та інших ШІ-лабораторій попереджають, що майбутні системи можуть бути такими ж смертоносними, як пандемії та ядерна зброя.




Вони стверджують, що технологія штучного інтелекту, яку вони створюють, може становити екзистенційну загрозу людству. Тож вона має розглядатися як суспільний ризик нарівні з пандеміями та ядерними війнами.

Розвиток штучного інтелекту створює певні побоювання

Нова заява Центру безпеки ШІ покликана обʼєднати експертів у галузі, які можуть не погодитися з характером конкретних ризиків чи кроків щодо запобігання цим ризикам. Але які поділяють загальні побоювання щодо потужних систем штучного інтелекту. Заява прозвучала на тлі стурбованості щодо потенційної шкоди штучного інтелекту. Нещодавні досягнення у великих мовних моделях – ChatGPT та інші чатботи – викликали побоювання, що ШІ незабаром може використовуватися для поширення дезінформації та пропаганди або для скорочення мільйонів робочих місць.

Насправді, OpenAI вже заявляла, що боїться власного чатбота ChatGPT. А нещодавні дослідження доводять, що штучний інтелект знищить 26 млн робочих місць. Тож, провідним компаніям з розробки ШІ необхідно брати це під контроль, аби не нанести непоправної шкоди людству.

Технологія вже продемонструвала ознаки просунутих здібностей. Є занепокоєння, що тип ШІ, який відповідає або перевершує продуктивність людини в різних завданнях, незабаром може зʼявитися.

Кілька керівників OpenAI запропонували деякі способи відповідального управління потужними системами ШІ. Вони закликали до співпраці між провідними виробниками штучного інтелекту, додатковими технічними дослідженнями великих мовних моделей та створенням міжнародної організації з безпеки ШІ. Щось аналогічно до Міжнародного агентства з атомної енергії, що прагне контролювати використання ядерної зброї.

У березні понад 1000 фахівців і дослідників підписали відкритий лист. У ньому закликали до шестимісячної паузи у розробці найбільших моделей ШІ, пославшись на побоювання щодо «неконтрольованих перегонів з розробки та розгортання все більш потужних цифрових умов». Цей лист, організований іншою некомерційною організацією, що спеціалізується на штучному інтелекті, Future of Life Institute, було підписано Ілоном Маском та іншими відомими технологічними лідерами, але на ньому не було підписів провідних лабораторій штучного інтелекту.