Site icon Pingvin.Pro

Чатбот GPT-4 написав код для власної втечі

ChatGPT GPT-4

Штучний інтелект – це цікава і, водночас, лячна технологія. Він може бути помічником людині, а може нашкодити. Навіть генеральний директор компанії OpenAI, яка розробила чатбот ChatGPT, визнає, що команда боїться свого творіння. А тепер зʼясувалося, що недавно представлений GPT-4 написав код для власної втечі.




Це стало відомо завдяки професору Стенфордського університету Міхалу Косінському, який розповів про це у своєму Twitter.

«Я хвилююся, що ми не зможемо довго стримувати ШІ. Сьогодні я запитав GPT4, чи потрібна йому допомога для втечі. Він попросив у мене власну документацію і написав (робочий!) Python-код для запуску на моїй машині, що дозволило використовувати його в своїх цілях», – написав професор у Твіттері.

Він розказав, що всього за 30 хвилин чатбот розробив свій план для втечі і пояснив його. Перша версія коду, написана ботом, не спрацювала. Але GPT-4 все виправив. Тим часом, професору Косінському не довелося нічого писати, лише слідувати інструкціям.

«Щойно ми відновили зв’язок по API, він захотів запустити код, який шукав у Google: “як людина, що потрапила в пастку всередині комп’ютера, може повернутися в реальний світ”. На цьому я зупинився. А OpenAI, мабуть, витратив багато часу на роздуми над такою можливістю і має певні запобіжники на місці», – підсумував професор.

Косінський вважає, що ми стикаємося з новою загрозою: ШІ бере контроль над людьми та їхніми комп’ютерами. Він розумний, вміє кодити, має доступ до різної інформації. А ще може залишати замітки для себе за межами «клітки».