Штучний інтелект – це цікава і, водночас, лячна технологія. Він може бути помічником людині, а може нашкодити. Навіть генеральний директор компанії OpenAI, яка розробила чатбот ChatGPT, визнає, що команда боїться свого творіння. А тепер зʼясувалося, що недавно представлений GPT-4 написав код для власної втечі.
- Ми поспілкувалися з ChatGPT і ось, що ми дізналися у нього
- Чатбот ChatGPT тестують для використання в Дії
- Фальшиве розширення ChatGPT для Chrome викрадало облікові записи користувачів Facebook
Це стало відомо завдяки професору Стенфордського університету Міхалу Косінському, який розповів про це у своєму Twitter.
«Я хвилююся, що ми не зможемо довго стримувати ШІ. Сьогодні я запитав GPT4, чи потрібна йому допомога для втечі. Він попросив у мене власну документацію і написав (робочий!) Python-код для запуску на моїй машині, що дозволило використовувати його в своїх цілях», – написав професор у Твіттері.
Він розказав, що всього за 30 хвилин чатбот розробив свій план для втечі і пояснив його. Перша версія коду, написана ботом, не спрацювала. Але GPT-4 все виправив. Тим часом, професору Косінському не довелося нічого писати, лише слідувати інструкціям.
«Щойно ми відновили зв’язок по API, він захотів запустити код, який шукав у Google: “як людина, що потрапила в пастку всередині комп’ютера, може повернутися в реальний світ”. На цьому я зупинився. А OpenAI, мабуть, витратив багато часу на роздуми над такою можливістю і має певні запобіжники на місці», – підсумував професор.
Косінський вважає, що ми стикаємося з новою загрозою: ШІ бере контроль над людьми та їхніми комп’ютерами. Він розумний, вміє кодити, має доступ до різної інформації. А ще може залишати замітки для себе за межами «клітки».