Site icon Pingvin.Pro

Нейромережа GPT-3 від OpenAI написала про себе статтю для наукового журналу, назвавши себе видатним досягненням науки

Нейронна мережа (GPT-3)

Дослідниця Гетеборзького університету (Швеція), Альміра Османович Тунстрьом (Almira Osmanovic Thunström) дала завдання нейронній мережі GPT-3 написати про себе наукову статтю для наукового журналу. У результаті, система створила текст із 500 слів із цитатами з дослідження та відповідним контекстом. Однак, ця тема підняла багато етичних і юридичних питань, коли спробували опублікувати цей документ.




GPT-3 – це нейронна мережа, розроблена лабораторією OpenAI. Вона спеціалізується на генерації різноманітних текстів. Серед їхніх досягнень – створення новинних статей і продовжень книг покійних авторів. Тунстрьом зазначила, що багато наукових статей було написано про них самих за допомогою GPT-3, але в жодній із них не згадувалося про головного автора.

Відповідно до експерименту, Тунстрьом та її команда дали GPT-3 «дуже розпливчасті інструкції» для написання. Однак, під час експерименту дослідники дали системі низку підказок, щоб вона могла написати тезу про відповідну структуру.

Після завершення роботи над статтею Тунстрьом вирішила опублікувати її в наукових журналах, але зіткнулася з низкою етичних і юридичних проблем під час заповнення заявки. Спочатку було незрозуміло, кого вказати автором, оскільки у нейронної мережі немає імені, прізвища та контактних даних. Потім вона записала назву розробника (OpenAI) і вказала дані свого консультанта. Також постало питання юридичної згоди – дослідниця задала нейромережі запитання й отримала дозвіл. «Якщо вона відповість «ні», то моя совість не дозволить публікації стати публічною», – сказала Тунстрьом.

Тепер стаття доступна у французькій службі попереднього перегляду наукових статей HAL. Нейронна мережа GPT-3 назвала себе в статті видатним досягненням у сфері штучного інтелекту. Нейромережа виявила, що вміння писати про себе є важливим обʼєктом наукових досліджень і може сприяти його розвитку. Однак, GPT-3 зазначила, що це пов’язано з ризиком зробити нейронну мережу обізнаною, але поки що, на їхню думку, переваги переважають потенційні ризики.