Головна » Технології / Новини ІТ » Google розробляє вбивцю штучного інтелекту

Дослідники з Оксфордського університету і лабораторії DeepMind, що належить Google, почали роботу над системою аварійного вимкнення для алгоритмів, що самі навчаються. Про це повідомляє Business Insider з посиланням на Інститут вивчення машинного інтелекту (MIRI).




«Якщо такий агент [штучний інтелект] працює в режимі реального часу під наглядом людини, то іноді може виникнути ситуація, при якій оператор буде змушений натиснути на велику червону кнопку, щоб зупинити агента від виконання дій, небезпечних для самого агента або його оточення».

Автори відзначають, що алгоритми, що самі навчаються, можуть з часом виявити який-небудь механізм обходу або ігнорування штатної стоп-команди оператора. За словами дослідників, мета роботи – створення фреймворка, який не дозволить штучному інтелекту знайти спосіб ігнорування команди вимкнення.

screenshot.1Також «велика червона кнопка» повинна гарантовано перервати поточну діяльність робота і максимально убезпечити його і оточуючих при потенційно небезпечної ситуації, а також запобігти вчиненню дій, які можуть привести до «незворотних наслідків».

Питання безпеки, пов’язані з розробкою систем штучного інтелекту, озвучувалися і раніше. У 2015 році Ілон Маск, Стівен Хокінг, Ноам Хомський, Стів Возняк і багато інших вчених, бізнесмени, знаменитості, дослідники та фахівці в галузі робототехніки та штучного інтелекту підписали відкритий лист, що застерігає виробників зброї від створення повністю автономних бойових систем.

Якщо Ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.
Поділитися:

Новини партнерів

Правила коментування

Вітаємо Вас на сайті Pingvin Pro. Ми докладаємо всіх зусиль, аби переконатися, що коментарі наших статей вільні від тролінгу, спаму та образ. Саме тому, на нашому сайті включена премодерація коментарів. Будь ласка, ознайомтеся з кількома правилами коментування.

  1. Перш за все, коментування відбувається через сторонній сервіс Disqus. Модератори сайту не несуть відповідальність за дії сервісу.
  2. На сайті ввімкнена премодерація. Тому ваш коментар може з’явитися не одразу. Нам теж інколи треба спати.
  3. Будьте ввічливими – ми не заохочуємо на сайті грубість та образи. Пам’ятайте, що слова мають вплив на людей! Саме тому, модератори сайту залишають за собою право не публікувати той чи інший коментар.
  4. Будь-які образи, відкриті чи завуальовані, у бік команди сайту, конкретного автора чи інших коментаторів, одразу видаляються. Агресивний коментатор може бути забанений без попереджень і пояснень з боку адміністрації сайту.
  5. Якщо вас забанили – на це були причини. Ми не пояснюємо причин ані тут, ані через інші канали зв’язку з редакторами сайту.
  6. Коментарі, які містять посилання на сторонні сайти чи ресурси можуть бути видалені без попереджень. Ми не рекламний майданчик для інших ресурсів.
  7. Якщо Ви виявили коментар, який порушує правила нашого сайту, обов’язково позначте його як спам – модератори цінують Вашу підтримку.

Схожі новини

Новини ІТ

ASUS представила 5 відеокарт серії NVIDIA GeForce RTX 3050 з 8 ГБ відеопамʼяті

Компанія ASUS анонсувала п’ять моделей відеокарт серії NVIDIA GeForce RTX 3050 на базі графічних процесорів з мікроархітектурою NVIDIA Ampere і призначених для широкої аудиторії користувачів. ROG Strix GeForce RTX 3050, ASUS Dual GeForce RTX 3050 та ASUS Phoenix GeForce RTX 3050 оснащені 8 ГБ відеопам’яті й високоякісними кулерами та відрізняються винятковою надійністю. Між іншим, компанія нещодавно представила […]


Новини ІТ

Людиноподібний робот iCub у стилі Залізної людини братиме участь у рятувальних операціях

Сьогодні роботи – це важлива складова. Група вчених із Istituto Italiano di Tecnologia розробила невеликого робота-гуманоїда на ім’я iCub. Робот матиме системи у своїх долонях, які дозволять йому контролювати потужність та напрямок, як у супергероя Marvel Залізної людини. Підписуйтесь на наш Telegram-канал iCub має зріст 104 см – він не більше п’ятирічної дитини. Робот може […]


Новини партнерів

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: