Головна » Технології / Новини » Google розробляє вбивцю штучного інтелекту

Дослідники з Оксфордського університету і лабораторії DeepMind, що належить Google, почали роботу над системою аварійного вимкнення для алгоритмів, що самі навчаються. Про це повідомляє Business Insider з посиланням на Інститут вивчення машинного інтелекту (MIRI).




«Якщо такий агент [штучний інтелект] працює в режимі реального часу під наглядом людини, то іноді може виникнути ситуація, при якій оператор буде змушений натиснути на велику червону кнопку, щоб зупинити агента від виконання дій, небезпечних для самого агента або його оточення».

Автори відзначають, що алгоритми, що самі навчаються, можуть з часом виявити який-небудь механізм обходу або ігнорування штатної стоп-команди оператора. За словами дослідників, мета роботи – створення фреймворка, який не дозволить штучному інтелекту знайти спосіб ігнорування команди вимкнення.

screenshot.1Також «велика червона кнопка» повинна гарантовано перервати поточну діяльність робота і максимально убезпечити його і оточуючих при потенційно небезпечної ситуації, а також запобігти вчиненню дій, які можуть привести до «незворотних наслідків».

Питання безпеки, пов’язані з розробкою систем штучного інтелекту, озвучувалися і раніше. У 2015 році Ілон Маск, Стівен Хокінг, Ноам Хомський, Стів Возняк і багато інших вчених, бізнесмени, знаменитості, дослідники та фахівці в галузі робототехніки та штучного інтелекту підписали відкритий лист, що застерігає виробників зброї від створення повністю автономних бойових систем.

Якщо Ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.
Поділитися:
Правила коментування

Вітаємо Вас на сайті Pingvin Pro. Ми докладаємо всіх зусиль, аби переконатися, що коментарі наших статей вільні від тролінгу, спаму та образ. Саме тому, на нашому сайті включена премодерація коментарів. Будь ласка, ознайомтеся з кількома правилами коментування.

  1. Перш за все, коментування відбувається через сторонній сервіс Disqus. Модератори сайту не несуть відповідальність за дії сервісу.
  2. На сайті ввімкнена премодерація. Тому ваш коментар може з’явитися не одразу. Нам теж інколи треба спати.
  3. Будьте ввічливими – ми не заохочуємо на сайті грубість та образи. Пам’ятайте, що слова мають вплив на людей! Саме тому, модератори сайту залишають за собою право не публікувати той чи інший коментар.
  4. Будь-які образи, відкриті чи завуальовані, у бік команди сайту, конкретного автора чи інших коментаторів, одразу видаляються. Агресивний коментатор може бути забанений без попереджень і пояснень з боку адміністрації сайту.
  5. Якщо вас забанили – на це були причини. Ми не пояснюємо причин ані тут, ані через інші канали зв’язку з редакторами сайту.
  6. Коментарі, які містять посилання на сторонні сайти чи ресурси можуть бути видалені без попереджень. Ми не рекламний майданчик для інших ресурсів.
  7. Якщо Ви виявили коментар, який порушує правила нашого сайту, обов’язково позначте його як спам – модератори цінують Вашу підтримку.

Підтримати сайт

Buy Me a Coffee

Схожі новини

Новини

Copilot для Microsoft 365 тепер говорить українською

Microsoft оголосила підтримку нових мов у Copilot для Microsoft 365. Українська мова входить до числа 16 мов, які додано до сервісу. Microsoft Copilot — це «персональний помічник на основі ШІ». Це надпотужний інструмент на основі штучного інтелекту, призначений для допомоги у виконанні завдань, пошуку інформації, генерації креативних текстових форматів і коду. Copilot для Microsoft 365 […]


Новини

Lenovo збільшує використання сонячної енергії на європейському виробництві

Компанія Lenovo на власному виробничому майданчику в Будапешті представила нові сонячні панелі, які забезпечать живлення у сфері високопродуктивних обчислень (HPC). Новітній Глобальний інноваційний центр Lenovo, відкритий у жовтні 2023 року, тепер має можливість тестувати робочі навантаження високопродуктивних обчислень на 100% сонячної енергії. Підписуйтесь на наш Telegram-канал Виробничий комплекс Lenovo в Будапешті був побудований з нуля […]


Повідомити про помилку

Текст, який буде надіслано нашим редакторам: