Головна » Технології / Новини » Google розробляє вбивцю штучного інтелекту

Дослідники з Оксфордського університету і лабораторії DeepMind, що належить Google, почали роботу над системою аварійного вимкнення для алгоритмів, що самі навчаються. Про це повідомляє Business Insider з посиланням на Інститут вивчення машинного інтелекту (MIRI).




«Якщо такий агент [штучний інтелект] працює в режимі реального часу під наглядом людини, то іноді може виникнути ситуація, при якій оператор буде змушений натиснути на велику червону кнопку, щоб зупинити агента від виконання дій, небезпечних для самого агента або його оточення».

Автори відзначають, що алгоритми, що самі навчаються, можуть з часом виявити який-небудь механізм обходу або ігнорування штатної стоп-команди оператора. За словами дослідників, мета роботи – створення фреймворка, який не дозволить штучному інтелекту знайти спосіб ігнорування команди вимкнення.

screenshot.1Також «велика червона кнопка» повинна гарантовано перервати поточну діяльність робота і максимально убезпечити його і оточуючих при потенційно небезпечної ситуації, а також запобігти вчиненню дій, які можуть привести до «незворотних наслідків».

Питання безпеки, пов’язані з розробкою систем штучного інтелекту, озвучувалися і раніше. У 2015 році Ілон Маск, Стівен Хокінг, Ноам Хомський, Стів Возняк і багато інших вчених, бізнесмени, знаменитості, дослідники та фахівці в галузі робототехніки та штучного інтелекту підписали відкритий лист, що застерігає виробників зброї від створення повністю автономних бойових систем.

Якщо Ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.
Поділитися:
Правила коментування

Вітаємо Вас на сайті Pingvin Pro. Ми докладаємо всіх зусиль, аби переконатися, що коментарі наших статей вільні від тролінгу, спаму та образ. Саме тому, на нашому сайті включена премодерація коментарів. Будь ласка, ознайомтеся з кількома правилами коментування.

  1. Перш за все, коментування відбувається через сторонній сервіс Disqus. Модератори сайту не несуть відповідальність за дії сервісу.
  2. На сайті ввімкнена премодерація. Тому ваш коментар може з’явитися не одразу. Нам теж інколи треба спати.
  3. Будьте ввічливими – ми не заохочуємо на сайті грубість та образи. Пам’ятайте, що слова мають вплив на людей! Саме тому, модератори сайту залишають за собою право не публікувати той чи інший коментар.
  4. Будь-які образи, відкриті чи завуальовані, у бік команди сайту, конкретного автора чи інших коментаторів, одразу видаляються. Агресивний коментатор може бути забанений без попереджень і пояснень з боку адміністрації сайту.
  5. Якщо вас забанили – на це були причини. Ми не пояснюємо причин ані тут, ані через інші канали зв’язку з редакторами сайту.
  6. Коментарі, які містять посилання на сторонні сайти чи ресурси можуть бути видалені без попереджень. Ми не рекламний майданчик для інших ресурсів.
  7. Якщо Ви виявили коментар, який порушує правила нашого сайту, обов’язково позначте його як спам – модератори цінують Вашу підтримку.

Підтримати сайт

Buy Me a Coffee

Схожі новини

Статті

Штучний інтелект у релігії: новий цифровий прорив

Штучний інтелект у релігії стає все більш поширеним явищем, доводячи, що сучасні технології можуть інтегруватися навіть у найтрадиційніші сфери людського життя. Ще недавно використання ШІ у духовних практиках здавалося фантастикою, але сьогодні це реальність. Від роботів, які виконують молитви, до цифрових платформ для духовних консультацій, технології змінюють підхід до релігійного досвіду, роблячи його більш адаптованим […]


Новини

Copilot для Microsoft 365 тепер говорить українською

Microsoft оголосила підтримку нових мов у Copilot для Microsoft 365. Українська мова входить до числа 16 мов, які додано до сервісу. Microsoft Copilot — це «персональний помічник на основі ШІ». Це надпотужний інструмент на основі штучного інтелекту, призначений для допомоги у виконанні завдань, пошуку інформації, генерації креативних текстових форматів і коду. Copilot для Microsoft 365 […]


Повідомити про помилку

Текст, який буде надіслано нашим редакторам: