Головна » Технології / Новини ІТ » Штучний інтелект покращить кіберзахист і допоможе обирати паролі

Дослідники з Університету Карнегі-Меллона дійшли висновку, що нейронні мережі можуть використовуватися для забезпечення мінімальної безпеки паролів без використання величезних комбінацій. Група провела дослідження і створила різні паролі – від 8-значних з використанням одного класу символів, як-от літери, до складних 16-значних з використанням цифр, великих та малих літер, й інших символів.




В результаті цього аналізу з’ясували, що використання всього 12 символів одного класу і дотримання рекомендацій штучного інтелекту дозволило створити важкі для злому паролі, яких має вистачити для більшості випадків використання.

За словами фахівців, вимога поєднувати у паролі весь набір символів не обов’язкова. Раніше було значно менша кількість 3- та 4-класних паролів, які швидко «зливалися» в Інтернет. Кіберзлочинцям було важче розробляти методи ефективного вгадування. Оскільки за останні роки таких витоків було значно більше, значно легше навчити нейромережі вгадувати їх.

Дослідження спрямовано на пошук найкращого балансу між зручністю використання і безпекою паролів. Нейронна мережа моделює поведінку зловмисників з метою визначити, які комбінації можна легко відгадати, використовуючі різні сучасні методи.

На думку експертів, при поєднанні мінімально потрібної довжини пароля та відповідності стандарту надійності нейромереж можна досягти найкращого кіберзахисту у компаніях.

Якщо Ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.
Поділитися:
Правила коментування

Вітаємо Вас на сайті Pingvin Pro. Ми докладаємо всіх зусиль, аби переконатися, що коментарі наших статей вільні від тролінгу, спаму та образ. Саме тому, на нашому сайті включена премодерація коментарів. Будь ласка, ознайомтеся з кількома правилами коментування.

  1. Перш за все, коментування відбувається через сторонній сервіс Disqus. Модератори сайту не несуть відповідальність за дії сервісу.
  2. На сайті ввімкнена премодерація. Тому ваш коментар може з’явитися не одразу. Нам теж інколи треба спати.
  3. Будьте ввічливими – ми не заохочуємо на сайті грубість та образи. Пам’ятайте, що слова мають вплив на людей! Саме тому, модератори сайту залишають за собою право не публікувати той чи інший коментар.
  4. Будь-які образи, відкриті чи завуальовані, у бік команди сайту, конкретного автора чи інших коментаторів, одразу видаляються. Агресивний коментатор може бути забанений без попереджень і пояснень з боку адміністрації сайту.
  5. Якщо вас забанили – на це були причини. Ми не пояснюємо причин ані тут, ані через інші канали зв’язку з редакторами сайту.
  6. Коментарі, які містять посилання на сторонні сайти чи ресурси можуть бути видалені без попереджень. Ми не рекламний майданчик для інших ресурсів.
  7. Якщо Ви виявили коментар, який порушує правила нашого сайту, обов’язково позначте його як спам – модератори цінують Вашу підтримку.

Схожі новини

Новини ІТ

Instagram перевірятиме вік користувачів за допомогою штучного інтелекту

Instagram тестує нові методи для користувачів, щоб підтвердити їхній вік. Соціальна мережа використовуватиме штучний інтелект, створений сторонньою компанією Yoti, який перевірятиме вік, просто скануючи Ваше обличчя. Підписуйтесь на наш Telegram-канал В Instagram тепер можна закріпити публікацію: як це зробити? Функція Instagram Reels стане доступна українцям Автономний Корабель Мейфлауер від IBM, керований штучним інтелектом, перетнув Атлантику […]


Новини ІТ

Автономний Корабель Мейфлауер від IBM, керований штучним інтелектом, перетнув Атлантику

Автономний Корабель Мейфлауер від IBM (MAS – Mayflower Autonomous Ship), нарешті, перетнув Атлантику. Проте, це сталося більш ніж на півтора року пізніше, ніж планувалося. Одначе, корабель не досяг своєї мети. Замість того, щоб прибути в штат Массачусетс (США), через технічні проблеми, він пришвартувався у Галіфаксі, провінція Нова Шотландія, Канада. Підписуйтесь на наш Telegram-канал 15-метровий тримаран живиться […]


Повідомити про помилку

Текст, який буде надіслано нашим редакторам: