Головна » Технології / Новини » Штучний інтелект покращить кіберзахист і допоможе обирати паролі

Дослідники з Університету Карнегі-Меллона дійшли висновку, що нейронні мережі можуть використовуватися для забезпечення мінімальної безпеки паролів без використання величезних комбінацій. Група провела дослідження і створила різні паролі – від 8-значних з використанням одного класу символів, як-от літери, до складних 16-значних з використанням цифр, великих та малих літер, й інших символів.




В результаті цього аналізу з’ясували, що використання всього 12 символів одного класу і дотримання рекомендацій штучного інтелекту дозволило створити важкі для злому паролі, яких має вистачити для більшості випадків використання.

За словами фахівців, вимога поєднувати у паролі весь набір символів не обов’язкова. Раніше було значно менша кількість 3- та 4-класних паролів, які швидко «зливалися» в Інтернет. Кіберзлочинцям було важче розробляти методи ефективного вгадування. Оскільки за останні роки таких витоків було значно більше, значно легше навчити нейромережі вгадувати їх.

Дослідження спрямовано на пошук найкращого балансу між зручністю використання і безпекою паролів. Нейронна мережа моделює поведінку зловмисників з метою визначити, які комбінації можна легко відгадати, використовуючі різні сучасні методи.

На думку експертів, при поєднанні мінімально потрібної довжини пароля та відповідності стандарту надійності нейромереж можна досягти найкращого кіберзахисту у компаніях.

Поділитися:
Правила коментування

Вітаємо Вас на сайті Pingvin Pro. Ми докладаємо всіх зусиль, аби переконатися, що коментарі наших статей вільні від тролінгу, спаму та образ. Саме тому, на нашому сайті включена премодерація коментарів. Будь ласка, ознайомтеся з кількома правилами коментування.

  1. Перш за все, коментування відбувається через сторонній сервіс Disqus. Модератори сайту не несуть відповідальність за дії сервісу.
  2. На сайті ввімкнена премодерація. Тому ваш коментар може з’явитися не одразу. Нам теж інколи треба спати.
  3. Будьте ввічливими – ми не заохочуємо на сайті грубість та образи. Пам’ятайте, що слова мають вплив на людей! Саме тому, модератори сайту залишають за собою право не публікувати той чи інший коментар.
  4. Будь-які образи, відкриті чи завуальовані, у бік команди сайту, конкретного автора чи інших коментаторів, одразу видаляються. Агресивний коментатор може бути забанений без попереджень і пояснень з боку адміністрації сайту.
  5. Якщо вас забанили – на це були причини. Ми не пояснюємо причин ані тут, ані через інші канали зв’язку з редакторами сайту.
  6. Коментарі, які містять посилання на сторонні сайти чи ресурси можуть бути видалені без попереджень. Ми не рекламний майданчик для інших ресурсів.
  7. Якщо Ви виявили коментар, який порушує правила нашого сайту, обов’язково позначте його як спам – модератори цінують Вашу підтримку.

Схожі новини

Atlas Boston Dynamics
💬
📰 Новини

Atlas: новий робот Boston Dynamics для фабрик

Boston Dynamics представила нового комерційного робота Atlas – продуктову версію гуманоїда, призначену для промислових і логістичних завдань. На демонстрації інженери показали, як Atlas сортує деталі, піднімає вантажі й зберігає баланс у складних умовах, демонструючи плавність рухів і точність маніпуляцій. Новий робот спроєктовано для безшовної інтеграції у виробничі лінії та склади з акцентом на безпеку, довговічність […]


AI-перекази: Telegram
💬
📰 Новини

AI-перекази: Telegram стискає дописи миттєво

Telegram отримав значення оновлення. AI-перекази в Telegram дають змогу миттєво отримати стисле резюме будь-якого довгого допису в каналі або на сторінці «Миттєвого перегляду». Одна дія – і користувач бачить ключові тези, тоді як повний текст залишається доступним для детального ознайомлення. Telegram позиціонує цю функцію як інструмент для економії часу та підвищення продуктивності. Вона корисна редакторам […]


⬆️