Головна » Технології / Новини ІТ » Штучний інтелект покращить кіберзахист і допоможе обирати паролі

Дослідники з Університету Карнегі-Меллона дійшли висновку, що нейронні мережі можуть використовуватися для забезпечення мінімальної безпеки паролів без використання величезних комбінацій. Група провела дослідження і створила різні паролі – від 8-значних з використанням одного класу символів, як-от літери, до складних 16-значних з використанням цифр, великих та малих літер, й інших символів.




В результаті цього аналізу з’ясували, що використання всього 12 символів одного класу і дотримання рекомендацій штучного інтелекту дозволило створити важкі для злому паролі, яких має вистачити для більшості випадків використання.

За словами фахівців, вимога поєднувати у паролі весь набір символів не обов’язкова. Раніше було значно менша кількість 3- та 4-класних паролів, які швидко «зливалися» в Інтернет. Кіберзлочинцям було важче розробляти методи ефективного вгадування. Оскільки за останні роки таких витоків було значно більше, значно легше навчити нейромережі вгадувати їх.

Дослідження спрямовано на пошук найкращого балансу між зручністю використання і безпекою паролів. Нейронна мережа моделює поведінку зловмисників з метою визначити, які комбінації можна легко відгадати, використовуючі різні сучасні методи.

На думку експертів, при поєднанні мінімально потрібної довжини пароля та відповідності стандарту надійності нейромереж можна досягти найкращого кіберзахисту у компаніях.

Якщо Ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.
Поділитися:

Новини партнерів

Правила коментування

Вітаємо Вас на сайті Pingvin Pro. Ми докладаємо всіх зусиль, аби переконатися, що коментарі наших статей вільні від тролінгу, спаму та образ. Саме тому, на нашому сайті включена премодерація коментарів. Будь ласка, ознайомтеся з кількома правилами коментування.

  1. Перш за все, коментування відбувається через сторонній сервіс Disqus. Модератори сайту не несуть відповідальність за дії сервісу.
  2. На сайті ввімкнена премодерація. Тому ваш коментар може з’явитися не одразу. Нам теж інколи треба спати.
  3. Будьте ввічливими – ми не заохочуємо на сайті грубість та образи. Пам’ятайте, що слова мають вплив на людей! Саме тому, модератори сайту залишають за собою право не публікувати той чи інший коментар.
  4. Будь-які образи, відкриті чи завуальовані, у бік команди сайту, конкретного автора чи інших коментаторів, одразу видаляються. Агресивний коментатор може бути забанений без попереджень і пояснень з боку адміністрації сайту.
  5. Якщо вас забанили – на це були причини. Ми не пояснюємо причин ані тут, ані через інші канали зв’язку з редакторами сайту.
  6. Коментарі, які містять посилання на сторонні сайти чи ресурси можуть бути видалені без попереджень. Ми не рекламний майданчик для інших ресурсів.
  7. Якщо Ви виявили коментар, який порушує правила нашого сайту, обов’язково позначте його як спам – модератори цінують Вашу підтримку.

Схожі новини

Новини ІТ

У Telegram різко зросла кіберзлочинність: месенджер став другим даркнетом

Кіберзлочинці вже багато років використовують Telegram, бо він зашифрований і легко доступний. Однак, згідно з нещодавнім розслідуванням, проведеним The Financial Times та Cyberint, останнім часом спостерігається «понад 100% зростання використання Telegram кіберзлочинцями». Зазначається, що зростання злочинної активності в месенджері сталося після того, як WhatsApp змінив політику конфіденційності. Підписуйтесь на наш Telegram-канал Якщо ви пам’ятаєте, WhatsApp […]


Новини ІТ

ООН закликає ввести мораторій на використання технологій сканування осіб і штучного інтелекту, які загрожують правам людини

Глава ООН з прав людини закликає до мораторію на використання технологій штучного інтелекту, які представляють серйозну небезпеку для прав людини. Зокрема, йдеться про системи сканування осіб, які відстежують людей в громадських місцях. Нагадаємо, що штучний інтелект, скануючи резюме, позбавляє роботи ≈ 27 млн осіб. А Ілон Маск представив людиноподібного робота Tesla Bot. Підписуйтесь на наш […]


Новини партнерів

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: