Головна » Технології / Новини ІТ » Штучний інтелект покращить кіберзахист і допоможе обирати паролі

Дослідники з Університету Карнегі-Меллона дійшли висновку, що нейронні мережі можуть використовуватися для забезпечення мінімальної безпеки паролів без використання величезних комбінацій. Група провела дослідження і створила різні паролі – від 8-значних з використанням одного класу символів, як-от літери, до складних 16-значних з використанням цифр, великих та малих літер, й інших символів.




В результаті цього аналізу з’ясували, що використання всього 12 символів одного класу і дотримання рекомендацій штучного інтелекту дозволило створити важкі для злому паролі, яких має вистачити для більшості випадків використання.

За словами фахівців, вимога поєднувати у паролі весь набір символів не обов’язкова. Раніше було значно менша кількість 3- та 4-класних паролів, які швидко «зливалися» в Інтернет. Кіберзлочинцям було важче розробляти методи ефективного вгадування. Оскільки за останні роки таких витоків було значно більше, значно легше навчити нейромережі вгадувати їх.

Дослідження спрямовано на пошук найкращого балансу між зручністю використання і безпекою паролів. Нейронна мережа моделює поведінку зловмисників з метою визначити, які комбінації можна легко відгадати, використовуючі різні сучасні методи.

На думку експертів, при поєднанні мінімально потрібної довжини пароля та відповідності стандарту надійності нейромереж можна досягти найкращого кіберзахисту у компаніях.

Якщо Ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.
Поділитися:

Новини партнерів

Правила коментування

Вітаємо Вас на сайті Pingvin Pro. Ми докладаємо всіх зусиль, аби переконатися, що коментарі наших статей вільні від тролінгу, спаму та образ. Саме тому, на нашому сайті включена премодерація коментарів. Будь ласка, ознайомтеся з кількома правилами коментування.

  1. Перш за все, коментування відбувається через сторонній сервіс Disqus. Модератори сайту не несуть відповідальність за дії сервісу.
  2. На сайті ввімкнена премодерація. Тому ваш коментар може з’явитися не одразу. Нам теж інколи треба спати.
  3. Будьте ввічливими – ми не заохочуємо на сайті грубість та образи. Пам’ятайте, що слова мають вплив на людей! Саме тому, модератори сайту залишають за собою право не публікувати той чи інший коментар.
  4. Будь-які образи, відкриті чи завуальовані, у бік команди сайту, конкретного автора чи інших коментаторів, одразу видаляються. Агресивний коментатор може бути забанений без попереджень і пояснень з боку адміністрації сайту.
  5. Якщо вас забанили – на це були причини. Ми не пояснюємо причин ані тут, ані через інші канали зв’язку з редакторами сайту.
  6. Коментарі, які містять посилання на сторонні сайти чи ресурси можуть бути видалені без попереджень. Ми не рекламний майданчик для інших ресурсів.
  7. Якщо Ви виявили коментар, який порушує правила нашого сайту, обов’язково позначте його як спам – модератори цінують Вашу підтримку.

Схожі новини

Новини ІТ

Epic Games представила додаток для створення моделей людей за допомогою iPhone

Epic Games, Inc. опублікувала короткий огляд MetaHuman Creator – революційного методу створення моделей людини. Це хмарний застосунок, який дозволяє створювати модель людини протягом години. Для прикладу, класичне створення в реальному часі у 3D-додатку, може зайняти місяці або тижні. Автори можуть вносити корективи, створюючи відправну точку для своїх моделей з використанням бібліотеки осіб, що постійно збільшується. […]


Новини ІТ

Instagram видалятиме облікові записи за образливі повідомлення

На жаль, образи – це частина спілкування між людьми як офлайн, так і онлайн. Методи боротьби, звісно, є. Однак, вони не завжди дають бажаного результату. Соцмережі, як-от Instagram, також намагаються зменшити кількість подібних інцидентів. Найбільша кількість випадків образ у застосунку відбувається в приватних повідомленнях. Абсолютно невідома вам людина може написати в дірект кілька лайливих слів. […]


Новини партнерів

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: