Головна » Технології / Новини ІТ » Штучний інтелект дозволить говорити без слів

Вчені Колумбійського університету (США) розробили штучний інтелект, здатний перетворювати думки людини в мову. Контролюючи діяльність мозку, система може реконструювати слова, вимовлені подумки з великою чіткістю. У минулому, спроби розшифрувати сигнали мозку ґрунтувалися на простих комп’ютерних моделях, які аналізували спектр звуків, що не призвело до конкретних результатів.




Для реалізації проекту вчені з США використовували вокодера — спеціального інструмента, який синтезує усне мовлення після навчання на основі розмов людей. Щоб навчити вокодер «розуміти» роботу мозку вчені попросили пацієнтів, які страждають на епілепсію і перенесли операції на головному мозку, прослухати фрази різних людей. В цей час їх мозкова діяльність записувалася для навчання вокодера. Потім пацієнтам дали послухати цифри від 0 до 9. В цей момент сигнали мозку також фіксувалися для навчання вокодера. У результаті дослідження, роботизований голос повторював послідовність чисел. Пацієнти змогли зрозуміти звуки в 75% випадків, що істотно вище всіх попередніх спроб.

AnTuTu розробив тест для аналізу ШІ

Дослідники з МІТ розробили систему передачі повідомлень лазером

Штучний інтелект дозволить говорити без слів

В найближчому майбутньому дослідники планують навчити штучний інтелект вимовляти складніші слова і навіть цілі речення. Після цього вони мають намір вбудувати свій винахід в імплант, який буде перекладати думки людини в мову. Це дало б будь-кому, хто втратив здатність говорити через травму або хворобу, новий шанс спілкуватися з навколишнім світом.

Якщо Ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.
Поділитися:
Правила коментування

Вітаємо Вас на сайті Pingvin Pro. Ми докладаємо всіх зусиль, аби переконатися, що коментарі наших статей вільні від тролінгу, спаму та образ. Саме тому, на нашому сайті включена премодерація коментарів. Будь ласка, ознайомтеся з кількома правилами коментування.

  1. Перш за все, коментування відбувається через сторонній сервіс Disqus. Модератори сайту не несуть відповідальність за дії сервісу.
  2. На сайті ввімкнена премодерація. Тому ваш коментар може з’явитися не одразу. Нам теж інколи треба спати.
  3. Будьте ввічливими – ми не заохочуємо на сайті грубість та образи. Пам’ятайте, що слова мають вплив на людей! Саме тому, модератори сайту залишають за собою право не публікувати той чи інший коментар.
  4. Будь-які образи, відкриті чи завуальовані, у бік команди сайту, конкретного автора чи інших коментаторів, одразу видаляються. Агресивний коментатор може бути забанений без попереджень і пояснень з боку адміністрації сайту.
  5. Якщо вас забанили – на це були причини. Ми не пояснюємо причин ані тут, ані через інші канали зв’язку з редакторами сайту.
  6. Коментарі, які містять посилання на сторонні сайти чи ресурси можуть бути видалені без попереджень. Ми не рекламний майданчик для інших ресурсів.
  7. Якщо Ви виявили коментар, який порушує правила нашого сайту, обов’язково позначте його як спам – модератори цінують Вашу підтримку.

Схожі новини

Новини ІТ

Хто відповідальний за космічне сміття?

Виявляється, забруднивши нашу планету, люди тепер забруднюють космос. Космічне сміття всюди – тисячі уламків від зламаних супутників, ракетних прискорювачів і випробувань зброї, які люди запускають протягом багатьох років, застрягли на орбіті, створюючи безлад. Воно може не тільки врізатися в активні супутники, необхідні для моніторингу Землі, але й вивільнити шкідливі хімічні речовини в атмосферу, оскільки вони […]


Новини ІТ

Meta закрила дві кампанії: російська дезінформувала про війну в Україні, китайська мала вплив на США

Соціальні мережі постійно використовуються для поширення фейків та пропаганди. Компанії стараються боротися з цим, але не завжди успішно. Згідно з оголошенням Meta, вона закрила дві кампанії – з Китаю та росії. Перша вела пропаганду в США, а друга дезінформувала людей в Європі про війну в Україні. Обидві країни славляться своєю пропагандою. Підписуйтесь на наш Telegram-канал Google […]


Повідомити про помилку

Текст, який буде надіслано нашим редакторам: