Калифорнийские исследователи создали нейрочип и алгоритм, позволяющие напрямую считывать мысли из центра речи человека и озвучивать их, используя виртуальный аналог голосовых связок. Эта система вернет дар речи многим немым инвалидам, пишут ученые в журнале Nature, сообщает портал Сенсационные Новости со ссылкой на earth-chronicles.ru.
“Пока что мы еще далеки от совершенства – наша система вырабатывает почти естественные медленные звуки, такие как “ш” или “з”, и хорошо справляется с ритмом и интонацией речи, правильно отражая пол и личные особенности человека, но некоторые резкие звуки пока не очень четкие. С другой стороны, уже сейчас она позволяет общаться в режиме реального времени”, — заявил Джош Чартье (Josh Chartier) из университета Калифорнии в Сан-Франциско (США).
В последние 10 лет нейрофизиологам удалось совершить настоящий прорыв в области создания нейроинтерфейсов – набора микрочипов, особых электродов и компьютерных программ, позволяющих подключать к мозгу человека и животных кибер-конечности, искусственные глаза и даже те органы чувств, аналогов которых нет в природе – тепловизоры и рентгеновизоры.
К примеру, в марте 2013 года бразильские и американские ученые смогли объединить мозг двух крыс, живущих в тысячах километров друг от друга, в своеобразную “локальную сеть”, или, как назвали эту конструкцию сами ученые, “органический компьютер”, и научить их обмениваться информацией.
Позже они создали аналогичный “коллективный разум”, объединив мозг трех обезьян, а два года назад другие исследователи смогли заменить поврежденную часть гиппокампа, центра памяти в мозге мышей, и избавить их от “синдрома сурка”, неспособности запоминать новую информацию.
Подобные успехи, как отмечает Чартье, заставили нейрофизиологов задуматься над тем, можно ли напрямую считать мысли из центров речи мозга и озвучить их, используя подобные нейроинтерфейсы или электроэнцефалографы. Решение этой задачи оказалось намного более сложной проблемой, чем подключение новых рук и ног к телу парализованного пациента.
Чартье и его коллеги смогли решить ее благодаря тому, что они подошли к этой проблеме с совершенно другой стороны. Они не пытались расшифровать сигналы мозга и напрямую “считать” слова и буквы, а предположили, что наши центры речи кодируют не конкретные звуки, а наборы инструкций для мускулов рта, гортани языка и голосовых связок.
Руководствуясь этой идеей, ученые обратились за помощью к пяти эпилептикам, готовившимся пройти операцию по блокировке очагов эпилептической активности в хирургическом центре университета. Для их поиска врачи имплантировали в мозг этих пациентов набор электродов, которым Чартье и его коллеги воспользовались для того, чтобы следить за активностью центров речи.
Во время этих опытов ученые просили добровольцев зачитывать определенные слова и предложения и записывали сигналы, поступавшие из их нервных клеток. После этого ученые сопоставили подобные наборы электрических импульсов с аудиозаписями речей этих пациентов и создали алгоритм, “расшифровывающий” команды мозга в понятный для компьютера язык.
Используя эти данные и систему искусственного интеллекта, нейрофизиологи из Калифорнии создали еще одну программу, которая представляла собой виртуальную копию голосовых связок, способных обрабатывать эти сигналы и преобразовать их в речь.
Как показали опыты на другой группе добровольцев, прослушивавших подобные записи, эта синтетическая речь была понятной для них примерно в половине случаев, если эпилептики использовали простые наборы слов. При повышении его сложности качество распознавания речи падало до 20%.
Повышение плотности электродов, как надеются Чартье и его коллеги, позволят считывать команды мозга более качественно, что позволит инвалидам заново обрести дар речи в самое ближайшее время.