重度の麻痺患者に対する画期的な進歩として、カリフォルニア大学バークレー校とサンフランシスコ大学は、脳信号をリアルタイムで可聴音声に変換する革新的な技術を開発しました。この革命家はブレイン・コンピューター・インターフェース (BCI) テクノロジーこれは、話す能力を失った人々が自然なコミュニケーション能力を取り戻すのを助ける上で重要なマイルストーンとなる。
ストリーミングアプローチにより応答時間を大幅に短縮
に掲載された記事によると、カリフォルニア大学バークレー校工学部研究チームはウェブサイトを作成しました。信号を解読する AI 搭載システムから直接脳の運動野、ほぼ瞬時に音声を生成します。これ "ストリーミング」アプローチは、以前の方法に比べて劇的な改善を示しています。
「Alexa や Siri で使用されているものと同様の音声デコード技術を活用する私たちのストリーミング アプローチは、脳の意図から音声出力までの時間を大幅に短縮できます」と、この研究の共同リーダーであり、カリフォルニア大学バークレー校の電気工学およびコンピュータ サイエンス学科の助教授である Gopala Anumanchipalli 氏は説明します。

この影響速度向上が顕著。新しいテクノロジーの中心となるのは、従来の BCI 音声デコードの遅延の問題。以前のテクニックでは約単一の文を解読するのに 8 秒、新しいメソッドは、次の範囲内の最初の音節を出力できます。1秒患者が話そうとした後。

実際の結果: 患者アンの経験
この技術の有効性は、発声せずに文章を「考える」だけで自然に近い音声を生成できるアンという患者の研究を通じて実証されました。
音声生成に対するチームの革新的なアプローチにより、このテクノロジーは特に個人的なものになっています。ケイロ・リトルジョン氏、この研究の共同筆頭著者であり、バークレー大学の博士課程の学生、チームが使用したと述べたAI で事前トレーニングされたテキスト読み上げモデル患者の受傷前の声をシミュレートして、出力をよりパーソナライズします。
多用途性と適応性
この研究では、微小電極アレイや顔面筋電図センサーなど、さまざまな脳信号取得デバイス間での優れた互換性が実証されており、さまざまな臨床現場での幅広い応用の可能性が示されています。

おそらく最も印象的なのは、このシステムが驚くべき一般化能力を示していることです。。患者アンが「話す、「26 個の単語がトレーニング データに含まれていませんでした。具体的には、「Alpha」や「Alpha」などの NATO 表音アルファベットの単語です。「ブラボー」モデルは彼女の意図を正確に解読した。
「これは、私たちのシステムがパターンマッチングに依存しているだけでなく、実際にスピーチの構成規則を学習していることを証明しています。、”もう一人の共同筆頭著者で博士課程の学生である Cheol Jun Cho 氏は次のように述べています。。 「この能力は、トーン、ピッチ、その他の音声表現の特性を将来的に改善するための基礎を築きます。」
今後の方向性
患者のアンは、この新しいアプローチにより、2023 年の以前の実験経験よりも優れたコントロールと自己表現が可能になったと報告しています。
研究チームは今後、より幅広い臨床シナリオへの応用を模索しながら、音声の自然さと感情表現を強化するためにアルゴリズムを改良する予定だ。
このニューラル インターフェイス テクノロジは、支援通信テクノロジの大幅な進歩を表します。これは、人工知能を活用して、怪我や病気で失った人々に言語などの人間の基本的な能力を回復させる方法を示しています。














