人工知能が脳卒中患者に約20年ぶりに声を取り戻した
画期的な研究として、カリフォルニア大学のチームは患者に人工知能インプラントを使用し、患者が「会話」できるようにしました。この医学の驚異は、2005 年に脳幹卒中を患い、話すことができなくなった 48 歳の女性、アン ジョンソンを助けました。
ほぼ 20 年後、アンは人工知能のおかげで声を取り戻すことができました。アンは現在、カリフォルニア大学バークレー校とカリフォルニア大学サンフランシスコ校の研究者が新しいブレイン コンピューター技術を開発するのを支援しています。この技術により、いつか人を模倣したデジタル アバターを使ってより自然に会話できるようになるかもしれません。
この最新の医学的進歩は、2023 年 8 月 23 日にNature 誌に掲載されました。UCSF ワイル神経科学研究所のメンバーであり、この技術に取り組んできたエドワード・チャン氏は次のように述べています。
「私たちの目標は、私たちが他の人と話すための最も自然な方法である、完全で具体的なコミュニケーション方法を復元することです。これらの進歩により、これが患者にとっての真のソリューションに大きく近づくことができます。」
人工知能は患者の声の回復をどのように助けたのでしょうか?
科学者たちは、アンが結婚式中に話している録音をサンプルとして使用し、可能な限り本物のコミュニケーションを実現するために彼女の声の抑揚と口調を再現しました。
これを達成するために、研究チームは彼女の脳の表面上で、音声に重要であると以前に特定された領域に、253 個の電極からなる紙のように薄い長方形を外科的に挿入した。電極は、脳卒中がなければアンの顔、唇、舌、顎、喉頭の筋肉に届いていたであろう脳信号を遮断した。電極は、アンの頭蓋骨に固定されたコネクタに接続されたケーブルによって一連のコンピューターに接続されていました。
アンと研究者たちは、彼女の話すための特定の脳信号を認識するために、デバイスの人工知能アルゴリズムをプログラムするのに数週間を費やしました。音に関連する脳の活動パターンを識別するようにコンピューターを訓練するには、1,024 語のレパートリーからさまざまなフレーズを繰り返すことが必要でした。
チームは、AI 駆動の顔のアニメーションを制作する企業である Speech Graphics が作成したソフトウェアを使用して、アンのアバターの顔の筋肉を複製してアニメーション化しました。研究者らは、アンが話そうとしたときに脳から発せられる信号と同社のソフトウェアが同期し、それをアバターの顔の動きに変換できるようにする特殊な機械学習アルゴリズムを開発した。
同社は現在、ユーザーがコンピュータに接続する必要がないワイヤレスバージョンを開発中です。
ジョンソンさんは、長年の治療の後、小さな動きをしたり、顔の感情を引き出す能力を回復しました。彼女は、栄養チューブの利用から、柔らかい食べ物や細かく刻んだ食べ物を自分で食べるようになりました。そして今、人工知能のおかげで、彼女は「話す」ことさえできる。病院や医療研究機関がこのテクノロジーをいつより頻繁に使用し始めるかはまだ不明です。
コメントを残す