カリフォルニア大学サンフランシスコ校(UCSF)の研究チームは、声を出す際に脳で発生する電気信号を解析することで、発声される言葉を信号パターンから合成することに成功した。
この技術は、唇やあご、舌など発生につながる部位を制御する言語中枢の活動をとらえ、活動状況から発生されるであろう音声を作り出すもの。実験では、脳に電極を埋め込んでいる被験者に協力してもらい、実際の発声と脳の動きをそれぞれ記録した。こうして集めたデータを解析し、脳の活動から唇の動きなどを推測し、音声を合成した。
まだ初歩的な段階であるが、将来は脳卒中や外傷による神経障がい、パーキンソン病、筋萎縮性側索硬化症(ALS)などによって声を出せなくなった人の支援技術につながる成果だとした。さらに、流ちょうな発話にとどまらず、感情や個性まで伝えられる表現豊かな音声合成の可能性まであるという。
研究の紹介ビデオ(出典:UCSF/YouTube)
CNET Japanの記事を毎朝メールでまとめ読み(無料)
現場経験から生まれた建設テックアプリが
"二次元の図面管理”の救世主へ
録画したWeb会議で組織の情報共有を円滑化
営業活動に必要な機能を備えたベルフェイス
ZDNet×マイクロソフトが贈る特別企画
今、必要な戦略的セキュリティとガバナンス
セキュリティ×コミュニケーションで
社会課題の解決へ