您現在的位置是:首頁 > 運動
不用腦後插管,AI掃描腦電圖就知道你的“小秘密”
釘釘用小視窗記時間嗎
很多人都看過那種腦後插管,然後竊取你的記憶的電影橋段,令人不寒而慄。而最近META介紹了可利用AI從大腦活動中直接解碼語音的新技術。
同樣都能讀取思想,但此AI只需掃描對方的腦電圖便能知道對方在想什麼。
曾經有人做過這樣的社會調查:假如給你一種超能力,你會選擇什麼?結果大多數人選擇了“讀心術”。能“讀心”會讓人們的生活和事業更為順利,但對於一些殘障人士來說,他們迫切需要他人能讀懂他的心。
AI讀懂人心:腦波與聲音匹配
每年遭受創傷性腦損傷的人數近7000萬人,他們大都無法再透過語音,甚至手勢與他人進行交流。因此,從大腦活動中直接解碼語言成為醫療保健和神經科學中期待已久的目標。
Meta AI的研究人員開發出一種 AI 模型,可以根據大腦活動的無創記錄解碼語音。在Meta最新開發的模型,
可在3秒的大腦活動中,從793個單詞字彙表中,
解碼出相對應
的語音片段,前10名單詞的準確率高達73%
,研究人員提到,這已經是人們每天常用字彙的一大部分。
這項研究的目標是要開發一個人工智慧模型,以非侵入性的方式,從大腦的活動中解碼語音。因為很多人的創傷性腦損傷使他們無法說話、打字或是手勢進行交流,因此如果發展出非侵入性從大腦活動解碼語言的技術,這些人便可更方便地與其他人交流。
解碼大腦活動是腦神經科學家一直努力的方向,但是到目前為止,大部分的研究都依賴侵入式的方式記錄大腦活動,
雖然這些裝置比無創的方法能夠記錄更清晰的訊號,但是卻需要神經外科介入
,無創方法的挑戰很大。
機器學習
:模擬人類大腦
研究人員以比對學習技術訓練深度學習模型,再用該模型對齊大腦活動記錄和語音。研究人員使用FAIR團隊所開發的開源自監督學習模型wave2vec 2。0,並用這個模型來識別聽有聲讀物受試者大腦海中的語音表達。訓練資料集包括來自169名健康志願者,在聽有聲讀物和孤立句子時,大腦活動的150多個小時的錄音。
該團隊還將這些腦電圖和腦磁圖的記錄輸入到一個“大腦”模型中,該模型由一個帶有殘差連線的標準深度卷積網路組成。在實踐中,
分析大腦資料通常需要一個複雜的工程管道,用於重新調整模板大腦上的大腦訊號。
值得一提的是,Meta AI 在之前工作中,使用 wav2vec 2。0證明了該演算法可生成與大腦相似的語音表示。wav2vec 2。0中語音“類腦”表示的特點使其成為構建解碼器的理想選擇,它有助於瞭解應該從大腦訊號中提取哪些表示。
Meta AI在官方博文中提到:“訓練後,我們的系統執行所謂的零樣本分類:給定一個大腦活動片段,
它可以從眾多音訊片段中確定這個人實際聽到的是哪個片段
。即演算法能推斷出人們最有可能聽到的詞。”
在索菲亞看來,該項研究是科學界使用AI更好地瞭解人類大腦廣泛努力的一部分。這一研究領域除了可以幫助患者,它甚至可能推動技術的進一步的提升,我很期待能夠看到AI造福人類的那一天。
推薦文章
- 寫在語文段考後——暗夜裡的跋涉
月考語文的失敗,有老師小心翼翼傳達了領導的提醒,讓我在作業的佈置上要合理一些,不要花費過多時間去抄抄寫寫...
- 東航迴應“C919計劃2月28日商業首飛”:確有計劃,尚未完全確定
相關閱讀:《國產大飛機 C919 首航航班曝光:2 月 28 日北京上海往返》《總訂單超 1200 架,C919 國產客機預計今年 3 月開始載客》...
- 夜逛慶都山
在這個多情的夜裡,多情的地域,月亮害羞的躲在了天際,靜默的隱藏了自己的嬌豔,不敢與慶都山的燈火競爭美麗的原色,只好悄無聲息的息影,面對人間繁華沒辦法作出解釋...