根據MIT和Google研究人員近期發(fā)表的論文,他們正在訓練AI將圖像、聲音和文字等多方面信息匹配起來。
在語音識別、圖像識別以及下圍棋等單項能力方面,AI已經足夠出色,甚至超越了人類。但是如果AI一次只能使用一種感知能力,無法將看到和聽到的內容進行匹配的話,就無法徹底理解周圍的世界。這正是MIT和Google的研究人員進行這項研究原因。
研究人員并沒有教給算法任何新東西,只是建立了一種方式讓算法能夠將多種感官獲得的知識進行連接和協調。這一點至關重要。
論文的聯合作者之一——MIT的AI博士后Yusuf Aytar以無人車為例:比如無人車的聲音傳感器先聽到了救護車的聲音,然后激光雷達才看到救護車的樣子。有關救護車的鳴叫聲、樣子以及職能的知識可以讓無人車放慢速度,切換車道,為救護車讓路。
他說道:“你是先看到汽車還是先聽見引擎聲并沒有關系,你馬上能識別出這是同一個概念。因為你大腦中的信息已經自然地把它們協調統(tǒng)一起來了。”
為了訓練這套系統(tǒng),MIT的研究小組首先向神經網絡展示了與音頻相關的視頻幀。在神經網絡發(fā)現視頻中的對象并且識別出特別的音頻之后,AI就會嘗試預測哪一個對象跟聲音關聯。比方說,招手會不會發(fā)出聲音呢?
接下來,研究人員又以相同的形式為算法提供了帶標題的圖片,讓它將文字和圖片進行匹配。網絡首先需要單獨識別出圖中所有的對象以及相關問題,然后才能進行匹配。
由于AI獨立識別聲音、圖像、文字的能力已經十分出色,這種網絡乍看之下并沒有什么了不起。但研究人員表示,當他們對AI進行聲音/圖像、圖像/文字的配對訓練時,系統(tǒng)就能在未經訓練指導哪個單詞與不同聲音匹配的情況下將聲音與文字關聯起來。這表明神經網絡對于所看到的、聽到的或者讀到的東西已經形成了更加客觀的看法,而且這種看法的形成并不完全依賴于它用來了解這一信息的媒介。
統(tǒng)籌對象的觀感、聽覺以及文字后,算法就能自動將聽到的東西轉化為視覺圖像,從而強化對于世界的理解。
據悉,Google也進行了類似的研究,不過Google更加強調一點:新算法還能將文字轉化成其他的媒體形式,雖然從準確率上來說,它暫時還比不上單用途的算法。
- 蜜度索驥:以跨模態(tài)檢索技術助力“企宣”向上生長
- 美國ITC裁定聯想智能手機侵犯愛立信專利
- 英特爾高通隔空叫陣:兩大巨頭在較什么勁?
- IDC最新預測:2024年PC和平板電腦市場將增長3.8%至4.035億臺
- 蘋果Vision Pro頭顯即將登陸中國臺灣,12月17日正式發(fā)售
- 全球折疊屏手機出貨量首次遭遇季度下滑,三星旗艦機型表現不佳是主因
- HUAWEI Mate X6 震撼登場,折疊引領者,巔峰再跨越
- 五年持續(xù)領跑,華為折疊屏一步領先,一路領先
- 全新HUAWEI MatePad Pro 13.2 英寸首發(fā)亮相,鴻蒙專業(yè)生產力體驗再升級
- 華為凌霄子母路由 Q7 網線版推出,讓每個房間都有滿格信號
- 華為發(fā)布HUAWEI WATCH D2,開啟腕上血壓管理新篇章
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。