近日,據(jù)外媒報(bào)道,微軟和麻省理工開(kāi)發(fā)了一個(gè)模型,可以捕捉這些自動(dòng)駕駛汽車系統(tǒng)的虛擬的“盲點(diǎn)”。據(jù)麻省理工稱,這種方法讓人工智能將一個(gè)人在特定情況下的行為與它本來(lái)會(huì)做的行為進(jìn)行比較,并根據(jù)它與反應(yīng)的匹配程度來(lái)改變其行為。
如果一輛自動(dòng)駕駛汽車在救護(hù)車疾馳而過(guò)時(shí)不知道如何靠邊停車,它可以通過(guò)觀察一名真實(shí)的司機(jī)移到路邊來(lái)學(xué)習(xí)。
自動(dòng)駕駛汽車仍然容易出錯(cuò),部分原因是人工智能訓(xùn)練只能解釋這么多情況。而該模型還可以實(shí)時(shí)修正,如果人工智能出了問(wèn)題,一個(gè)人類司機(jī)就可以接管并指出了問(wèn)題。
研究人員甚至有辦法防止無(wú)人駕駛汽車變得過(guò)于自信,并將給定響應(yīng)的所有實(shí)例標(biāo)記為安全。機(jī)器學(xué)習(xí)算法不僅可以識(shí)別可接受和不可接受的響應(yīng),還可以使用概率計(jì)算來(lái)識(shí)別模式,并確定某樣?xùn)|西是真正安全的,還是仍然存在潛在的問(wèn)題。即使一個(gè)行動(dòng)在90%的情況下是正確的,它可能仍然會(huì)看到它需要解決的弱點(diǎn)。
這項(xiàng)技術(shù)還沒(méi)有應(yīng)用到這個(gè)領(lǐng)域??茖W(xué)家們只是用電子游戲來(lái)測(cè)試他們的模型,在游戲中有有限的參數(shù)和相對(duì)理想的條件。
微軟和麻省理工學(xué)院仍然需要用真正的汽車進(jìn)行測(cè)試。不過(guò),如果這種方法奏效,它可能在讓自動(dòng)駕駛汽車變得實(shí)用方面大有作為。早期的車輛在處理像雪天這樣簡(jiǎn)單的事情上仍然存在問(wèn)題,更不用說(shuō)在快節(jié)奏的交通中,一個(gè)錯(cuò)誤就可能導(dǎo)致撞車。這可以幫助他們處理棘手的情況,而不需要精心設(shè)計(jì)的定制解決方案或?qū)⒊丝椭糜谖kU(xiǎn)之中。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )