credit:123RF
因為電腦沒有像人類一樣的共情能力和情切感,人類當然不會打心底里覺得電腦有意思。實際上,當我們允許電腦參與協(xié)商和博弈的時候,人工智能會展現(xiàn)出近乎反社會的談判技巧。如果我們允許的話,AI會選擇直接對人類撒謊。
讓人工智能更像人
隨著人工智能領(lǐng)域不斷發(fā)展,AI 似乎可以學習做任何事情,從面部識別到幫助醫(yī)生做診斷。這項技術(shù)已經(jīng)證明了自己在處理數(shù)據(jù)和解決特定問題的能力。不過工程師還有一大困難沒有攻克,就是教會 AI 社交,例如一些社交技巧和「讀空氣」的能力,以及合作的能力。
臉書的人工智能研究部門 (FAIR) 現(xiàn)在正在研發(fā)一款擁有基本社交技巧的 AI 談判器人。這個機器人的程序能夠在協(xié)商和談判中尋求雙贏?;镜睦砟罹褪?,機器人一定要理解,只有讓對方同意自己才算成功。(即使對方也是機器人。)
語言的博弈
你會怎么讓 AI 學會談判?FAIR 先讓機器人學會給不同的東西「標價」。例如,一個帽子值7分,一個球值3分?,F(xiàn)在 AI 還得明白,對方對這些東西的「標價」和自己不一樣。最后,就要測試,兩個機器人在一起談判,怎么在一系列磋商中,讓自己盡可能的拿到更多積分。
這就有點意思了。這些 AI 在測試開始之前沒有學會任何談判策略,只知道自己要「從經(jīng)驗中學習,提前計劃,」所以所有的策略都是他們自學的。隨著這些機器人越來越聰明,他們也習得了幾個技巧:
死皮賴臉:新機器人沒有什么技巧,通常會和人類對手死磕,把談判時間拉長。在這種策略之下,人類可能會受不了,但機器人只要有電就能一直耗下去。
聲東擊西:AI 有時像一個玩撲克牌的人,它們會假裝對一個低價值的東西感興趣,并向?qū)Ψ阶龀觥竿讌f(xié)」。研究人員并沒有把這種策略寫進程序里,是它們自己想出來的。
舉一反三:有的 AI 在程序里設(shè)定了一套談判話術(shù),不過機器人會根據(jù)這些已有的話術(shù)推出更多的話術(shù)。
本文譯自curiosity,由譯者 Dkphhh 基于創(chuàng)作共用協(xié)議(BY-NC)發(fā)布。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )