當家長和老師發(fā)現LGBTQ(女同性戀者Lesbian、男同性戀者Gay、雙性戀者Bisexual、跨性別者Transgender、酷兒Queer或對其性別認同感到疑惑的人Questioning)青少年陷入困境,并由于各種原因無法進行及時干預時,谷歌能幫上忙嗎?
預防自殺“守門人”的角色通常由社區(qū)成員組成。當發(fā)現有人有自殺傾向時,他們會提供幫助。這是一個松散的組織,通常包括教師、家長、教練和年長的同事,但當意識到有人要自殺時,他們都有某種權威和干預能力。
谷歌能擔任這樣的角色嗎?當用戶搜索與自殺方法相關的關鍵詞時,谷歌的結果突出顯示了全國自殺預防生命熱線的號碼。但這個系統(tǒng)并不是萬無一失的。谷歌不能編輯網頁,只能編輯搜索結果,這意味著互聯(lián)網用戶可以很容易地通過鏈接或論壇找到如何自殺的信息,根本就不需要搜索引擎。同時,一個機器可能無法理解自殺者是真誠的求救還是在開玩笑。而且,當人們用英語以外的語言搜索自殺時,谷歌人工智能的反應低效得多。
五月,科技巨頭撥款150萬美元的Trevor項目是一家位于加州的非營利組織,通過電話(TrevorLifeline)、短信服務(TrevorText)和即時通訊平臺(TrevorChat)為LGBTQ青少年提供危機咨詢。該項目的負責人希望通過機器學習來提高TrevorText和TrevorChat的自殺風險預測的準確性。Trevor的咨詢都是從一個簡單的問題開始的:“你怎么啦?”
Trevor項目主任薩姆·多里森(SamDorison)說:“我們想要確保以一種中立的方式與他們談論自殺的話題”“讓他們來引導談話,看什么對他們最有幫助?!?/p>
Trevor的平均等待時間不到5分鐘,有時甚至以秒計算。Trevor希望最終人工智能能夠通過來電者對第一個問題的回答來識別高風險者,并立即將他們轉接給咨詢師。將使用兩個數據點對谷歌的人工智能進行培訓:一是青少年與咨詢師的對話,二是咨詢師在與他們交談后完成的報告。其想法是,通過觀察初始反應與最終風險的比較,訓練人工智能根據最早的反應來預測自殺風險。
算法在識別看不見的模式方面有著巨大的潛力,但要成為一個好的“看門人”,關鍵在于干預,一旦發(fā)現問題,就挺身而出并介入其中。這就是Trevor項目的來龍去脈。最終,這個非盈利組織的領導者們想要用一個人工智能系統(tǒng)來預測年輕人需要什么資源:住房、出柜幫助、治療,所有這些都是通過掃描聊天中最初的幾條信息來實現的。長期而言,他們希望進化AI,使其能夠看到聊天信息背后的東西。例如,如果人工智能能夠從信息中判斷求助者閱讀或教育水平,它能否推斷這些構成因素對自殺風險的影響?遵循一個簡單的“if.than”語句拯救一個人的生命似乎不可能,但很快,它可以。
本文譯自 The Atlantic,由譯者 Mork 基于創(chuàng)作共用協(xié)議(BY-NC)發(fā)布。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )