標題:谷歌新規(guī)引發(fā)外包人員擔憂:被迫評估不擅長的“Gemini回復”,公平性成疑?
隨著人工智能技術的飛速發(fā)展,谷歌推出的大型語言模型Gemini在語言生成和自然語言理解方面取得了顯著成果。然而,最近谷歌對其外包評估流程進行的一項調整引發(fā)了外界對其在敏感領域信息準確性的擔憂。特別是,這項調整要求外包評估員在評估Gemini的回復時,不得再像以往那樣因自身專業(yè)知識不足而跳過某些特定的評估任務。
首先,我們需要明確的是,Gemini是一個強大的人工智能模型,其輸出結果雖然已經過大量的訓練和優(yōu)化,但在某些特定領域,如醫(yī)療健康等專業(yè)性極強的領域,其信息準確性和可信度仍存在一定的局限性。而谷歌此次調整的外包評估流程,要求外包評估員在評估Gemini的回復時,必須面對自己不熟悉或不擅長的領域,這無疑增加了Gemini輸出不準確信息的風險。
對于這一問題,谷歌與外包公司GlobalLogic的合作提供了一種可能的解決方案。他們通過雇傭合同工來評估人工智能生成的回復,這些合同工應當具備一定的專業(yè)知識和技能,以確保評估的準確性和公正性。然而,新的指導方針要求評估員不得再以缺乏專業(yè)知識為由跳過任何提示,這無疑引發(fā)了外包人員的擔憂。
一位合同工在內部通信中表示:“我原以為跳過的目的是通過將其交給更專業(yè)的人來提高準確性?難道我們不應該被允許在評估Gemini回復時有一定的自由度嗎?”此外,新的指導方針還規(guī)定了一些情況下評估員可以跳過提示的條件,如提示或回復“完全缺失信息”或提示包含需要特殊同意書才能評估的有害內容。然而,對于大多數情況而言,外包人員可能仍面臨著評估自己不熟悉或專業(yè)性極強的領域的問題。
值得注意的是,盡管外包人員可能面臨一定的挑戰(zhàn)和壓力,但我們必須認識到,Gemini的準確性和可信度仍然需要進一步驗證和改進。因此,外包人員的評估和反饋對于提高Gemini的性能和準確性至關重要。此外,為了確保外包評估流程的公平性和透明度,谷歌和GlobalLogic需要建立有效的溝通和反饋機制,以確保外包人員能夠充分了解Gemini的特性和性能,并為其提供適當的培訓和支持。
總的來說,谷歌新規(guī)引發(fā)外包人員擔憂:被迫評估不擅長的“Gemini回復”,公平性成疑?這一問題不僅引發(fā)了外包人員的疑慮和困惑,也對谷歌和GlobalLogic提出了新的挑戰(zhàn)。他們需要重新審視和調整外包評估流程,以確保Gemini的準確性和可信度,同時確保外包人員的評估和反饋能夠得到充分重視和支持。只有這樣,我們才能更好地利用人工智能技術,為人類社會的發(fā)展和進步做出更大的貢獻。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )