AI(人工智能)無疑是 2023 年最熱的話題之一,尤其是以ChatGPT為代表的生成式AI。對于AI的態(tài)度,1000個人眼中就有1000個哈姆雷特。有人認為AI會導致人類滅絕,會威脅國家安全,甚至呼吁停止所有超過一定能力的AI訓練。針對這個話題的討論不會短期內結束,但不可否認的是,生成式AI已經(jīng)走入尋常百姓家,越來越多的人在嘗試使用ChatGPT、文心一言等工具。那么,對于企業(yè)來說,在企業(yè)環(huán)境中采用生成式AI工具應該注意些什么,如何才能發(fā)揮這一顛覆性技術的潛在力量呢?
生成式AI領域目前尚處于起步階段,但這標志著人工智能和計算領域正在經(jīng)歷一個新的拐點。在生成式AI領域大放異彩的大多數(shù)大型語言模型都擅長自然語言處理(NLP)。在眾多行業(yè)中,這些生成式AI 模型可用于基于 NLP 的應用,如提供交互式幫助。用戶可以通過基于生成式AI 的交互式聊天機器人分享知識庫/用戶手冊和文檔等,幫助用戶查找信息。
生成式AI還可以提供基于NLP的全企業(yè)范圍內業(yè)務數(shù)據(jù)搜索能力,這實現(xiàn)起來有一定難度。目前這個領域還在不斷發(fā)展,一些企業(yè)軟件企業(yè)已經(jīng)在加大力度研究如何讓生成式AI 模型對現(xiàn)有 NLP 解決方案和人工智能產(chǎn)品進行補充,如通過增強上下文語義理解、通過AI平臺將語音聊天功能與數(shù)字助理或機器學習(ML)模型集成在一起、將企業(yè)搜索擴展至圖像識別功能等等。
此外,由于 生成式AI 模型使用戶能夠利用各種數(shù)據(jù)源生成文本和代碼、進行預測和總結、翻譯、分析圖像等,因此可用于各種企業(yè)場景,例生成電子郵件、報告、產(chǎn)品文檔和網(wǎng)頁內容;創(chuàng)建職位描述和需求;進行產(chǎn)品和供應商比較;為營銷活動制作圖片、音樂和視頻等。企業(yè)還可以利用生成式AI 模型的 NLP 來寫書評、審閱和校對內容,為新的項目提供想法等。
生成“生成式AI”
如果內部有IT 或軟件工程團隊,企業(yè)還可以利用微軟的 Copilot 或 AWS CodeWhisperer 等工具進行代碼生成。當企業(yè)需要建立自己特定行業(yè)的語言模型、對一般性信息進行驗證、通過網(wǎng)絡獲取評論和建議,或者需要將企業(yè)私有數(shù)據(jù)與公共信息進行整合時,這些工具可以與Open AI 的 ChatGPT 或 AWS Bedrock 等生成式AI 工具和平臺集成在一起。
可信性、隱私保護、偏見消除
生成式AI 技術發(fā)展很快,沒有及時采取行動的企業(yè)可能會坐失良機。在條件允許的情況下,企業(yè)應該積極擁抱而不是拒絕這個強大的技術。但這并不意味著在采用生成式AI 模型時要"一刀切",在廣泛采用生成式AI 模型之前,企業(yè)需要充分考慮需要面對的挑戰(zhàn)。
首先是可信。雖然大型語言模型生成的內容看起來是原創(chuàng)的,但它實際上是在模仿基于其所接觸的類似訓練數(shù)據(jù)集的模式。很多時候,生成的信息都是假的,同樣的問題會產(chǎn)生不同的答案。
其次是隱私。模型的訓練用的是用戶共享的數(shù)據(jù)和輸入的條件,而這不是完全可控的,一些受保護的商業(yè)機密或數(shù)據(jù)可能被共享,導致無意識的違反合規(guī)問題。此外,生成和分享一些特定業(yè)務的內容需要遵守嚴格的法律和數(shù)據(jù)隱私保護政策,例如,當公司進行數(shù)據(jù)保護影響評估(DPIA)時,必須確保符合《通用數(shù)據(jù)保護條例》(GDPR)。大多數(shù)生成式AI平臺供應商會確保企業(yè)數(shù)據(jù)的獨有性,不會用于一般性培訓目的,但企業(yè)仍然不能掉以輕心。
還有偏見。人工智能生成的內容是根據(jù)用戶輸入的提示定制的,這也意味著用戶可以只使用有利而非全面的數(shù)據(jù)來訓練模型,生成符合自己意愿的內容。生成的內容實際代表的是主觀性觀點,但表面上看起來很權威,因此很容易讓用戶相信并影響他們的觀點。此外,生成假新聞、假視頻和音頻片段的風險也會越來越高。
審核與過濾不可少
上述問題并非無法克服。方法之一是在終端用戶界面上應用適當?shù)膶徍诉^濾器,一般用戶可通過該界面使用生成式AI工具。而在企業(yè)層面就必須采取人為干預,即所有生成的內容在正式提供去使用時必須經(jīng)過真人審核?,F(xiàn)階段通過人工控制和調節(jié)對于提高生成內容的準確性和一致性、減少偏見,確保企業(yè)競爭優(yōu)勢等非常重要。
因此,企業(yè)需要就生成式AI 如何適用于自身有自己的立場。與此同時,遵循生成式AI 供應商的最佳實踐也至關重要,例如使用 Open AI 的審核過濾器。另外,目前很多國家都在爭相制定各自的人工智能政策,這也是企業(yè)需要考慮的問題,需要確保本國和他國的相關政策和協(xié)議。
未來可期
毫無疑問,生成式AI在未來五到十年將迎來的蓬勃發(fā)展,對于該技術的投資將大幅增加,不論是模型還是硬件,更快更強大的芯片和對更大網(wǎng)絡帶寬的需求都將增加。這一趨勢為人類社會帶來的影響不容小覷。未來幾年,我們接觸到的所有信息都將受到生成式AI 的影響;我們所熟知的互聯(lián)網(wǎng)搜索將更加趨向于量身定制的對話式體驗;由AI生成的內容檢測工具將更加智能,監(jiān)管和合規(guī)也將更加嚴格。
生成式AI 模型代表著顛覆性的解決方案,已經(jīng)在幫助個人消費者的搜索、自動創(chuàng)建內容、提高個人效率等方面發(fā)揮作用。企業(yè)應該立即行動起來,積極采用這項強大的技術,但同時也應該充分意識到潛在風險、其中的不確定性和隱私問題。當然,生成式AI 領域的成熟和解決這些問題只是時間問題。在人類的努力下,生成式AI 模型將有可能徹底改變企業(yè)環(huán)境。
( 作者: Infor 大中華區(qū)商業(yè)咨詢高級總監(jiān) 鹿崇 )
關于作者:
鹿崇先生現(xiàn)任Infor大中華區(qū)商業(yè)咨詢高級總監(jiān),在企業(yè)應用軟件領域有超過20年的實戰(zhàn)經(jīng)驗。鹿崇先生自2003年1月加入Infor至今。加入Infor之前,鹿崇先生曾在KPWOOD公司任系統(tǒng)工程師、SSA上海公司任職商業(yè)顧問,還曾在迅達電梯擔任過項目負責人。鹿崇先生畢業(yè)于清華大學管理信息系統(tǒng)專業(yè)。
關于 Infor:
Infor 是為特定行業(yè)提供商業(yè)云軟件的全球領先供應商。我們?yōu)橹攸c行業(yè)提供完整的解決方案。Infor 的任務關鍵型企業(yè)級應用和服務旨在提供高安全性的可持續(xù)運營優(yōu)勢,幫助企業(yè)更快實現(xiàn)價值。Infor 旗下 17,000 名員工為超過 175 個國家和地區(qū)的 60,000 家客戶提供服務,幫助客戶達成業(yè)務目標。作為科氏工業(yè)集團的一員,Infor 的財務實力、股權結構和長期承諾將助力 Infor 與客戶建立持久、共贏的關系。
(免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )