7月26日消息,近日,微軟大規(guī)模藍屏事件引發(fā)各界反思。一次互聯(lián)網時代的軟件BUG能夠引起全球大范圍“癱瘓”,如果同樣的劇情在AI時代上演,損失可能更大。
在中國人工智能產業(yè)發(fā)展聯(lián)盟(以下簡稱 “AIIA”)安全治理委員會成果發(fā)布會上,AIIA秘書長、中國信通院院長余曉暉表示,當前人工智能安全治理需要匯聚行業(yè)各方智慧和力量,共同完善人工智能安全風險識別方法論,建立更為敏捷、精確的安全風險識別機制,盡早、盡快發(fā)現風險,加強人工智能安全評測技術工具的研究,通過技術來治理技術。
據介紹,為應對當前人工智能所帶來的安全挑戰(zhàn),AIIA安全治理委員會重點圍繞人工智能的治理框架、風險管理、內生安全、安全應用開展了大量的理論和技術研究工作。
會上,人工智能安全守護計劃正式啟動,該計劃將打造AI Guard品牌,共同建立AI系統(tǒng)情報共享機制、AIGC真實性和可信賴來源互認機制,推動設立人工智能相關保險產品,提升國內人工智能技術的服務提供方、使用方的安全防護能力。
中國信通院人工智能所黑一鳴博士發(fā)布了自研的大模型安全加固解決方案。該能力通過模型微調、外掛安全知識庫等模式對開源大模型自身進行安全防護加固,在保持模型原有通用能力和推理效率的前提下,增強其抵御多種誘導攻擊的能力。
值得一提的是,人工智能天生具備高度交叉的技術和產業(yè)屬性,跨界融合正成為人工智能發(fā)展的主流形態(tài)。
中國法學會法治研究所研究員、中國法學會網絡與信息法學研究會副秘書長劉金瑞表示,“對于法學專家來講,首先要了解技術特征。如果不了解技術特征,你寫的規(guī)范和規(guī)制的思路是不適用這個技術的,換句話說是無效的,可能邏輯推演是嚴謹的,但現實中是沒法用的。所以對于法學專業(yè)來講,你要根據這種特征和特性來設計一套配置方案出來。這是最大的挑戰(zhàn)?!?/p>
據北京市金杜律師事務所合伙人寧宣鳳律師透露,隨著人工智能發(fā)展,國家層面是通過小切口這種方式進行立法,包括深度合成、算法、AIGC等領域開展治理,也出臺像科技倫理審查辦法等?!叭斯ぶ悄芊ㄎ覀兯彩窃谥贫ㄟ^程中”。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )