生成式人工智能依賴于計算能力。部署越多的人工智能,需要的計算能力就越多。這不僅會將計算能力從其他潛在更有用的活動中轉移出來,而且還需要大量的能源。這些環(huán)境成本是眾所周知的,但隨著人工智能的普及,它們會變得更加嚴重。OpenAI 首席執(zhí)行官 Sam Altman 強調了這一點,他認為人工智能要想成功需要一場“能源革命”。即使撇開生態(tài)成本不談,人工智能對能源的巨大需求也會導致整個社會的能源價格上漲。
此外,人工智能還依賴于對計算基礎設施的大量資本投資。人工智能建立在光纖、服務器、數(shù)據(jù)中心等基礎設施之上。我們可以從大型科技公司的企業(yè)報告中看到這一點,這些報告強調了他們在這項基礎設施上花費和正在花費的數(shù)十億美元。大型科技公司現(xiàn)在控制著我們的大部分計算能力(這本身就是一種社會成本),但為了使人工智能作為一種日常技術在商業(yè)上可行,我們將需要投入更多資金。這些資金可以用于其他更有用的地方。
人工智能也在吸納創(chuàng)新資金,尤其是風險資本。根據(jù) CBS Insights 的數(shù)據(jù),2022 年至 2023 年,用于生成式人工智能的風險資本支出增長了五倍,接近 220 億美元。在萎縮的風險資本池中,這些資金本可以用于其他地方。更重要的是,評論員 Ed Zitron 指出,如果人工智能炒作泡沫破裂,這似乎很可能會發(fā)生,那么所有這些創(chuàng)新資金都將被浪費(就像所有資本投資一樣)。
隨著人工智能沿著這條軌跡繼續(xù)發(fā)展,它正威脅著以人工智能垃圾郵件淹沒我們。人工智能需要數(shù)據(jù)來訓練模型,但內容生產者(如報紙、網站和作者)現(xiàn)在正在通過起訴 OpenAI 等組織來挑戰(zhàn)他們對其受版權保護的內容的抓取。更重要的是,隨著人工智能生產的“數(shù)據(jù)”在互聯(lián)網上傳播飽和,它將自身崩潰:正如政治經濟學家 Jathan Sadowski 詩意地所說,我們正面臨著“哈布斯堡人工智能”帶來的社會成本不斷增長,他指的是“在其他生成式人工智能的輸出上訓練得如此之重,以至于它變成了近親繁殖的變種,很可能具有夸張的、怪誕的特征”。這意味著幻覺疊加幻覺,創(chuàng)造出各種意想不到的后果。
也許最重要的是,人工智能將它的社會影響的責任推卸給了社會其他部分,即使它沒有提供任何社會效益。人工智能必然會導致重大的社會變革和相關成本,因為我們被迫改造我們的社會、政治和經濟制度來應對其影響的后果。即使是像人工智能生成圖像這樣基本的事情,在處理它們對我們政治制度的影響時也會產生集體成本;例如,為了適應我們的政治制度,保護我們免受生成式人工智能對政治錯誤信息的強力推動,將需要花費大量的資金。
問題的核心在于,生成式人工智能并不是真正設計來解決實際的社會問題。我們迫切需要社會科學家的專業(yè)知識,能夠對我們想要的生成式人工智能的未來做出必要的集體決策;我們不能將它留給企業(yè)、市場或技術專家。我們需要向這些專家求助,了解我們的社會或集體問題以及我們希望生成式人工智能解決的挑戰(zhàn)。然后,我們需要弄清楚人工智能是否可以(不僅僅是怎樣)為找到可行的解決方案做出貢獻,然后讓人工智能公司專注于生產這些解決方案。
本文譯自 The Globe and Mail,由 BALI 編輯發(fā)布。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )