原標題:還有哪些不能推開的科學之門?
這兩天“基因編輯嬰兒”的新聞持續(xù)發(fā)酵,討論聲鋪天蓋地。
印象中我好像從來沒有見過世界各大科技、學術(shù)媒體在同一天把中國新聞當做頭條。第一次見到這種情況卻是這種新聞,作為科技媒體從業(yè)者真的有點難過。
事實上,關于這個新聞本身的討論已經(jīng)夠多了,但我們覺得或許有必要在這個時候,從另一個角度提醒大家:科學倫理的門鎖,不僅掛在基因科學上。從生物學、藥學到遺傳學、神經(jīng)科學,再到電子工程和AI,人類不應該推開的科學大門還有很多。
在我們批評和指責這次事件的始作俑者時,也應該看到:這次事件或許證明了,在學術(shù)噱頭與名利場游戲的驅(qū)使下,更多關乎生命與人權(quán)的科學倫理禁忌已經(jīng)岌岌可危。事后的指責固然必要,然而預見性的提防與規(guī)則建設才是避免問題的根本。
客觀而論,某些領域的科學發(fā)展,是需要以人作為試驗品的。然而生命的價值高于一切,在這個科學家與人類社會的公認準則下。很多科學倫理原則在現(xiàn)代科學史上被陸續(xù)提出,從1964年禁止以人體作為醫(yī)學研究對象的《赫爾辛基宣言》,再到1979年保護醫(yī)藥受試者權(quán)益的《貝爾蒙特報告》,直到去年由產(chǎn)業(yè)與學術(shù)界共同發(fā)布的《23條人工智能發(fā)展原則》。
學術(shù)界、產(chǎn)業(yè)界已經(jīng)連同社會各界,于不同學科中,在科學與生命倫理的矛盾地帶設立了禁區(qū)。
以下幾種“科學實驗”,都已經(jīng)被標注為人類不應該走入的科學禁地:
可能影響人腦的腦機接口與腦設備植入
宇宙和大腦,被認為是人類最終極的兩個研究方向。
然而與宇宙不同,腦科學的實驗觀測必須小心翼翼,涉及活體實驗尤其如此。
近兩年,無論是產(chǎn)業(yè)界還是學術(shù)界,腦機接口都成為了新的熱門詞匯。鋼鐵俠馬斯克投資了腦機接口公司,讓這個未來科技的熱度突然飆升。
但無論是用電流刺激大腦,這個中國人非常熟悉的概念;還是腦機接口、腦植入芯片這些未來概念,都必須遵守一個實驗原則:實驗必須證明不對受試者本身產(chǎn)生任何影響。
這里的倫理困境在于,對大腦施加某種影響,已經(jīng)被證明可以影響一個人的性格、記憶,甚至自我認知。
這就引發(fā)了這樣一個問題:無論是想改變大腦中某種特性(比如治療網(wǎng)癮),還是增強大腦(強化記憶力),或者讓大腦直接與外設設備聯(lián)系(神經(jīng)元指揮義肢),都可能帶有難以明確的副作用。
比如2016年美國的一份研究報告表明,一位用電流刺激大腦,以期望治療抑郁癥的病人,開始出現(xiàn)懷疑生存價值,無法控制自己語言等問題。
直到目前為止,我們還不知道腦機接口、大腦植入設備這些技術(shù),可能以多強程度改變一個人。植入了某個設備之后,人類還能在多大程度保有自己?即使有1%的自我被他者設備所擠占,那也是倫理上無法應對的問題。
早在2011年,美國DARPA國防高級研究計劃局公布了一個研究成果,他們通過芯片植入的方式,讓昆蟲便成一個可控制的“傀儡昆蟲”。那么腦機接口等研究是不是也蘊藏了改變一個人,甚至控制一個人的可能?
基于這個風險,科學界共同禁止一切可能對人腦產(chǎn)生影響的實驗,尤其反對軍事目的的神經(jīng)科學技術(shù)實驗。
然而可悲的是,今天我們身邊并不乏“電擊大腦治療網(wǎng)癮”,甚至“用大腦儀器讓孩子變聰明”的報道。
教AI做“電車難題”
今天為科學公約所禁止的實驗,大部分都關乎人類機體本身,以及胚胎、器官等生物領域。但在純虛擬的世界,科學倫理問題也愈發(fā)凸顯。
比如上面提到的《23條人工智能發(fā)展原則》,就明確提出禁止訓練AI智能體在人類生命中做出選擇。直白點說,就是不能教育AI做著名的“救一個人,還是救十個人”的“電車難題”。
這個問題可能看起來僅僅是個邏輯悖論而已,但實際上這卻可能引發(fā)與激化已經(jīng)非常明顯的AI倫理沖突。
比如AI的歧視可能進一步加重。
中歐某國的一家連鎖店,曾經(jīng)在不久之前被曝光,店里的機器視覺系統(tǒng)被訓練為,通過衣著服飾等因素來識別顧客的民族和身份地位。并提醒售貨員進行區(qū)別對待,以增進銷售額。這顯然造成了嚴重的貧富歧視和民族歧視。
美國某海關,也曾在去年被爆出使用AI算法來尋找毒販。這聽起來挺好,但它的工作原理是學習毒販的穿衣打扮,然而在類似衣著人員出現(xiàn)時,提醒工作人員進一步搜查。這樣做的后果,是某些拉美國家的旅客被反復搜查,惹出來種族歧視的麻煩。
在AI已經(jīng)很嚴重的歧視問題基礎上,做那些拷問人性的訓練,并以之作為AI的應用標準,這顯然是非常危險的。很可能推導出救援AI先救富人,無人駕駛汽車在事故不可避免時先撞老人這樣的問題。
潘多拉魔盒一旦打開就無法合上,這條讓AI學習人性矛盾之路的最終進化版本,或許就是廣受唾棄的自動殺人武器。
伯納德實驗
1968年,美國兒童精神病學家彼得·紐鮑爾團隊開始了一項被人指責了數(shù)十年的實驗。
科學家們讓被父母遺棄的兩個女孩,葆拉和埃莉絲分別被不同的家庭領養(yǎng)。35年后她們才知道自己居然有雙胞胎姐妹。這就是科學史上引發(fā)無限爭議的伯納德實驗,也被稱為雙胞胎分離實驗。
這個實驗的本意,是想要證明一個人的成長環(huán)境究竟可能對人產(chǎn)生怎樣的影響。一個人的精神世界,究竟有多少先天和多少后天部分組成。
在兩個女孩成長過程中,科學家每隔幾個月就會暗中觀察并記錄一下成長情況,希望從中解答“個性究竟是怎么形成的”。
事實上,雙胞胎從小分離也并不少見。然而這個實驗的殘忍之處在于,實驗員必須在明知道雙胞胎情況的條件下,不告訴二人自己有兄弟/姐妹,以此來完成實驗。
顯然,這對于人倫關系是個巨大的挑戰(zhàn),因此也被列為心理學和精神病學中的禁忌實驗。
以人類為受試對象的多種遺傳學實驗
更加需要人類參與受試的,是遺傳學領域的若干實驗。這次的基因編輯嬰兒事件也屬于這一范疇。而在基因技術(shù)之外,還有不少遺傳學的人類實驗被列為禁忌。
比如這兩年取得很多突破的光遺傳學,在今天也沒有證明具備人體實驗的條件。
所謂光遺傳學,是指向生物體內(nèi)注射仿生自水母的毒素。從而使細胞膜中某些離子通道可以對光產(chǎn)生反應。然而在用聚焦光束去照射腦組織,可以觀察到腦細胞的放電頻率。
這一實驗已經(jīng)在小白鼠身上取得了成功,科學家當然最終希望能夠以此解釋人類的大腦到底是如何運作的。揭開這個謎團,對生物學和醫(yī)學來說意義簡直無法想象。但由于注射毒素并不能證明對人體是無害的,并且觀察腦細胞也可能帶來大腦損傷。因此光遺傳的人類實驗今天還是禁忌項目。
另一個不能做的實驗,是觀察胚胎究竟是如何形成的。
這個人類誕生的謎團,今天在理論上可以用在胚胎細胞中注入某種基因,然而通過追蹤該基因活性的方式,來觀察人類的形成之謎。但由于風險過大,有可能對嬰兒造成不可逆影響,其被禁止在孕婦身上實驗。
相關的實驗還有很多,比如腦組織切除實驗、遺傳標記剔除實驗等等,但就像這次的基因編輯嬰兒所引發(fā)的爭議一樣,科學家和全社會,都無法對被作為試驗品的真實人類負責。因此鎖在門后,等待科技的進一步發(fā)展才是它們的歸宿。
人獸界限實驗
還有一項禁忌,是生物學和進化論研究中必須面對的問題:人和猿,到底有什么區(qū)別?
想要搞清楚這個謎題,或許最簡單粗暴的辦法就是嘗試人猿雜交,以及人與猿互換母體。但顯然在倫理上是絕對無法容忍的。
另一個相關實驗,就是所謂的“狼孩”或“人猿”。把動物當做人類來撫養(yǎng),很多科學家,甚至馬戲團和熱愛動物的家庭都曾經(jīng)嘗試過,事實證明動物的“通人性”程度始終有限,沒有看到太多智力進化的可能。那么如果把人放進動物群體生長,人會依舊保持人性,還是徹底獸化呢?
這也是一個禁止實驗的問題,我們只能在文學與影視作品里觀察相關題材。
不難發(fā)現(xiàn),科學倫理問題并不是一個虛無縹緲的神話,或者掉書袋者的無病呻吟。如果真的失去底線和禁忌,無論是追求真理,還是財富和名譽,人類在科學上將很快喪失人性,徹底淪為結(jié)果的努力。
對科學倫理問題的不斷加深認識、推導因果,達成國際共識,是科學安全與人類安全共同的保護鎖。一旦鎖頭掉落,誰也無法肯定大門另一邊會涌來什么。
那些門,還是讓它們緊緊關上好了。
- 蜜度索驥:以跨模態(tài)檢索技術(shù)助力“企宣”向上生長
- 美媒聚焦比亞迪“副業(yè)”:電子代工助力蘋果,下個大計劃瞄準AI機器人
- 微信零錢通新政策:銀行卡轉(zhuǎn)入資金提現(xiàn)免手續(xù)費引熱議
- 消息稱塔塔集團將收購和碩印度iPhone代工廠60%股份 并接管日常運營
- 蘋果揭秘自研芯片成功之道:領先技術(shù)與深度整合是關鍵
- 英偉達新一代Blackwell GPU面臨過熱挑戰(zhàn),交付延期引發(fā)市場關注
- 馬斯克能否成為 AI 部部長?硅谷與白宮的聯(lián)系日益緊密
- 余承東:Mate70將在26號發(fā)布,意外泄露引發(fā)關注
- 無人機“黑科技”亮相航展:全球首臺低空重力測量系統(tǒng)引關注
- 賽力斯發(fā)布聲明:未與任何伙伴聯(lián)合開展人形機器人合作
- 賽力斯觸及漲停,汽車整車股盤初強勢拉升
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。