超人類主義
超人類主義
資料來源:《超人類革命》(法)呂克·費希著,周 行譯,湖南科學技術出版社,2017。
超人類主義是利用科學進步 --- 尤其是生物技術的進步 --- 對前人類的體能、智力、情感和道德等,方方面面進行改善的浩大工程。它打算從傳統的以「修復」和「治療」疾病為目的的醫療模式,升級到以「改善」甚至「增強」人類的高級模式。
在牛津大學任教的瑞典科學家博斯特倫說:「終有一天,我們將得到機會增強我們的智力、體能、情感和精神,達到遠遠超出今天看來可能達到的程度。到那時,我們將走出人類的童年,進入後人類時代。」如果不加細思,大多數人會理所當然的認為,自然就是它現在存在的樣子,是永恆不可觸動的設定,因此醫學的任務應該是治癒不該是增強人體。難怪,法國的法律規定只有不孕不育的夫婦才能人工受孕,並不允許同性戀或絕經後的婦女藉助醫學輔助生育。同樣的,衰老和死亡不屬於病理,不能從狹義的醫療方法中得到恢復。超人類主義的看法則剛好相反,它認為上述觀點是不理性的偏見,進步應該是無止境的,人類當然可以無限完善,這既是可能的也是可取的。
超人類主義者傾向於理性、進步,以幸福而不是外部宗教權威為中心的價值觀,通過結合科技手段與批判性及創造性思維來挑戰人類極限。他們質疑衰老和死亡的不可避免、試圖逐步改善人類的智力和體力。現在人類的智力只是進化發展中的一個過渡階段,主張用科學來加速從人類階段到超人類或後人類階段的過渡。他們挑戰自然和傳統設下的限制,認為接受「自然」的極限是荒謬的,相信生命必能超出地球的局限,進入宇宙。
世界超人類主義協會於2002年3月4日通過了《超人類主義宣言》。2012年又出了修訂版,除了強調人類轉型的理想,同時也提到了相應的防範措施,宣言如下:
- 人類在未來將會受到科技的深刻影響。我們必考慮拓寬人類潛能的可能性,克服老化、認知缺陷、不自願的痛苦和我們孤立於地球上的命運。
- 人類的潛力還沒有根本實現。
- 人類正面臨嚴重的風險,尤其是濫用新技術的時候。儘管一切進步都是變化,但不是所有變化都是進步。
- 必須投入精力研究和理解這些方案。我們必須認真討論什麼可以做,討論正是有利於做出負責任決策的組織型式,以減少風險。
- 減少人類滅絕的風險,開發保護生命和健康的辦法,減輕極度痛苦、改善社會保障和增強人類智力,必須被視為當務之急,並投入資源。
- 政治決策必須由具責任感的、聯合所有人的、認真對待利益和風險的、尊重自主權和個人利益的、關注所有人利益和尊嚴的道德眼光來引導。我們必須關注對後代的道德責任。
- 我們要維護所有的智能福利。包括人類、非人類、動物、今後的生命形式或其他技術和科學進步可能產生的智能。
- 我們提倡人應該有自由改變和完善自己的身體、認知和情感的權利。包括是否延長生命、是否低溫活體保存、是否使用各種型式保存自己、以及是否要改善未來。
讀了以上宣言,有的人難免會擔心,儘管提到要謹慎防範或通過民主討論來做明智抉擇,但哪怕只是進行部分改變,怎麼可能不對人類整體產生影響?如果創造出一個完全不同於今天人類的新物種,這是延續還是決裂?
超人類主義又可分為二個流派,其一是「生物性」超人類主義。這個流派宣稱,自己繼承了傳統人文主義中盧梭提出的「人」可能有無限完善性的概念,它不滿足於社會和政治變革,還涉及自然界的進步,包括人類的進步。這類超人類主義在原則上只是使人更加人性化,將人文主義發揚光大和美化。第二個流派則是基於另一想法,認為具備「高級」人工智能的機器將很快超過生物人。例如系統化人機混合「控制論」計劃,不僅涉及生物學,還涉及機器人技術和人工智能。他們想要創建一個新的物種,要比我們聰明和強大千倍,是另一種人類,其記憶、情感、智力都可以存儲在一種新型的物理介質中,就像下載文件到U盤。這種通過植入大腦的晶片擁有電腦接口的人,可以與網路連接在一起的就是「後人類」。這種後人類主義的主張不是簡單的改善當前的人類,而是創造一個與人類不再有太多相同之處的物種。這種意識型態背後的信念是:當電腦變得完全自主、能夠再生、複製、改正錯誤、自主學習,它就可以輕易的擊敗和取代人腦。
我們可以認為存在兩種構想,一開始二者是不同的,但有可能在到達的時候殊途而同歸,亦即:超人類主義是過程是路徑,後人類主義是目標是終點。那麼分界點哪裡?只要第一類超人類主義者不排斥「審慎的」倫理思考,思考道德和政治上不可逾越的底線,思考使用技術時應採取的防範措施,就可以說他們仍屬於古典人文主義。他們與古典達爾文主義的主要區別是,它不再接受自然進化,而是由自己控制和驅動。只要認真對待道德和謹慎問題,並且能對這些事物及時做出民主決策,就不會完全被技術革命的速度和規模甩在後面。只要超人類主義不脫離生物圈、生物學技術、人類,他的增強不以破壞為目的,不以本質上超越為目的,而是為了充實、改善,也就是說,其本質是使人更加人性化。
後人類主義不是改善人類,而是在智力和生物二方面大大超越人類。後人類主義幾乎不具有任何人性,因為新技術的邏輯基本上就是「去物質化」,是基於哲學唯物主義,認為機器與大腦之間、物質與精神之間,只存在程度的差異而沒有性質的差異。當我們對大腦的研究足夠徹底,我們終究會理解意識的運作,有朝一日,我們就可以製造出一部機器,達到跟人類一樣的意識水準。這台機器將可以24小時不間斷的自主學習、自我複製和製造更多的機器,不斷完善自身,尤其是像所有達爾文主義生物一樣,它首要關心的將是清除那些可能消滅它、把它電源關掉的生物,首當其衝的就是人類,如果真是這樣,後果將非常驚人可怕!
2015年7月,蓋茲、霍金、馬斯克等人聯名發起了一份請願書,當時獲得了近千名頂尖科學家的支持。內容是:人工智能日益危險,將變得很「強大」,例如被程式控制的「殺手機器人」、某些無人機,它們會不徵詢任何權威的意見就自行決定哪些人必須消滅,誰該死誰該活。這份請願書最驚人的地方是,它是出自資深技術愛好者之手,他們竟然被自己所從事的研究嚇壞了!比爾•蓋茲評論說:「讓人恐懼的不是人工智能,相反,是人們竟然沒被它嚇壞!馬斯克也說:「人工智能是有史以來對人類造成最大生存威脅的發明!」這是不是足以引起我們的重視?
最後,超人類主義思想中都存在一種溫情的部分,他們自認是:後形而上學的、環保主義的、平等主義的、女權主義和反物種主義的。
