斯蒂芬·霍金說,總有壹天,人工智能機器人會取代人類成為地球上的主導生命形式,埃隆·馬斯克也說過類似的話。然而,隨著人工智能和機器人近年來取得的顯著進步,它們對這個社會構成的最緊迫、最真實的威脅其實並不在這裏。
具體來說,這種威脅並不是因為人工智能和機器人可能會超越其特定的服務目的(如管理對沖基金或招聘新員工)而抵制其主人。更準確地說,情況恰恰相反。正是因為這些人工智能設備和機器人可以非常高效地服務於它們的主人,所以它們對這個社會構成了威脅。
事實上,由於機器人和人工智能設備迄今為止還沒有表現出壹點點的自主性或獨立性,很明顯它們並不是霍金所說的“新生命形式”。它們更像是創造和使用它們的人的延伸。它們是精心制作的工具,用來增強這些人完成某項工作或任務的能力。
正因為他們是運營商的延伸,所以也對這個社會構成了潛在的威脅。因為機器人是由特定的人設計和使用的,他們有特定的價值觀和興趣,這就意味著他們的行為必然會反映和促進這些人的價值觀和興趣,而這些人的價值觀和興趣並不壹定得到所有群體和個人的認可。機器人顯著的效率和生產力可以為那些有足夠資源使用它們的人提供明顯的優勢,這些人可能會以犧牲其他沒有同樣資源的人為代價重塑世界。
妳只需要看看最近人工智能和機器學習算法導致偏見的例子,就可以想象未來人工智能將如何加劇社會、經濟和政治領域的不平等。例如,網絡非營利媒體ProPublica在2065438+2006年5月發表了壹項研究結果,顯示美國許多州使用的累犯評估算法對非洲裔美國人有偏見,錯誤地將其標記為“高危”累犯的概率為44.9%,而白人為23.5%。此外,2017年4月發表在《科學》雜誌上的壹篇研究論文發現,當機器學習工具從互聯網上學習大量的單詞聯想方法時,會得到壹種對女性和非裔美國人的“擬人化語義偏見”(即刻板印象)。
在這種情況下,偏見就會產生,因為人工智能設備和機器人只能從它們接收到的數據和參數中進行學習。通常,這些數據和參數是由設計和使用它們的人提供的,比如站在社會金字塔頂端的白人和特權男性。也正因為如此,人工智能面部識別軟件在識別有色人種的面部方面壹直不盡如人意。此外,它還可以解釋為什麽人工智能和機器人以服務和促進其制造商和所有者利益的方式運行。
此外,人工智能和機器人由於其出色的效率,到2017年將滲透到2470萬個工作崗位中,這意味著它們將把創客的標誌烙印到生活和工作的大部分領域。它們將使數百萬工人失業,它們將打亂現在家庭生活的節奏,它們將使有能力大規模應用它們的發達國家獲得比發展中國家更大的商業優勢。最終,那些制造和擁有它們的國家和階層將獲得更大的全球影響力。
也正因為如此,越來越多關於賦予機器人權利(甚至民權)的論調才會讓人感到如此不安。因為機器人和人工智能已經受到了所有者財產權的保護,不能隨意破壞。這樣看來,很明顯,賦予他們“權利”不僅意味著賦予他們保護自己免受毀滅的消極權利(因為他們已經擁有這些權利),還意味著賦予他們不受某些人幹擾的追求目標的積極權利,例如,那些被機器人思想折磨的人。
換句話說,賦予機器人這種權利,實際上相當於賦予它的主人壹種特殊的、受保護的地位,是他實現自己的目標、實現自己的價值和利益所需要的。然後,所有這些人使用AI和機器人為他們的目標服務的能力可以更進壹步。
最後,在關於人工智能的討論中經常出現的壹個話題也值得壹提。無論是歐洲議會還是研究機構,經常說我們需要確保人工智能機器人能夠學習和維護人類的價值觀。然而,問題是:機器人學習和維護誰的價值觀?而誰是全人類的代表?無論真正的普世價值能否灌輸給智能機器人,這種說法只能說明,機器人只能在某個方向上產生道德、社會和經濟上的成就,因此只能充當某種價值的代理人。
令人擔憂的事實是,這些機器人很大程度上是由壹些特定的公司和實業家制造和掌握的,因此它們的能力很可能會給這樣壹個階層的價值觀和利益帶來明顯的好處。