霍金發出嚴重警告:人類終將毀在他手上

  霍金除了對外星人入侵地球十分關注外,也對人工智能技術的發展感到擔憂。

  霍金不止一次在公開場合對人工智能技術爆炸後出現的殺手級機器人行為進行預測,認為全自動武器站的普及使得機器人能夠獲得一定程度的開火權,甚至在智能決策系統發展後超越人類的指令,直接開火。

霍金對人工智能技術的發展感到擔憂

  這種殺手智能機器是極度危險的,國際天主教愛爾蘭分部秘書長也指出,殺手機器人的使用就會把我們人類推離倫理和文明的社會。

  越來越多的人開始關注全自武器自行選擇和攻擊目標的行為,即使人類的某些行為存在局限,但是我們的基本道德準則是與人性站在一起的。

越來越多的人開始關注全自武器自行選擇和攻擊目標的行為

  目前半自主的無人機已經在美國、俄羅斯、韓國和英國等國家的軍隊中部署,韓國的哨兵機器人SGR-1和英國的防空武器都能夠自行尋找攻擊目標

  最近的聯合國會談目的是限制或禁止可能導致士兵與平民誤傷的全自主武器的使用,但多數國家不同意協議中的條款,其中包括是否應該限制現有技術和未來的發展。

  停止殺手機器人小組成員Mary Wareham指出,戰鬥中攻擊目標的決定應該由人類執行,從基督教的觀點來看,戰爭已經發展成為解決世界衝突和支配人類的一種手段,它是完全錯誤的。如果沒有對高級智能機器人進行相關限制,那麼一旦惡魔被從瓶子裡放出來,將很難對其進行控制。

  霍金認為宇宙中也有類似的文明存在,它們會自己發展的機器人技術所取代,因此我們以後遇到的外星人可能是機器人的概率並非不可能。

我們以後遇到的外星人可能是機器人的概率並非不可能

  事實上變形金剛這樣從碳基演變成硅基的超強生命體,在宇宙中也應該存在,兩種生命區別很大。

  霍金認為人類如果無法控制人工智能的氾濫,只有數百年的時間就會完成演替,想想一百年前世界是什麼樣子,當時飛機才被剛剛發明不久100年後的今天近地軌道已經遍佈航天垃圾,在計算機技術爆炸後,機器人會更加聰明。

在計算機技術爆炸後,機器人會更加聰明

  去年英國第一台計算機首次通過圖靈測試,這意味著我們已經分不出人和電腦的區別,下一步電腦將學會思考然而這也是板上釘釘之事。相信大家都還對20年前的人類象棋大戰計算機之事記憶猶新,而近日,英國計算機Giraffe便能自主學習下象棋了。

  20年前,IBM 的深藍戰勝了國際象棋冠軍卡斯帕羅夫,讓人們感受到了計算機的強大。20 年後的今天,計算機的下棋能力更是突飛猛進了。

  不過,儘管計算機的速度越來越快,它下棋的方法卻沒有什麼變化,基本還是靠蠻力,就是說,它會快速搜索所有可能的棋步,然後做出最好的選擇。

  與計算機相比,人類有著不同的思維方式。通過對棋局的判斷,人類能夠找出最有利的選擇。據外媒報道,倫敦皇家大學的 Matthew Lai 把人工智能技術用於象棋引擎的構建。他開發的象棋引擎 Giraffe 能夠像人類一樣思考。

IBM 深藍

  與傳統象棋引擎完全不同,Giraffe 可以對棋局做出判斷,自己學習下棋技巧。

  自完成之日起,Giraffe 下棋的水平就等同於最好的傳統象棋引擎。與人類相比,它的水平等同於國際棋聯的“國際象棋大師”。

深藍戰勝了國際象棋冠軍卡斯帕羅夫

  Giraffe 背後的技術是神經網絡。在處理信息的方式上,神經網絡是模仿人腦的。它擁有許多層的節點,而且,通過訓練,這些節點的連接方式會發生改變。

  而這些技術,將來會是機器人,或者說是人工智能擁有自主意識的技術支撐

  拜各種科幻電影所賜,“自我意識”似乎成了邪惡高科技機器人的代名詞。

  目前科學家已經證明了機器人可以有非常基礎的自我意識,幸運的是這些機器人都非常有禮貌。

  在一項實驗中,一個小型機器人成功解決了一個哲學問題,其中涉及到對問題的理解和對自己聲音的辨識。

人工智能的曙光:機器人有了自我意識

  來自紐約倫斯勒人工智能和推理實驗室的科學家在Selmer博士的帶領下進行了這個實驗。他們使用了三台研究中廣泛應用的Nao機器人。

Nao機器人

  三台機器人中的兩台被編程成“吃了”啞巴片的狀態,以此來防止它們說話。而另外一台則給了安慰劑。

  在實驗中,這意味著兩個機器人無法出聲,只有一個可以講話。現在巧妙的地方來了:這些機器人並不知道它們中的哪一個可以說話。

  研究者們問三個機器人它們中哪兩個吃了啞巴片。三個機器人都嘗試回答這個問題,但只有一個大聲喊出了“I don't know(我不知道)”。

  這些機器人在回答這個問題之前沉默了很久,似乎在進行思考。準備好回答後,機器人站起來開始回答問題。

  講話的那個機器人在辨識出自己的聲音後補充道:“Sorry, I know now. I was able to prove that I was not given a dumbing pill.(抱歉,現在我知道了。我能證明我沒有吃啞巴片。)”

該機器人表現出了良好的教養,如同《星球大戰》中的C-3PO

  該機器人的反應證明了它擁有簡單的自我意識,同時它還表現出了良好的教養。

  在另一方面,實驗還說明了機器人可以理解問題並進行推理,辨識自己的聲音。

第一個自我意識機器人不是《終結者》

  如果說這個實驗在長期中向我們證明了什麼的話,它證明我們的第一個自我意識機器人將會像是《星球大戰》中的C-3PO,而不是《終結者》。歡呼吧。

  不過即便如此,人類處境也是不容樂觀。一些科學家對未來進行了預測,人類將面臨多重危機,而人工智能的威脅程度可以算是極高:

  人類面臨12大末日危機:人工智能將取代人類

  1、全球性疫情

  能夠造成人類文明末日的超級疾病應當是無法治癒的(類似埃博拉病),並且常常是致命的(類似狂犬病),具有高度傳染性(類似流感)並有很長的潛伏期(類似艾滋病)。

  如果有一種病原體具備了以上所有這些特徵,那麼它將會造成的人類死亡病例將是驚人的——而流感病毒已經開始具備從其他病毒那裡獲得類似特徵的能力。

全球性疫情

  儘管人類已經投入巨資進行醫學研究,對抗疾病,然而現代化的交通系統和龐大的人口正在讓疾病的傳染變得越來越難以控制。

  2、超級火山爆發

  超級火山爆發帶來的危險主要是其產生的大量懸浮顆粒物和塵埃會進入大氣層。這樣的超級火山爆發的強度將比正常情況下強大1000倍以上。

超級火山爆發

  大量塵埃和顆粒物進入大氣層將會吸收和阻擋陽光,導致全球性降溫,這種情況就和小行星撞擊地球或核戰爭之後產生的“核冬天”情形相類似。而依靠人類現有的技術水平,面對這樣的災難,人類所能做的事相當有限。

  3  人工智能

  人工智能帶來的威脅可能是被探討最多的末日情形之一了,它主要是指機器人和軟件技術的高度發達將最終造就可與人類匹敵的“超級人工智能”。

  這樣的超級智能機器人將難以被人類所控制,不管是研製它們的團隊還是某種國際組織都難以對其構成有效約束,甚至它們將很有可能能夠自行升級,不斷進化。

 人工智能

  而一旦有一天這些智能機器人認為人類已經變得毫無價值,那麼它們或許會決定建立一個沒有人類的世界。不過反過來看,這種強大的智能機器人在幫助我們對抗本列表中提及的其他威脅時將能夠發揮很大的作用,因此具有很大的發展潛力。不過在目前的階段還無法評估由智能機器人帶來的威脅究竟有多大。

  4  極端氣候改變

極端氣候改變

  根據科學家們當前的評估結果,由於人類活動造成的溫室氣體排放將會導致全球平均氣溫上升大約4攝氏度。但同樣有研究顯示,最終實際的升溫幅度可能還會超過這一數值,達到6攝氏度左右。這種情況造成的影響在欠發達國家將顯得尤其明顯,很多地方將變得不再適合居住,從而造成人口的大量死亡,饑荒和難民潮。

  5、合成生物學

  利用遺傳工程技術構建超級有機體將造福人類。但一旦出現脫離人類控制並對人類懷有敵意的超級有機體將會是一場災難。

  這種情況可能是一場意外——比如這種合成生物體從實驗室中潛逃出來,但也有可能是故意為之——比如生物武器或是生物恐怖主義。這樣的情況下,其造成的危害甚至將超過自然災害。目前針對這一領域的相關法律還處於醞釀階段,跟不上研究發展的步伐。

合成生物學

  6、小行星撞擊

  或許這聽上去像是科幻小說裡的情形,但一次大型的小行星撞擊的確有能力毀滅整個人類文明。一顆直徑大於5公里的小行星一旦撞擊地球,其釋放的能量將超過人類有史以來最強大炸彈威力的10萬倍以上——而研究顯示每隔大約2000萬年,就會有這樣的一顆小行星撞擊地球。

小行星撞擊

  如果這樣的撞擊發生在陸地上,它將直接摧毀一個面積與荷蘭相當的國家。這類撞擊事件產生危害的主要方式就是大量的塵埃會進入大氣層,從而造成氣候和食物鏈的失穩,引發政治動盪,這些產生的後果很可能比小行星撞擊事件本身更具有破壞性。 

  7、生態崩潰

  全球生態系統的全面崩潰往往會導致大滅絕事件的發生。

  這種情況發生的可能性取決於人類對生態系統的依賴程度。某些生活方式可以繼續存在下去,只要它與受影響的生態系統之間是相互獨立的。但在現實中這種情況是否可以實現,尤其是在一場全球性的生態系統崩潰之中,將是一場艱巨的挑戰。

生態崩潰

  8、納米技術

  在原子層面進行的超精密生產將能夠製造出具有全新性質的材料,或許極具彈性,甚至是“智能”的——這樣的前景相當誘人。

納米技術

  這類生產技術將幫助我們應對當今世界面臨的一些根本問題——自然資源的耗盡,污染,氣候轉變,潔淨水危機甚至貧窮人口問題。但它同樣也有可能讓研製更加強大,更具毀滅性的的超級武器成為可能。

  9、核戰爭

  數十年來,全世界都沉浸在對美蘇兩國可能爆發的大規模核戰爭的恐懼之中。

  冷戰結束後,這種威脅的程度下降了,但核戰爭或意外引發核衝突的可能性依然存在,有人估計在未來100年內人類發生核戰爭的可能性大約在10%左右。至於核戰爭是否將會造成最為嚴重的後果要取決於其是否會造成“核冬天”的出現——核爆炸導致大量塵埃雲團進入大氣層,遮蔽陽光,導致全球性的普遍降溫並摧毀臭氧層。

核戰爭

  一旦發生這樣的情況,將會導致全球食物鏈的中斷,人類將面臨大規模饑荒,甚至國家的崩潰。

  10、政府管制不當

  這裡主要涉及兩個方面的政府管制問題——一是政府未能解決原本可以解決的重大問題;二則是由於政府的作用,讓情況變得更加糟糕。第一種情況的一個案例便是掃除絕對貧困現象的努力,而第二種情況的案例之一則是試圖去構建一個全球性的集權主義帝國。

政府管制不當

  技術,政治和社會層面上發生的變化都將有可能造就更好的政府,但同時也有可能帶來比原先糟糕的多的政府。

  11、全球體系崩潰

  從較為寬泛的角度來說,這裡主要是指全球規模的經濟或社會崩潰,並引發公民騷亂,法律秩序崩潰以及其他嚴重後果,並最終導致人類生活已經無法在地球上持續下去。

全球體系崩潰

  要想預測這樣的情況真正發生的可能性有多高很難,因為其中有太多的不確定因素,但這種類似的情況已經在相互聯繫非常緊密的生態和金融領域出現過。而當多個國際網絡相互依存時,出現這種嚴重後果的可能性將會更高。

  12  未知的風險

未知的風險

  科學家們將那些以我們目前的知識還尚無法察覺的危險,以及那些非常不可能單獨發生的風險歸為一類,作為“未知風險”。但整體上而言,它們仍然將有可能對人類的未來生存構成威脅。




發表評論

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

圖片 表情