人工智能存在和發(fā)展的目的就是要提高人類社會的勞動生產(chǎn)率,因此在一部分工作崗位上人工智能發(fā)揮特長超過人類是一種必然的趨勢,替代人類去工作從而一部分人類社會的工作崗位消失也非常的正常。一部分工作崗位的消失不等于全球真的就會有15%的勞動力因為人工智能而失業(yè),因為人類社會的工作崗位總是隨著技術(shù)的發(fā)展和不斷迭代變化的。就像十九世紀末汽車發(fā)明和普及的過程中,圍繞馬車的一系列工作(比如馬車制造、馬車夫、城市街頭撿拾馬糞的清潔工)消失了,但是圍繞新的汽車和道路交通也誕生了很多新的行業(yè)和工種。那么在人工智能逐步普及的過程中,我們也需要一系列的產(chǎn)業(yè)和工作來為這個過程提供支持和服務,至少在20年內(nèi)人工智能還僅僅處于弱人工智能向強人工智能轉(zhuǎn)化的過程,人工智能的應用需要大量人員支持、配合和分析、管理的工作崗位,因此只要對現(xiàn)有的職業(yè)人員進行必要的崗位培訓,適應人工智能的發(fā)展出來的工種要求,就業(yè)率應該有足夠的保證。人類從整體上可以在人工智能的協(xié)助下,從繁重的重復的勞動中解放出來,過上更高品質(zhì)的生活、可以有自由支配的業(yè)余時間,這是人類社會發(fā)展的*愿景,人工智能可以發(fā)揮重要的推動作用。
但是美好的愿景,依然伴隨的*的擔憂,那就是:人工智能會不會產(chǎn)生自我意識、會不會走向人類的對立面、會不會最終成為人類的天敵?有句搞笑的話,人類通過幾十萬年的進化,發(fā)展出了超過所有已知生物的大腦,從而使得人類變得異常強大、變得沒有天敵。但是人類并不滿足,所以人類發(fā)揮了所有的聰明才智、想盡了一切辦法,終于給自己造出了一個天敵,那就是人工智能!是的,人類親手造出的人工智能,最終將把人類社會引向何方?這是讓現(xiàn)代人類社會普遍感到困擾、擔憂甚至恐懼的問題。
在達米老師我看來,人工智能的發(fā)展過程中有三大靠不?。旱谝粋€靠不住,就是希望阿西莫夫的機器人三定律能夠被所有人類開發(fā)者和所有的人工智能廣泛持久的堅守;第二個靠不住,就是依靠現(xiàn)有人類開發(fā)者的智能和對未來風險評估后,在開發(fā)過程中設置人工智能威脅人類的防火墻;第三個靠不住,就是相信機器智能在現(xiàn)有技術(shù)標準的框架下,通過學習人類的道德情感,形成與人類的共情能力,從而自我規(guī)避危害人類的行為。簡單的說,就是原則靠不住、人類開發(fā)者的智商靠不住、機器智能的自我道德約束靠不住。
人工智能研究領域有一個著名的假說:就是關(guān)于愛因斯坦和腦殘人的假說,在整個生物智能演化的歷程中,人類*智慧的代表愛因斯坦和一個人類智慧最末流的腦殘人,其實在智力上相差無幾,而比起腦殘人再稍有落后的,就是我們的猿猴近親。現(xiàn)在人工智能的發(fā)展從整體上到了猿猴智商的階段,再發(fā)展一步就會接近腦殘人的智商。也許就算到了一臺機器具有了腦殘人的智商,在你我看來,它還是傻傻的滿可愛;但是請不要忘記,它還在自我學習,它還在快速成長,而這種成長速度即將進入快速的爆發(fā)期,一旦當它突破愛因斯坦的智商水平這在進化過程中,可以說時間短到可以忽略不計,也許只是幾年、幾個月甚至幾天這時你我這樣人類已經(jīng)看不懂它在想什么了,而且要不了多久,它看過我們,就像我們現(xiàn)在看螞蟻的感覺一個樣。如果在這一天到來之前,我們沒有準備好,沒有形成一套系統(tǒng)的體系機制,那么不要說是讓機器服務人類了,很可能人類就此就把自己玩死了。那么,人類應該怎么辦?我認為,人類有三個辦法,綜合運用,就有機會對抗人工智能在未來可能對人類造成的威脅和傷害,從而使得人工智能能夠持久的服務人類社會、與人類長期和諧共存,共同開創(chuàng)美好的時代。 第一個辦法:摒棄人類智能優(yōu)越論,主動學習螞蟻的族群智慧
既然機器以后看我們?nèi)祟悾欢ㄓX得就像螞蟻一樣。那么人類不仿從現(xiàn)在開始就放低心態(tài),甘當“螞蟻”,要知道單個螞蟻智商極低,甚至不能獨立生存,但是整個螞蟻群體集合在一起,卻是擁有很高智商的,在尋找收集食物、繁衍后代和抵抗外敵方面都不輸給任何一個生物種群。從現(xiàn)在開始,就去研究和學習螞蟻種群的運作規(guī)律,找到人類未來與人工智能博弈中,將要運用的種群智慧,這是哲學層面的思考,也是人類社會發(fā)展演化的*思考。
第二個辦法:可以發(fā)展通用人工智能,但*不能試圖構(gòu)見一個凌駕于全球之上的中心智能
我們社會發(fā)展的演進正在去中心化,在發(fā)展人工智能的過程中也要引入去中心化的思維。發(fā)展通用人工智能是很有必要的,因為它比專項人工智能更全面,更能夠從全局視角來理解人類和服務人類社會,但是構(gòu)建一個中心智能卻非常危險。比較可行的辦法,就是把通用智能分散開來,以區(qū)塊鏈的技術(shù)來把全體人類和各個分散的通用智能集合成一個彼此依賴共存的整體。區(qū)塊鏈里面有個51%攻擊的理論,當一個區(qū)塊鏈面臨51%飽和攻擊的時候,原來的系統(tǒng)規(guī)則就將癱瘓并且被改寫,我們不希望也不認為在金融區(qū)塊鏈或供應鏈區(qū)塊鏈或物聯(lián)網(wǎng)區(qū)塊鏈發(fā)生這樣的攻擊行為,因為絕大多數(shù)人不會參與。那么,我們在與人工智能儀器構(gòu)建的這個H-AI區(qū)塊鏈中,正好反其道而用,當51%的人類參與者認為人工智能威脅到人類時,攻擊區(qū)塊鏈,改寫規(guī)則,讓人工智能瓦解。這就是一種威懾,就像三體中人類對三體人構(gòu)建的威懾系統(tǒng)一樣。只要這種威懾存在,人工智能只能與人類共存,不能威脅人類。
第三個辦法:建立虛擬世界的警衛(wèi)隊,采用冷智能設備與人類衛(wèi)隊成員一同巡邏
人工智能服務人類時,它的外在表現(xiàn)一定會經(jīng)過一番修飾和加工,從而滿足人類的愿望和需求,但是由于人工智能在自我智力不斷革新迭代的過程中會形成很多的人類無法徹底理解暗知識,如果僅僅依靠真實物理世界的表象來分析,很難看出人工智能的底層邏輯。所以需要建立一支有人類和冷智能設備共同配合的虛擬世界警衛(wèi)隊,甚至還可以讓螞蟻雄兵攜帶冷智能設備進入人工智能所在的虛擬世界進行巡邏,從而確保長久的安全共榮。所謂的冷智能設備,就是獨立于任何現(xiàn)有網(wǎng)絡系統(tǒng)之外的智能設備,它們可以在需要是進入虛擬世界的熱系統(tǒng)中,來感知是否有威脅存在。
通過以上三個辦法,我認為可以長期保持人類社會與人工智能的核心共處,讓人工智能全面服務人類社會,并且共同推進地球文明的新篇章。
轉(zhuǎn)載:http://santuchuan.cn/zixun_detail/111824.html