【人民報消息】你以爲機器人是沒有生命的東西嗎?那麼你大錯特錯了,它在另外空間就是一個靈體,是一個生命,只是人的肉眼看不見,就以爲那是由人制造出來的一個工具而已。 因爲它是一個生命,那麼人類大力發展它,那人類就危險了。 著名物理學家史蒂芬·霍金深有體會,他患有肌萎縮側索硬化症(ALS),不得不借用英特爾公司開發的一套通信系統和外界交流。這套系統涉及基本的人工智能技術,可以接收霍金的想法,從而提出詞彙供他選用。當被問到如何改進這套系統的時候,霍金提出了人工智能可以毀滅人類的想法。 霍金說,截至目前,基礎性的人工智能技術已經取得一定成果,很有實用價值。不過,霍金擔心,人工智能也許會在將來的某一天趕上──甚至超過人類。 霍金說:「它自己就動起來了,還能以前所未有的超快速度重新設計自己。」 人類呢,因爲一部份智力被鎖起來了,所以發展有限制,霍金認爲,與人工智能根本沒有競爭力,人類會被超越的。 美國科學家史蒂夫·歐默諸宙(Steve Omohundro)在一份論文中提出六種邪惡的人工智慧系統。很詭異的是史蒂夫的姓「Omohundro」發音竟然非常近似中文發音「惡魔詛咒」。 「惡魔詛咒」先生的論文提出一個假想畫面,一個機器人被指派運送Amazon 商品,想當然它的腦袋裏會被植入一個系統可以處理周遭環境的阻礙,如果你試着阻止它,機器人會把你當成障礙,甚至把你處理掉。 霍金認爲,近期人工智慧雖然離科幻電影裏面的樣子還很遠,但隨着技術進展快速,人工智慧導致人類毀滅的可能性確實該被提出來討論。以霍金爲首的科學家發出警告,認爲這問題的確值得擔憂。霍金指出,人工智慧短期的衝擊來自於控制他們的人,但長期來看,這些機器人能否被控制住才是個大問題。 針對以霍金爲首的科學家發出的警告,「惡魔詛咒」先生提出阻止邪惡人工智慧的方式,即第一時間就避免傷害性的人工智慧系統被製造出來,在寫程式的時候避免使用帶傷害性字眼的指令。此外,在邪惡的人工智慧還沒取得太多資源之前,提前偵測並立即關機,這一步驟只是要開發者注意這些自主性的系統,你發現這系統不好的時候就趕快關機。若太晚發現,邪惡的人工智慧可能會給人類帶來一場噩夢。 2014年5月,霍金說,運用人工智能技術製造能夠獨立思考的機器威脅人類的生存。霍金說:「人工智能的全面發展可能導致人類的滅絕。 霍金的擔憂一年後真發生了。美聯社2015年7月2日(週四)有一個警示人類的報導,說德國大衆汽車公司一個技術工人被他安裝的機器人殺死。這家工廠位於法蘭克福以北100公里的寶納塔爾(Baunatal)。這位22歲的工人在6月29日(週一)不治身亡。 大衆公司發言人海克·希爾維格(Heiko Hillwig)稱,這個工人屬於安裝固定機器人的團隊,他被機器人擊中了胸部並壓倒在金屬板上。 固定機器人和人之間有安全網籠,爲的是防止機器人與人有意外的身體接觸。當時,這個工人站在網籠內,結果這個重量級的機器人得手了,把這位年輕的工人給推倒並壓死了。 大衆發言人希爾維格強調,機器人不屬於新一代輕型協作機器人,不能與工人一起站在生產線邊上,需要安裝在安全網籠內。 大衆公司稱,該機器人沒有技術缺陷,機器人沒有問題。該機器人用於在限定區域操作,抓取汽車零部件和組裝,它沒有走出安全網籠外。初步的結論是這是人爲錯誤導致,因爲規定人不能進入安全網籠內。 德新社報道稱,檢察官爲難了,在考慮是否提出指控或指控誰。如果誰也不能指控,那麼那位被殺死的年輕工人就白白死掉了。 原因是什麼呢?包括那位被殺死的工人在內,都認爲機器人不是人,人不操作它不會動彈,所以大衆公司說設計這個機器人的技術人員沒有責任,因爲經過檢查發現技術沒有缺陷。錯就錯在工人不應該進入安全網籠內。 設計沒有問題,機器人卻能失控,自行其是,這恰恰證明了霍金的擔憂不是杞人憂天,機器人可以自主威脅人生命。 最值得懷疑的是那位所謂的科學家「惡魔詛咒」先生,既然明知道邪惡的人工智慧可能會使人類毀滅,那麼爲什麼要設計六種邪惡的人工智慧系統呢?這是最值得人類研究的課題。 是不是一些邪惡的生命已經有步驟的在地球上實施毀滅人類的計劃?答案是肯定的。 那麼,如何防止人類被滅絕呢?那就是趕快復興民族傳統文化,趕快復興民族傳統道德,這是唯一屬於人類的寶貴財富,堅持下去,人類就安全了。 △ (人民報首發)