騰訊科技訊 據(jù)外媒報道,著名物理學家斯蒂芬-霍金(Stephen Hawking)周一表示,人工智能的出現(xiàn)可能是“我們文明史上最糟糕的事”,除非社會找到控制其發(fā)展的方法。
霍金在葡萄牙里斯本舉行的Web峰會技術(shù)會議上發(fā)表了上述言論。他說:“理論上,計算機可以模擬人類的智慧,并超越它。”
霍金談到了人工智能在幫助消除對自然世界的破壞或消除貧困和疾病方面的潛力,社會的每個方面都將被改變。
但他承認,未來是不確定的。
霍金在演講中說:“成功創(chuàng)造出有效的人工智能可能是我們文明史上的最大事件,或者說是最壞的事件。我們只是不知道。因此,我們無法知道我們是否會得到人工智能的無限幫助,或者被它忽視,或者被它摧毀。”
“除非我們學會如何做好準備并避開潛在風險,否則人工智能可能是人類文明史上最糟糕的事件。它帶來了危險,比如強大的自動化武器或者少數(shù)人壓迫多數(shù)人的新方法。它可能會給我們的經(jīng)濟帶來巨大的破壞。”
霍金解釋說,為了避免這種潛在的風險,人工智能的創(chuàng)造者需要“采用最佳實踐和有效管理”。
霍金強調(diào)說,歐洲正在進行一些立法工作,特別是今年早些時候立法者提出關(guān)于人工智能和機器人技術(shù)的新規(guī)定。歐洲議會成員國表示,歐盟需要建立廣泛的法律法規(guī)才能解決這個問題。
正是因為這些發(fā)展,霍金對未來充滿了希望。
霍金說:“我是一名樂觀主義者,我相信我們可以為世界的利益創(chuàng)造人工智能。它能跟我們和諧相處。我們只是需要意識到危險,分辨出危險,利用最佳實踐和管理,提前做好準備。”
這并非霍金首次警告人工智能的危險。他和科技行業(yè)的許多名流都談過他們對人工智能技術(shù)的擔憂。特斯拉和SpaceX首席執(zhí)行官埃隆-馬斯克(Elon Musk)最近表示,人工智能可能會引發(fā)第三次世界大戰(zhàn),甚至提議人類必須與機器人合并以便在未來保持相關(guān)性。
還有一些人提出了對付人工智能的方法。微軟創(chuàng)始人比爾-蓋茨表示,機器人應(yīng)該繳納所得稅。
科技行業(yè)的一些大腕并不認為人工智能會造成世界末日。Facebook首席執(zhí)行官馬克-扎克伯格(Mark Zuckerberg)稱,他對人工智能的未來“非常樂觀”。(編譯/林靖東)
新聞熱點
新聞爆料