原標(biāo)題:阿爾法狗之父揭秘最強(qiáng)“狗”如何煉成:3天走完人類千年棋史
倫敦當(dāng)?shù)貢r(shí)間10月18日18:00(北京時(shí)間19日01:00),谷歌旗下的DeepMind團(tuán)隊(duì)公布了進(jìn)化后的最強(qiáng)版AlphaGo ,代號(hào)AlphaGo Zero。
新版本的AlphaGo究竟有多厲害?打敗李世石的AlphaGo用了3000萬(wàn)盤比賽作為訓(xùn)練數(shù)據(jù),AlphaGo Zero用了490萬(wàn)盤比賽數(shù)據(jù)。經(jīng)過(guò)3天的訓(xùn)練,AlphaGo Zero就以100:0的比分完勝對(duì)陣?yán)钍朗哪前鍭lphaGo。
DeepMind聯(lián)合創(chuàng)始人兼CEO 、AlphaGo之父戴密斯·哈薩比斯(Demis Hassabis)和AlphaGo團(tuán)隊(duì)負(fù)責(zé)人大衛(wèi)·席爾瓦(Dave Sliver) 等人同時(shí)在官方博客上發(fā)表文章,詳解最強(qiáng)版本阿爾法狗是如何煉成的,與前代有何不同。
哈薩比斯
與學(xué)習(xí)大量人類棋譜起步的前代AlphaGo不同,AlphaGo Zero是從“嬰兒般的白紙”開(kāi)始,通過(guò)3天數(shù)百萬(wàn)盤自我對(duì)弈,走完了人類千年的圍棋歷史,并探索出了不少橫空出世的招法。
哈薩比斯等人專文:《AlphaGo Zero:從零開(kāi)始》
席爾瓦在烏鎮(zhèn)人機(jī)峰會(huì)上發(fā)言
從語(yǔ)音識(shí)別、圖像分類到基因和藥物研究,人工智能發(fā)展迅速。這些專家系統(tǒng),很多是借用海量人類經(jīng)驗(yàn)和數(shù)據(jù)開(kāi)發(fā)出來(lái)的。
然而,在有些特定問(wèn)題上,人類的知識(shí)要么過(guò)于昂貴,要么不靠譜,要么無(wú)法獲得。因此,人工智能研究的一個(gè)長(zhǎng)期目標(biāo)就是跳過(guò)這一步,創(chuàng)造能在最有挑戰(zhàn)性的領(lǐng)域,不用人類輸入就達(dá)到超人水平的算法。我們發(fā)表在《自然》期刊上的最新論文,展示了實(shí)現(xiàn)該目標(biāo)的關(guān)鍵一步。
論文介紹了首個(gè)戰(zhàn)勝人類圍棋冠軍的電腦程序AlphaGo的最新進(jìn)化版本:AlphaGo Zero。AlphaGo Zero更為強(qiáng)大,可以一爭(zhēng)史上最強(qiáng)圍棋手。
AlphaGo的前幾代版本,一開(kāi)始用上千盤人類業(yè)余和專業(yè)棋手的棋譜進(jìn)行訓(xùn)練,學(xué)習(xí)如何下圍棋。AlphaGo Zero則跳過(guò)了這個(gè)步驟,自我對(duì)弈學(xué)習(xí)下棋,完全從亂下開(kāi)始。用這種方法,它很快超過(guò)了人類水平,對(duì)陣此前戰(zhàn)勝人類冠軍李世石的前代AlphaGo取得了100連勝。
AlphaGo Zero之所以能當(dāng)自己的老師,是用了一種叫強(qiáng)化學(xué)習(xí)的新模式。系統(tǒng)從一個(gè)對(duì)圍棋一無(wú)所知的神經(jīng)網(wǎng)絡(luò)開(kāi)始,將該神經(jīng)網(wǎng)絡(luò)和一個(gè)強(qiáng)力搜索算法結(jié)合,自我對(duì)弈。在對(duì)弈過(guò)程中,神經(jīng)網(wǎng)絡(luò)不斷調(diào)整、升級(jí),預(yù)測(cè)每一步落子和最終的勝利者。
升級(jí)后的神經(jīng)網(wǎng)絡(luò)與搜索網(wǎng)絡(luò)結(jié)合成一個(gè)更強(qiáng)的新版本AlphaGo Zero,如此往復(fù)循環(huán)。每過(guò)一輪,系統(tǒng)的表現(xiàn)就提高了一點(diǎn)點(diǎn),自我對(duì)弈的質(zhì)量也提高了一點(diǎn)點(diǎn)。神經(jīng)網(wǎng)絡(luò)越來(lái)越準(zhǔn)確,AlphaGo Zero的版本也越來(lái)越強(qiáng)。
這種技術(shù)比此前所有版本的AlphaGo都更為強(qiáng)大。這是因?yàn)椋辉偈艿饺祟愔R(shí)的限制,而能夠從嬰兒般的白紙狀態(tài),直接向世界上最強(qiáng)大的棋手——AlphaGo本身學(xué)起。
AlphaGo Zero相較前代還有幾點(diǎn)明顯的差別:
首先,AlphaGo Zero僅用棋盤上的黑白子作為輸入,而前代則包括了小部分人工設(shè)計(jì)的特征輸入。
其次,AlphaGo Zero僅用了單一的神經(jīng)網(wǎng)絡(luò)。在此前的版本中,AlphaGo用到了“策略網(wǎng)絡(luò)”來(lái)選擇下一步棋的走法,以及使用“價(jià)值網(wǎng)絡(luò)”來(lái)預(yù)測(cè)每一步棋后的贏家。而在新的版本中,這兩個(gè)神經(jīng)網(wǎng)絡(luò)合二為一,從而讓它能得到更高效的訓(xùn)練和評(píng)估。
第三,AlphaGo Zero并不使用快速、隨機(jī)的走子方法。在此前的版本中,AlphaGo用的是快速走子方法,來(lái)預(yù)測(cè)哪個(gè)玩家會(huì)從當(dāng)前的局面中贏得比賽。相反,新版本依靠的是其高質(zhì)量的神經(jīng)網(wǎng)絡(luò)來(lái)評(píng)估下棋的局勢(shì)。
所有這些差異,都提高了系統(tǒng)的表現(xiàn),使其更為普適。不過(guò),是算法上的變化使得系統(tǒng)更為強(qiáng)大和高效。
僅僅自我對(duì)弈3天后,AlphaGo Zero就以100:0完勝了此前擊敗世界冠軍李世石的AlphaGo版本。自我對(duì)弈40天后,AlphaGo Zero變得更為強(qiáng)大,超過(guò)了此前擊敗當(dāng)今第一人柯潔的“大師”版AlphaGo。
通過(guò)數(shù)百萬(wàn)次自我對(duì)弈,AlphaGo從零開(kāi)始掌握了圍棋,在短短幾天內(nèi)就積累起了人類幾千年才有的知識(shí)。AlphaGo Zero也發(fā)現(xiàn)了新的知識(shí),發(fā)展出打破常規(guī)的策略和新招,與它在對(duì)戰(zhàn)李世石和柯潔時(shí)創(chuàng)造的那些交相輝映,卻又更勝一籌。
這些創(chuàng)造性的時(shí)刻給了我們信心:人工智能會(huì)成為人類智慧的增強(qiáng)器,幫助我們解決人類正在面臨的一些嚴(yán)峻挑戰(zhàn)。
盡管才剛剛發(fā)展起來(lái),AlphaGo Zero已經(jīng)走出了通向上述目標(biāo)的關(guān)鍵一步。如果類似的技術(shù)可以應(yīng)用在其他結(jié)構(gòu)性問(wèn)題,比如蛋白質(zhì)折疊、減少能耗和尋找新材料上,就能創(chuàng)造出有益于社會(huì)的突破。
新聞熱點(diǎn)
新聞爆料
圖片精選
點(diǎn)擊排行