AlphaGo 是區域性算路更強嗎?它對整體勢的把握是如何做的

時間 2021-05-06 17:56:24

1樓:TSLM

根據最新的第四局,我認為的區域性算路可能如下:

常見的小區域性套路非常熟練

非常見的長距離線性計算要差點

78-86步已經接近10步了

10步以上的計算應該剪去了不少分支

而有些計算對人類棋手來講可能就是線性攻擊,但是對AI而言卻過於強大了如果可以的話,我想知道 AlphaGo做強扭羊頭的題,不知道能算到多少步

圍棋史上強扭活羊頭奇局:施襄夏、俞斌、曹薰鉉、趙治勳

2樓:Ted Mosby

圍棋對AI來說,真是個簡單問題,每一步最多最多19x19個選擇,剩下就是如何評估這些選擇的勢態函式了:方法就是nature那篇文章裡提到的強化學習(勢態的自學習,hint:圍棋最終勝利的勢態是比較確定的形態)、深度網路(一定的抽象,hint:

降維)和樹形搜尋(一定的蠻力——壓死駱駝的最後一根稻草)了。

李「師師」唯一的機會就是加入facebook go 團隊反身挑戰alpha go了;

柯「姐姐」還是避戰的好,免得小心臟受不了,畢竟年輕嘛~

3樓:餘小化

從這兩局棋的內容上看,alphago的演算法有幾個明顯特點:

1.優先採取減少變化的演算法。把棋盤盡快變小。這就是演算法的大局觀吧。

2.限制對方棋形發展,往遠離自己一方壓縮。

3.自己的棋子優先聯絡。

4.不輕易棄子。

5.優先走厚自己棋形,形成區域性以多打少的局面。能夠分斷殺的棋就盡量殺掉。

6.簡明局勢下優先避免打劫。

在這些前提下再來看這兩局棋,就可以很明確的看出alphago的棋路。它辨別好壞的標準和職業棋手的常識有多遠。沒有條條框框,怎麼簡單、明確怎麼來。

它以無比精密的後續變化計算為基礎,把局面導向有利於自己的一面。它不吝嗇下出簡單的俗手,和對手做出略吃點虧然而卻能保持盤面優勢的交換。無疑,這樣做開啟了職業圍棋固有的盲點,開闢了乙個全新的圍棋思維空間。

4樓:遛彎的蟲子

作為乙個懂一點點圍棋的愛好者,不請自來

圍棋的複雜是棋盤夠大且落子無限制,在開局階段有定式可循(各種定式也有不斷的變化和發展,但還是有一定的規律),變化最大的是在開局到中盤的轉換階段,原因是還有大量落子的空間,而每乙個選擇之後帶來的變化和可能性都非常多,對手的應對又會帶來大量的變化,棋手水平在這一階段直接體現出來,人類在這一階段大部分時候是不會做精細計算的,而是依靠高段棋手的經驗、大局觀,甚至一些直覺的判斷來作出決定的,而這些模糊的因素是計算機目前非常難模擬的,所以第一盤能看出谷歌在這一階段處於劣勢,但是進入中盤之後,隨著棋盤上落子空間越來越少,每乙個區域性爭奪都需要分毫不差的計算的時候,正是計算機的強項,只要演算法沒有漏洞,一般情況下沒有情緒波動不受體力下降所干擾的計算機是會強過人類的。

第二盤已經開始,我感覺依然是前半盤,李世石不會吃虧,關鍵還是中盤之後的處理。看比賽去。

5樓:黃國明

看完全局比賽,雖然我不懂圍棋,但是能感受到,它並沒有全域性去做最優就已經十分耗時。我覺得google也許是採用區域性推優的方法。在全域性上考慮的話,我覺得機械人很可能沒有所謂全域性的概念,它可能在訓練的時候就是對不管棋子多少的棋譜進行訓練。。。

這一些都只是我的猜測。

AlphaGo 代表的是英國嗎?為什麼不是 Google 的所在地美國國旗呢?

Jiudoumadei 因為阿狗的公司叫DeepMind,2011年在倫敦創立,是個地地道道的英國公司,原來通過研究模擬人工神經元來解決人工智慧問題,乙個月後,谷歌以4億英鎊重金收購了DeepMind這個僅有50多人的小公司,重新取名Google DeepMind 啟蒙運動,工業革命,雷達,圖靈,再...

PHP裡函式的引數變數是區域性變數嗎?

是,加global識別符號才是全域性變數,另外,php與js一樣無塊作用域,有函式作用域,這點要注意,比如for迴圈中unset全域性變數不需要加global var eechen 但要注意,引數以引用傳遞 進來的話,則該引數變數不會在函式結束時釋放記憶體.比如物件作為函式引數時預設就是引用傳遞,不...

讀書真的是最簡單的路嗎?

餘生只想對自己好點 讀書的確是好的選擇,但是對於天生就讀不進去書的人來說就只能選擇他她的愛好去發展了,俗話說尺有所短寸有所長,這就需要因才施教了 陳慧金 讀書不是最簡單的路,但是最有用的路,學好知識,將來在哪一行都能用得到,讀書是可以了解各方面的東西,提高自己的見識,遇到問題你就可以想到解決問題的方...