国产精品乱码一区-性开放网站-少妇又紧又爽视频-西西大胆午夜人体视频-国产极品一区-欧美成人tv-四虎av在线-国产无遮挡无码视频免费软件-中文字幕亚洲乱码熟女一区二区-日产精品一区二区三区在线观看-亚洲国产亚综合在线区-五月婷婷综合色-亚洲日本视频在线观看-97精品人人妻人人-久久久久久一区二区三区四区别墅-www.免费av-波多野结衣绝顶大高潮-日本在线a一区视频高清视频-强美女免费网站在线视频-亚洲永久免费

機械社區

標題: 突發奇想,如果使用2臺alphaGO主機,使用同樣的算法和策略,互奕一局,結局如何? [打印本頁]

作者: crazypeanut    時間: 2016-3-10 18:31
標題: 突發奇想,如果使用2臺alphaGO主機,使用同樣的算法和策略,互奕一局,結局如何?
這個是不是有點自相矛盾的味道?? 但是我對結果很感興趣
作者: 愛貓人士薛定諤    時間: 2016-3-10 18:42
這算是“迭代”嗎,昨天也想到這個了
" W" \0 S4 w: n1 f以后辦圍棋賽,可以分設AI組與人類組,
作者: 滅嘎嘎    時間: 2016-3-10 18:42
勝負五五開吧
作者: yestwp    時間: 2016-3-10 18:46
早已經自我進化3000多萬局啦
# c3 n6 k' \" L: t& i" l3 w& `0 t) ], N
靠人來比試獲取電腦算法經驗值的速度太慢6 p, m8 i+ K' f" _

作者: 2266998    時間: 2016-3-10 18:47
不會的,依然是一方贏,并且肯定是一方贏,毫無疑問,
/ }) j  D4 h9 S1 b3 v9 B7 T8 Q# m% d8 s2 k/ J3 O
因為每個系統是一個小組,其‘策略’是完全不同的,就是那個‘總策略’的算法與智商水平,決定了誰是贏家,這家伙假如到賭場,肯定被‘勸阻’的,跟山本一個級別,山本就進不了賭場,* n: r) f+ W- r1 R7 x/ A( L* _
5 f0 @. P3 i' L
這個,就跟我玩自動裝配是一個道理,你裝配車的路徑每個人算法是不同的,最終效率是不同的,2 x: w; C1 {1 L$ L8 U  h
! J9 I& x" N5 W& L1 f. z
古狗其實就是向全世界宣布,阿拉是‘老大’,以前是IBM是老大,再后來是洛馬,
: R3 V: R' g4 m  b" l
' y9 ~7 }2 ~& y5 D: R: v1 S洛馬被熊給戲了一次,丟了大面子,但迅速就找回來了,依然用170飛,就是‘挑戰與賭氣’,哈哈,
& E5 Q4 J- V6 M% K  a0 n+ y2 W5 ?  Y$ n- f$ t
跑速度與航程,跑不過諾格,有點‘丟分兒’哈哈,7 S: Z1 R) Y$ P3 D2 e0 P7 V% P
$ N3 }- m5 K# |
總體說水平,可能現在還是洛馬第一,古狗大概排第二,因為洛馬玩這些東西的人,是古狗的好多倍,但也不排除古狗里面有一個‘絕世天才’,跟布勞恩一樣的家伙,
2 x& C  x- A4 c( Y  K5 w  o/ _, g9 q
就像中國專家希望在‘神農架’里面找的‘非凡者’,哈哈,他們跟俺說這些,俺哈哈大笑,
& L7 T8 K. K, V- D2 \1 e
( ^! O8 y6 y6 d3 g, B中米社會條件不同,論侃,米國肯定不是對手,哈哈,
作者: crazypeanut    時間: 2016-3-10 18:48
滅嘎嘎 發表于 2016-3-10 18:42 ) F9 q2 T- T9 q3 _8 O
勝負五五開吧

! ]( J# q0 w- k7 v我曾經在一臺雙路E5 2680 v2的主機上,使用軟件對軟件下象棋,總計25盤,本來我以為,這個應該遵循p=0.5的0-1分布,但是,結果讓人意想不到,紅對藍,紅勝22盤6 L0 [$ l" d1 g# ]9 R

作者: crazypeanut    時間: 2016-3-10 18:49
2266998 發表于 2016-3-10 18:47 * T0 i# k$ x4 n  P
不會的,依然是一方贏,并且肯定是一方贏,毫無疑問,; q7 v" D5 b( h5 R( H3 g1 O4 g
4 U. ?8 v7 t' k3 E6 t* B& N  Z
因為每個系統是一個小組,其‘策略’是完全不同的 ...
2 Q$ q7 \$ S# \, [+ Y% J% C
我曾經在一臺雙路E5 2680 v2的主機上,使用軟件對軟件下象棋,總計25盤,本來我以為,這個應該遵循p=0.5的0-1分布,但是,結果讓人意想不到,紅對藍,紅勝22盤;看來就像8爺所說的那樣,還是一方贏
" ?8 V: {/ D2 j$ \
作者: negtive    時間: 2016-3-10 19:30
馬上fps,rts游戲也要沒意思了,阿爾法狗下一個目標就是星際爭霸。$ m8 f5 f. h3 y1 Z' A! G5 W5 T
" ^3 d9 W# A! W: [/ o4 e
幸好我已經是劇情黨了。
作者: 劉景亞    時間: 2016-3-10 19:34
看了下DeepMind團隊發表在Nature上的文章,AlphaGO深度學習、蒙特卡羅樹狀搜索、自我進化三大招齊出。換句話說,最開始的時候AlphaGO并不會下棋,怎么走完全靠隨機蒙,那些蒙對的走法會記憶下來,那些蒙錯的走法會淘汰,這就是訓練。等下次再對弈時,就會使用上次蒙對的走法。經過上萬次甚至甚至上億次的訓練淘汰,水平會不斷上升,也就實現了自我進化。
& c- R+ t$ F& M/ n1 _6 k根據這個原理,兩個AlphaGO對弈,總會有一個獲勝,獲勝的新的走法會保留,失敗的會淘汰,實現進化。這很像人類的自然進化法則,這也正是AkphaGO厲害的地方。
  o8 {  y' n7 x; n- d事實上目前AlphaGO的技能很大程度上都是通過自己左右互搏學習到的。
作者: icegoods    時間: 2016-3-11 09:43
外太空這要這家伙去開疆拓土,進化吧
作者: 機械huhuang    時間: 2016-3-11 21:21
結局最多19*19種
作者: 雨傾城    時間: 2016-3-12 20:10
走出地球,征服星際需要他們




歡迎光臨 機械社區 (http://m.whclglass.com.cn/) Powered by Discuz! X3.5