机械必威体育网址

标题: 突发奇想,如果使用2台alphaGO主机,使用同样的算法和策略,互奕一局,结局如何? [打印本页]

作者: crazypeanut    时间: 2016-3-10 18:31
标题: 突发奇想,如果使用2台alphaGO主机,使用同样的算法和策略,互奕一局,结局如何?
这个是不是有点自相矛盾的味道?? 但是我对结果很感兴趣
作者: 爱猫人士薛定谔    时间: 2016-3-10 18:42
这算是“迭代”吗,昨天也想到这个了, V) \6 {$ J0 k# o
以后办围棋赛,可以分设AI组与人类组,
作者: 灭嘎嘎    时间: 2016-3-10 18:42
胜负五五开吧
作者: yestwp    时间: 2016-3-10 18:46
早已经自我进化3000多万局啦
7 w: B( P( |8 n5 \; `# g6 H& E9 n. ~( A) i$ }8 X; q" J) k2 a
靠人来比试获取电脑算法经验值的速度太慢
, t/ g$ A  ~; S+ W
作者: 2266998    时间: 2016-3-10 18:47
不会的,依然是一方赢,并且肯定是一方赢,毫无疑问,, a& C) Y* c9 n" a& L0 }6 ]
4 I* P- F* r7 m* q6 H: A
因为每个系统是一个小组,其‘策略’是完全不同的,就是那个‘总策略’的算法与智商水平,决定了谁是赢家,这家伙假如到赌场,肯定被‘劝阻’的,跟山本一个级别,山本就进不了赌场,
0 }: z( y" J+ U5 ?. w! {. }7 N! a4 I$ i  F
这个,就跟我玩自动装配是一个道理,你装配车的路径每个人算法是不同的,最终效率是不同的,0 V9 h/ J% S* f, A! B( r
9 ^1 ]6 M7 `& v' l# P, i! j* K
古狗其实就是向全世界宣布,阿拉是‘老大’,以前是IBM是老大,再后来是洛马,* [( E" r. V9 O3 n6 c5 M
8 g5 }* L+ @3 K( |% ?3 v
洛马被熊给戏了一次,丢了大面子,但迅速就找回来了,依然用170飞,就是‘挑战与赌气’,哈哈,( @! U; D) M$ m0 }+ Q. o

0 f$ I3 W$ y( X* `跑速度与航程,跑不过诺格,有点‘丢分儿’哈哈,! x! H4 K" @& ]9 o* a3 a1 z
; O) T  V' A: ~2 C7 y: U1 J
总体说水平,可能现在还是洛马第一,古狗大概排第二,因为洛马玩这些东西的人,是古狗的好多倍,但也不排除古狗里面有一个‘绝世天才’,跟布劳恩一样的家伙," |+ [3 W  b4 Z4 D' \; X' {7 h  }
8 A& @5 @, D9 A- d3 x( L1 S
就像中国专家希望在‘神农架’里面找的‘非凡者’,哈哈,他们跟俺说这些,俺哈哈大笑,
' |1 B. }5 m$ a& \9 A0 ^8 [
; F# k( g- a9 D+ [' j% F5 E中米社会条件不同,论侃,米国肯定不是对手,哈哈,
作者: crazypeanut    时间: 2016-3-10 18:48
灭嘎嘎 发表于 2016-3-10 18:42
- h$ |" g5 [8 e+ @胜负五五开吧

, ?( m2 x1 t! e/ c. ?" D. I2 p我曾经在一台双路E5 2680 v2的主机上,使用软件对软件下象棋,总计25盘,本来我以为,这个应该遵循p=0.5的0-1分布,但是,结果让人意想不到,红对蓝,红胜22盘
! k: V  T& [/ R& K) P. O- q
作者: crazypeanut    时间: 2016-3-10 18:49
2266998 发表于 2016-3-10 18:47
& ^9 p( a9 f; |0 G. k& z1 _不会的,依然是一方赢,并且肯定是一方赢,毫无疑问,
) x9 H3 G  \( _" T) Y0 ?; a$ {6 V
6 C8 ?' k9 M+ _4 Y; D因为每个系统是一个小组,其‘策略’是完全不同的 ...

6 J+ |! m  h. x" v. R$ O! T' ?" m我曾经在一台双路E5 2680 v2的主机上,使用软件对软件下象棋,总计25盘,本来我以为,这个应该遵循p=0.5的0-1分布,但是,结果让人意想不到,红对蓝,红胜22盘;看来就像8爷所说的那样,还是一方赢1 o; v! ?. d$ p' k

作者: negtive    时间: 2016-3-10 19:30
马上fps,rts游戏也要没意思了,阿尔法狗下一个目标就是星际争霸。( h+ [9 v$ K% A! H5 l
$ V3 f1 n2 W( t
幸好我已经是剧情党了。
作者: 刘景亚    时间: 2016-3-10 19:34
看了下DeepMind团队发表在Nature上的文章,AlphaGO深度学习、蒙特卡罗树状搜索、自我进化三大招齐出。换句话说,最开始的时候AlphaGO并不会下棋,怎么走完全靠随机蒙,那些蒙对的走法会记忆下来,那些蒙错的走法会淘汰,这就是训练。等下次再对弈时,就会使用上次蒙对的走法。经过上万次甚至甚至上亿次的训练淘汰,水平会不断上升,也就实现了自我进化。# ~" ^; s. G7 h$ b: |
根据这个原理,两个AlphaGO对弈,总会有一个获胜,获胜的新的走法会保留,失败的会淘汰,实现进化。这很像人类的自然进化法则,这也正是AkphaGO厉害的地方。+ m2 J- O/ T* g) K: X" t' Q' P( l% D4 D; R" e
事实上目前AlphaGO的技能很大程度上都是通过自己左右互搏学习到的。
作者: icegoods    时间: 2016-3-11 09:43
外太空这要这家伙去开疆拓土,进化吧
作者: 机械huhuang    时间: 2016-3-11 21:21
结局最多19*19种
作者: 雨倾城    时间: 2016-3-12 20:10
走出地球,征服星际需要他们




欢迎光临 机械必威体育网址 (//www.szfco.com/) Powered by Discuz! X3.4