關於部落格
每月出刊一篇,寫到99歲 ... ...
  • 490534

    累積人氣

  • 25

    今日人氣

    3

    追蹤人氣

Alpha Go

AlphaGo 本質上與深藍截然不同,不再是使用暴力解題法
AlphaGo並沒有理解圍棋的美學與策略,他只不過是找出了 2個美麗且強大的函數來決定他的落子
 ... 仍舊是屬於 弱人工智慧 ...
弱 就幹掉人類了; 那強 還得了 ??!! ~~


如果類神經網路神經元權重 不是以隨機方式指派,那麼應該可以大幅縮短神經網路的計算時間 ...

由於各家的論文期刊只要看到 類神經網路字眼基本上就視為垃圾不刊登,所以他們才提出 "深度學習" 這個新的字眼突圍 ... (LOL)

大量的訓練樣本 + 龐大的計算能力 + 靈巧的神經網路結構設計 ...

361個落子點,整個圍棋棋局的總排列組合數 高達 10的171次方 ...

在架構上,AlphaGo可以說是擁有 兩個大腦,兩個神經網路結構幾乎相同的兩個獨立網路:策略網路與評價網路,這兩個網路基本上是個 13層的卷積神經網路所構成,卷積核大小為 5*5 ...

改良過的策略網路可以 先透過卷積核排除掉一些區域不去進行計算,然後再根據剩餘區域找出最可能位置,雖然這可能降低 AlphaGo策略網路的威力,但是這種機制卻能讓 AlphaGo計算速度提升 1000倍以上 ...

也正因為 Alpha Go一直是根據整體局勢 來猜測對手的可能落子選擇,也因此人類耍的小心機 像是刻意下幾步希望擾亂電腦的落子位置,其實都是沒有意義的 ...

策略網路 是分類問題 (對方會下在哪);
評價網路 是評估問題 (我下在這的勝率是多少) ...

評價網路 並不是一個精確解的評價機制,因為如果要算出精確解可能會耗費極大量的計算能力,因此它只是一個近似解的網路,而且透過卷積神經網路 的方式來計算出 卷積核範圍的平均勝率 (這個做法的目的主要是要將評價函數平滑化,同時避免過度學習的問題),最終答案他會留到最後的 蒙地卡羅搜尋樹中解決 ...

蒙地卡羅搜尋樹 包括 4個步驟:
選取:首先根據目前的狀態,選擇幾種可能的對手落子模式。
展開:根據對手的落子,展開至我們勝率最大的落子模式。
評估:不但AlphaGo可能早就猜出了他可能下的位置,而且正利用他在思考的時間 繼續向下計算後面的棋路 ...
人類會感覺 電腦怎越下越快 ?? --- 原來是因為 自己越下越慢 ... (LOL)


李世石一直在猜測 AlphaGo的棋路,但是事實上反而是 AlphaGo一直在靠猜測李世石的下一步來做決策,所以他 應該改變思路,透過自己的假動作來誘騙 AlphaGo,這才有可能有勝利的可能性 ...

這句話有點玄 ...
既然會 猜測李世石的下一步 ... 那當然也會猜測出李世石的下一步 是在設陷阱呀 ?! ~~

強人工智慧 什麼時候會出現 ??
50%的問卷中位數是 2040年 ... ... :'-(

不過當弱人工智慧的發展進入到成本降低 可商業化的時候,大家與其關心人工智慧會不會統治地球,還不如先關心 自己的工作技能會不會被電腦取代來實際些吧 ...
幕後祕辛 真的嗎? IBM's Watson May Soon Be The Best Doctor In The World - Business  ...

很有可能 很快就會比 所有醫師診斷更快速更正確 (因為她可以看過所有的病例) ... 但法律不允許她當醫師 ... (LOL)
所以, 以後一定會成為醫師最佳助手的 !! ~~

一個 Alpha Go 和 另一個 Alpha Go 下棋, 誰會贏 ?? ~~ (LOL)

在與歐洲棋王對弈時,所使用的訓練組樣本只有 3000萬個棋譜,但是在與李世石比賽時 卻已經增加到 1億 ...
長工 不老 說 先誕生的這個會贏?

大家有沒有想過 ... 根本不需要第二台 Alpha Go
而且, 這盤棋會 越下越快 ...


我大概知道 Alpha Go 的弱點了 ...


不合常理的好手 ...

Alpha Go 被設計成 不是所有可能落子處 都跳下去計算及評估; 她會先把 不合常理的落子處 先排除掉, 只計算評估 合常理的 ... 如此可以加速 1000倍 ...

李九段 贏的那一盤, 就是下出一手 "不合常理的好手" ... 第78手
Alpha Go 先把這一手 排除了 ...
如果 Alpha Go 有意識, 那就是 出乎意料的一手 ... (LOL)

但可怕的是, Alpha Go 會學習 ...
也就是 這種 "不合常理的好手" ... 會越來越難 被找到 ...
會補強 才是 Alpha Go 最強的地方 !! ~~

相簿設定
標籤設定
相簿狀態