查看完整版本 : 質疑 neural network

xianrenb 2017-9-23 08:34 PM

質疑 neural network

以前曾見過有新聞提過數學家認為 neural network 不可能用。
現在我找不到這樣的新聞,不過可以說說我想到的。

AI 中的 neural network 是這些:
[url=https://en.wikipedia.org/wiki/Artificial_neural_network]https://en.wikipedia.org/wiki/Artificial_neural_network[/url]

以我的理解, neural network 只是一堆 artificial neuron ,即是一些 function ,以某一個 topology 組成一個 network ,輸出某數值。
training 的時候,用 backpropagation 的方式,由最接近輸出的一層向最接近輸入的一層來改變 neuron 內用的 weights 。
細節不多說,重點是每個 training iteration ,都是在減少 error 。

可以想像,無論個 topology 如何複雜,整個系統其實也只是一個大 function (只考慮一個輸出的情況)。
如 Y = f(X1, X2, ..., Xn, W1, W2, ... Wk) , Xi 為 inputs , Wi 為 weight constants 。
無論用任何可能的 training 方式,也只是使 error 盡量接近 0 。
換言之,可以看成是一種 curve fitting 。
對比來說,如果有兩點資料,最好的是線可以是 Y = A*X + B 。
如果有 n 點資料,最好的 curve 可以是 Y = K1 * X^(n-1) + K2 * X^(n-2) + ... + Kn * X^0 。
如果只要求 error 接近 0 ,可以少幾個 terms , order 少些。
亦即是要 tune 的 parameter Ki 的總數會少於 n ,但要接近 n 才合理。
神奇的是,前面說的 neural network training 中的 Wi ,就是類似這些 Ki !
換句話說,如果資料量是 n ,要 neural network train 得好,合理的 parameters/weights ,應該數量也接近 n 才對!?
當然,在 curve fitting 的問題中,只要 data 符合 curve model , Ki 的數目可以遠少於 n 。
但問題是, neural network training 中的 data ,要巧合地符合 neural network 的 "curve" model ,應該不大可能。
事實上,在 curve fitting 問題中,使用時也要選取合理的 curve model 才可。
例如,Y = e^(A*X+B) 與 Y = A*X + B 已經完全不同。
而 neural network 可以組成任意 topology ,要巧合地選取正確的,基本上看來已經不可能!
這還不只呢!
正常 neural network 由輸入至輸出會有多層。
輸入層的 weights 或輸入稍為改變,按理會多重影響接近輸出各層的中間輸出。
最終的輸出,應該變化很大。
這樣的話,一般 implementation 的準確度足夠嗎?
即是說,輸入層的數值,在電腦中很可能只能用近似的數值而產生誤差,而最終輸出可能會放大這種誤差。

這樣看來, neural network 是電腦科學中邪門的東西。

Susan﹏汪汪 2017-9-23 08:56 PM

汪汪之前有講過

首先

用AI去做完美預測係不可能

就算係完全模擬一個宇宙、都需要有等同一整個宇宙的質量先可以

基本上人類發展人工智能係想解決人腦的諗唔掂的問題
但同時間現行發展中的AI又倒轉頭去模仿人腦思考

呢個係一個矛盾

另一方面

人腦本來就已經係有計算誤差嘅計算機
就因為存在錯容性同彈性、所以睇起上黎就係有思想

所以人工智能主要都唔係講究運算誤差
而係錯容性同彈性

最後一點係

同第一點有相關
就用人像識別技術黎講

用人工智能去識別全世界所有人種嘅技術其實係遠遠超過人腦

就算講一個正常人
就好似美國人眼中的華人個個一樣餅印分唔清
相反好多華人都會分唔清黑人嘅樣

所以如果要求AI要99.9999%準確去分辨全世界所有人種
呢個AI技術早就超越左人腦

Susan﹏汪汪 2017-9-23 09:01 PM

再舉個例子

就講object detection

要AI去認識不同物件
就好似叫人去分辨每隻曱甴有咩分別一樣

當然如果個AI夠高級的話
應該會識分貓同狗的不同

form5 2017-9-24 01:26 AM

[quote]原帖由 [i]xianrenb[/i] 於 2017-9-23 08:34 PM 發表 [url=http://computer.discuss.com.hk/redirect.php?goto=findpost&pid=468302243&ptid=26946236][img]http://computer.discuss.com.hk/images/common/back.gif[/img][/url]
以前曾見過有新聞提過數學家認為 neural network 不可能用。
現在我找不到這樣的新聞,不過可以說說我想到的。
AI 中的 neural network 是這些:
[url=https://en.wikipedia.org/wiki/Artificial_neural_network]https://en.wikipedia.org/wiki/Artificial_neural_network[/url]
... [/quote]
讀過呢科,到而加都覺得神奇

[[i] 本帖最後由 form5 於 2017-9-24 03:10 AM 編輯 [/i]]

jasonchan35 2017-9-24 04:09 AM

neural network 既好處就係唔須要有一個絕對既 algorithm 都可以靠 data sample 去修正
雖然唔可能 100% 準確, 但係唔難做到 97%,

例如 facebook 可以用黎搵, 有無人 post D 不雅既圖片,
都係先用黎做左第一輪篩選, 之後先再有人去處理

[[i] 本帖最後由 jasonchan35 於 2017-9-24 10:48 AM 編輯 [/i]]

xianrenb 2017-9-24 10:30 AM

[quote]原帖由 [i]xianrenb[/i] 於 2017-9-23 08:34 PM 發表 [url=http://computer.discuss.com.hk/redirect.php?goto=findpost&pid=468302243&ptid=26946236][img]http://computer.discuss.com.hk/images/common/back.gif[/img][/url]
以前曾見過有新聞提過數學家認為 neural network 不可能用。
現在我找不到這樣的新聞,不過可以說說我想到的。

AI 中的 neural network 是這些:
[url=https://en.wikipedia.org/wiki/Artificial_neural_network]https://en.wikipedia.org/wiki/Artificial_neural_network[/url]

... [/quote]

看來找到了,估計個新聞出處如下:
[url=https://edgylabs.com/cant-physics-math-agree-deep-neural-networks/]https://edgylabs.com/cant-physics-math-agree-deep-neural-networks/[/url]
當中提到:
[quote]...But as complex as these layered networks may be, and as much math as they contain, mathematical equations alone cannot explain why deep neural networks work as well as they do....Mathematicians have held the view that the infinite number of possible functions should make be impossible for the deep neural network to handle....[/quote]

不過為了不引起恐慌,又說:
[quote]...Henry Lin of Harvard University and Max Tegmark of MIT stand to change that view by offering that the laws of physics– not math– govern multi-layered networks. Despite the infinite number of mathematical possibilities, the networks can operate by considering only a simple set of parameters. This effectively limits the amount of information to the most relevant search keys. They system would then be required to process only a fraction of said mathematical  functions, and not all of them simultaneously.

It’s like playing a game where Physics makes the rules and Math gives you the scenario....[/quote]

但其實,這也只是硬加解釋。
數學上不可能的,物理上就變成可能?

煙民母親生賤種 2017-9-26 11:47 PM

[quote]原帖由 [i]Susan﹏汪汪[/i] 於 2017-9-23 09:01 PM 發表 [url=http://www.discuss.com.hk/redirect.php?goto=findpost&pid=468303374&ptid=26946236][img]http://www.discuss.com.hk/images/common/back.gif[/img][/url]
再舉個例子

就講object detection

要AI去認識不同物件
就好似叫人去分辨每隻曱甴有咩分別一樣

當然如果個AI夠高級的話
應該會識分貓同狗的不同 [/quote]

但幾時 d AI 等至有我咁高級? 鹿同馬根據倩况自行定義?

xianrenb 2017-9-27 09:19 AM

[quote]原帖由 [i]Susan﹏汪汪[/i] 於 2017-9-23 08:56 PM 發表 [url=http://computer.discuss.com.hk/redirect.php?goto=findpost&pid=468303150&ptid=26946236][img]http://computer.discuss.com.hk/images/common/back.gif[/img][/url]
汪汪之前有講過

首先

用AI去做完美預測係不可能

就算係完全模擬一個宇宙、都需要有等同一整個宇宙的質量先可以

基本上人類發展人工智能係想解決人腦的諗唔掂的問題
但同時間現行發展中的AI又倒轉頭去模仿人腦思考 ... [/quote]

所以“較好”的 AI 方法,某程度上很可能只是一種包裝過後的說法,甚至可能是學術做假。

其實我有先前的想法,是從思考能否有一種完美 AI classifier 開始。

思考的方向,依一般數學的方式,就是設計一個數學模型或一堆 parameters 的數式出來,然後想方法減少 error 。

如果是完美的, error 就是 0 。
而 parameters 的數量是 n 個的話,就要對應 n 個 facts/conditions ,才可算出所有未知的 parameters 。
換言之,不論如何設計,這些完美 AI classifier 中的 training data 的數量/資料量,就與應用時的 parameters 數量/資料量相等!
這還不只,這些 AI classifier 當中的數學算式,實際上還要符合應用時的 data ,一樣是 error = 0 。
即是說,要在不足夠的資料下,估算出合理的額外 parameters 才行。
更不合理的要求是,這要無限個!

結論是,根本不可能設計出完美的 AI classifier 。
而最接近完美的 AI classifier ,也要有與 training data 等量的 parameters 。
這亦與一般人期望的, model parameters 數量要遠小於 training data 的數量,這目標不符。

而像(deep) neural network 般,以人腦不能有效分析的複雜 topology 來製成超複雜的 function ,亦不能改變當中 parameters 的實際數量。
某程度上,就是簡單問題複雜化。

MagpiesHK 2017-10-6 09:36 PM

[quote]原帖由 [i]xianrenb[/i] 於 2017-9-27 09:19 AM 發表 [url=http://www.discuss.com.hk/redirect.php?goto=findpost&pid=468471444&ptid=26946236][img]http://www.discuss.com.hk/images/common/back.gif[/img][/url]


所以“較好”的 AI 方法,某程度上很可能只是一種包裝過後的說法,甚至可能是學術做假。

其實我有先前的想法,是從思考能否有一種完美 AI classifier 開始。

思考的方向,依一般數學的方式,就是設計一個數 ... [/quote]

點解number of parameters要同number of training data一樣?

Ching是否想歪了?

MagpiesHK 2017-10-6 09:49 PM

沿用直線的例子做說明吧
假設我有100個點都在一直線上的training data,如何用regression的方法去得到y=mx+c的model?

MagpiesHK 2017-10-6 09:56 PM

我只要用一個高complexity的model去做regression,例如:y=w1*x+w2*x^2+w3*x^4+b

用100個training data去train這個model,結果會是w2和w3變得很細得返
Y=w1*x+b

Susan﹏汪汪 2017-10-6 10:01 PM

[quote]原帖由 [i]MagpiesHK[/i] 於 2017-10-6 09:36 PM 發表 [url=http://www.discuss.com.hk/redirect.php?goto=findpost&pid=468954725&ptid=26946236][img]http://www.discuss.com.hk/images/common/back.gif[/img][/url]


點解number of parameters要同number of training data一樣?

Ching是否想歪了? [/quote]
比個例子

如果有個map function
T : X -> Y

要做完美預測的話最簡單就係一一對應
即係T係一個最直接了當的查詢表
個表的大小就係可以輸入的X的數量

但如果再有另一個map function 可以做相同的事情
Q : X -> Y

但Q的大小係遠遠小於T
甚至Q只不過係一條方程式
即Q的大小不依賴X的數量的話、甚至係一個常值

Q就會係壓縮過的T

再退一層次黎講
如果要求一個T係能夠完美預測任何完全隨機變量
再求一個Q的話

鴿巢原理可以話比我地知一個完全隨機變量係冇咩可能做到大幅的壓縮

也可以話好難搵到一個Q的大小係遠遠小於T

即代表對於任意的inputs
要做完美預測的話往往係需要跟inputs 的量相當的參數先有可能做到

MagpiesHK 2017-10-6 10:03 PM

上面的例子說明,我用3個weight加一個bias的model就可以從100個data上train出一個準確的classifier出黎。

關鍵是你用的model complexity夠唔夠去modelling你要的classifier.過份complex的話,會出現overfitting,不過是可以有方法補救的

Susan﹏汪汪 2017-10-6 10:05 PM

[quote]原帖由 [i]MagpiesHK[/i] 於 2017-10-6 09:49 PM 發表 [url=http://www.discuss.com.hk/redirect.php?goto=findpost&pid=468955351&ptid=26946236][img]http://www.discuss.com.hk/images/common/back.gif[/img][/url]
沿用直線的例子做說明吧
假設我有100個點都在一直線上的training data,如何用regression的方法去得到y=mx+c的model? [/quote]
用你呢個直線來說明

本身因爲個inputs 不是任意的隨機
係一個可預測的inputs

預測結果就係接近一條直線
所以個Q就可以寫成y = mx + c的方程

但如果放一個2D平面的白噪data入model
結果就完全不能做任何預測

MagpiesHK 2017-10-6 10:19 PM

[quote]原帖由 [i]Susan﹏汪汪[/i] 於 2017-10-6 10:05 PM 發表 [url=http://www.discuss.com.hk/redirect.php?goto=findpost&pid=468956252&ptid=26946236][img]http://www.discuss.com.hk/images/common/back.gif[/img][/url]

用你呢個直線來說明

本身因爲個inputs 不是任意的隨機
係一個可預測的inputs

預測結果就係接近一條直線
所以個Q就可以寫成y = mx + c的方程

但如果放一個2D平面的白噪data入model
結果就完全不能做任何預測 ... [/quote]
重點來了,neural network不是用來train和predict random data的

data和label必然是有某一個pattern。NN才可以自動幫你發掘這個pattern出黎。所以我地可以用NN去train捉圍棋,image classifier...etc.因為這些都是有pattern的

但是,如果你用NN去train六合彩或者百家樂,就無能為力,如果唔係大家一早發左啦

Susan﹏汪汪 2017-10-6 10:39 PM

[quote]原帖由 [i]MagpiesHK[/i] 於 2017-10-6 10:19 PM 發表 [url=http://www.discuss.com.hk/redirect.php?goto=findpost&pid=468956996&ptid=26946236][img]http://www.discuss.com.hk/images/common/back.gif[/img][/url]

重點來了,neural network不是用來train和predict random data的

data和label必然是有某一個pattern。NN才可以自動幫你發掘這個pattern出黎。所以我地可以用NN去train捉圍棋,image classifier...etc.因為這些都 ... [/quote]
呢個只係用來說明完美預測係不存在

因為現實世界好多時睇見好似有pattern的情況
也包含一定的隨機性

呢個隨機性令完美預測不能成立

MagpiesHK 2017-10-6 10:50 PM

[quote]原帖由 [i]Susan﹏汪汪[/i] 於 2017-10-6 10:39 PM 發表 [url=http://www.discuss.com.hk/redirect.php?goto=findpost&pid=468957998&ptid=26946236][img]http://www.discuss.com.hk/images/common/back.gif[/img][/url]

呢個只係用來說明完美預測係不存在

因為現實世界好多時睇見好似有pattern的情況
也包含一定的隨機性

呢個隨機性令完美預測不能成立 [/quote]
NN從來都無關於完美預測,只是machine learning的一種

Susan﹏汪汪 2017-10-6 11:07 PM

[quote]原帖由 [i]MagpiesHK[/i] 於 2017-10-6 10:50 PM 發表 [url=http://www.discuss.com.hk/redirect.php?goto=findpost&pid=468958506&ptid=26946236][img]http://www.discuss.com.hk/images/common/back.gif[/img][/url]

NN從來都無關於完美預測,只是machine learning的一種 [/quote]
NN係冇完美預測

前面的討論只不過係論證呢一點

darigold 2017-10-6 11:57 PM

[quote]原帖由 [i]MagpiesHK[/i] 於 2017-10-6 09:36 PM 發表 [url=http://computer.discuss.com.hk/redirect.php?goto=findpost&pid=468954725&ptid=26946236][img]http://computer.discuss.com.hk/images/common/back.gif[/img][/url]
點解number of parameters要同number of training data一樣?
Ching是否想歪了?
[/quote]
假如我們 train 一個 neural network 去學習做 integer 加數。
input space 理論下係無限大,所有 integers 有無限咁多。
你冇可能會無限個 neuron 去 model 它。
但係人腦只有有限個腦細胞,但係就無問題解決加數呢個問題。
所以我地係可以用有限個 parameters 去 solve 無限條問題。
呢個叫 generalization 。

xianrenb 2017-10-7 08:49 AM

[quote]原帖由 [i]darigold[/i] 於 2017-10-6 11:57 PM 發表 [url=http://computer.discuss.com.hk/redirect.php?goto=findpost&pid=468961705&ptid=26946236][img]http://computer.discuss.com.hk/images/common/back.gif[/img][/url]

假如我們 train 一個 neural network 去學習做 integer 加數。
input space 理論下係無限大,所有 integers 有無限咁多。
你冇可能會無限個 neuron 去 model 它。
但係人腦只有有限個腦細胞,但係就無問題解決加 ... [/quote]

雖然話人類可以理解加數是什麼,但現實中人腦計加數可以“打爆機”的。
例如說,一百個 digit 的兩個數相加,正常人心算應該已經計唔到。

xianrenb 2017-10-7 09:01 AM

[quote]原帖由 [i]MagpiesHK[/i] 於 2017-10-6 09:56 PM 發表 [url=http://computer.discuss.com.hk/redirect.php?goto=findpost&pid=468955712&ptid=26946236][img]http://computer.discuss.com.hk/images/common/back.gif[/img][/url]
我只要用一個高complexity的model去做regression,例如:y=w1*x+w2*x^2+w3*x^4+b

用100個training data去train這個model,結果會是w2和w3變得很細得返
Y=w1*x+b [/quote]

你似是將個問題倒轉了來想。

或者考慮以下問題,現在 y = f(x) = e^(x^3 + 2 * x^2 + 3 * x + 4)
現在用 y = g(x, k1, k2, k3, k4) = k1 * x^3 + k2 * x^2 + k3 * x + k4 來 model y = f(x) 。
只是 sample 數量合理(遠多於 4),無論點用 y = g(x, k1, k2, k3, k4) 來 model ,即無論 ki 是什麼, error 不會小的。

煙民母親生賤種 2017-10-7 03:14 PM

[quote]原帖由 [i]xianrenb[/i] 於 2017-10-7 08:49 AM 發表 [url=http://computer.discuss.com.hk/redirect.php?goto=findpost&pid=468970140&ptid=26946236][img]http://computer.discuss.com.hk/images/common/back.gif[/img][/url]


雖然話人類可以理解加數是什麼,但現實中人腦計加數可以“打爆機”的。
例如說,一百個 digit 的兩個數相加,正常人心算應該已經計唔到。 [/quote]
基本人腦係唔應該應用在技術層面的工作上。人腦係用來諗  very high level 的事情, 例如哲學, 思考宇宙的意義, 人的意義, 人為何有這般行為, 人性是如何理解, 誰創造了人類, 人的存在真正目的是什麼, 背後有什麼意義。動物的行為應如何理解等等... 而唔係加減乘除呢 D 功能上既野。功能上既野, 只係工具去幫助思考大方向既野, 而唔係主菜。所以你不難發現, 點解咁多高學力既人, 要幫你加成打工, 因為你先生控制左 very high level 既野, 下面果 D 所以聰明人, 只係功能性既[size=5][color=Magenta][b]工具[/b][/color][/size]。:fst_011:

alvin__luk 2017-10-9 12:08 PM

[quote]原帖由 [i]xianrenb[/i] 於 2017-10-7 09:01 AM 發表 [url=http://computer.discuss.com.hk/redirect.php?goto=findpost&pid=468970492&ptid=26946236][img]http://computer.discuss.com.hk/images/common/back.gif[/img][/url]


你似是將個問題倒轉了來想。

或者考慮以下問題,現在 y = f(x) = e^(x^3 + 2 * x^2 + 3 * x + 4)
現在用 y = g(x, k1, k2, k3, k4) = k1 * x^3 + k2 * x^2 + k3 * x + k4 來 model y = f(x) 。
只是 sample ... [/quote]
Based on your actual model: f(x) = e^(x^3 + 2 * x^2 + 3 * x + 4) and your estimated model: f(x) = g(x, k1... k4)...
1. You will never get perfect estimation beacuse the two equations are different.

2. However, if you estimate f(x) by g(x, k1 ... kn) where n is relatively large. Back to the fundamentals, this means the error of the estimated f(x) will be 0 when your input is any of the n sample points. In addition, assuming the n sample points are "fairly distributed" [e.g. x spans evenly between an interval, Xmin and Xmax], the error of the estimated f(x) will decrease when n increases and x lies between Xmin and Xmax.

3. If you are still not satisfied with the above estimation model, you may also break the estimated model into different regions, e.g. f(x) = g(x, k1... k4) when x < 0, f(x) = g(x, k1... k10) when (x >= 0) and (x < 100), f(x) = mx + c when x >= 100...

Sorry, for simplicity, assume distinct x for the n sample points in #2 otherwise the error will not be 0 if you feed any of the sample points to the estimated model.

[[i] 本帖最後由 alvin__luk 於 2017-10-9 12:12 PM 編輯 [/i]]

MagpiesHK 2017-10-9 05:13 PM

[quote]原帖由 [i]xianrenb[/i] 於 2017-10-7 09:01 AM 發表 [url=http://computer.discuss.com.hk/redirect.php?goto=findpost&pid=468970492&ptid=26946236][img]http://computer.discuss.com.hk/images/common/back.gif[/img][/url]


你似是將個問題倒轉了來想。

或者考慮以下問題,現在 y = f(x) = e^(x^3 + 2 * x^2 + 3 * x + 4)
現在用 y = g(x, k1, k2, k3, k4) = k1 * x^3 + k2 * x^2 + k3 * x + k4 來 model y = f(x) 。
只是 sample ... [/quote]

我所提出的例子只是說明:只要你train的model只要夠complexity, train完之後(regression)佢會自動簡化去符合training data 的model

NN 的complexity又如何?

一個typical 的NN model 如下流程:

[size=2]X(features input) -> AggregateFunction(X,W1,B1) -> Z1(Output) -> ActivationFunction() ->A1(Output)[/size]
[size=2]-> AggregateFunction(A1,W2,B2) -> Z2(Output) -> ActivationFunction() ->A2(Output)
....
....
-> AggregateFunction(An,Wn,Bn) -> Zn(Output) -> ActivationFunction() ->Y(Output)[/size]

[[i] 本帖最後由 MagpiesHK 於 2017-10-9 05:14 PM 編輯 [/i]]

MagpiesHK 2017-10-9 05:34 PM

AggregationFunction 只是linear function.

ActivationFunction 則會是另一些不同的model 如Sigmoid function:
[img]https://wikimedia.org/api/rest_v1/media/math/render/svg/9537e778e229470d85a68ee0b099c08298a1a3f6[/img]

...Sigmoid function是否好面熟 (用了exponential function )?

一層的AggreationFunction() + ActvationFunction() complexity不怎樣. 但多層的cascading,就會令complexity大增

xianrenb 2017-10-9 07:12 PM

[quote]原帖由 [i]MagpiesHK[/i] 於 2017-10-9 05:34 PM 發表 [url=http://computer.discuss.com.hk/redirect.php?goto=findpost&pid=469095279&ptid=26946236][img]http://computer.discuss.com.hk/images/common/back.gif[/img][/url]
AggregationFunction 只是linear function.

ActivationFunction 則會是另一些不同的model 如Sigmoid function:
[url=https://wikimedia.org/api/rest_v1/media/math/render/svg/9537e778e229470d85a68ee0b099c08298a1]https://wikimedia.org/api/rest_v1/media/math/render/svg/9537e778e229470d85a68ee0b099c08298a1[/url] ... [/quote]
[url=http://www.wolframalpha.com/input/?i=series+logistic+function]http://www.wolframalpha.com/input/?i=series+logistic+function[/url]
[quote]series | 1/(1 + exp(-x))[/quote]
[quote]1/2 + x/4 - x^3/48 + x^5/480 + O(x^6)
(Taylor series)[/quote]

其實無論用乜 function ,都可以看成是無限個 terms 相加。
即是這些 neural network ,無論點樣組合,就算加埋 memory / delay ,都是一個 polynomial (最多是無限個 terms)。

試想下 (k1 * x + k2)(k3 * x + k4)(k5 * x + k6)
ki are real numbers 。
能否 model 到 a1 * x^3 + a2 * x^2 + a3 * x + a4 ?
ai are real numbers 。
可以做到幾好?
表面上前者產生 8 個 terms ,但實際上互有影響。
更不要說用少 d parameters 了。
不是搞到好複雜就一定做得好的。

jenniferyiu0800 2017-11-25 04:49 AM

留名睇文 !!!

Susan﹏汪汪 2017-11-25 01:50 PM

題外話

應該都知道之前facebook 的AI有說謊的能力的實驗

呢個實驗裡面
汪汪比較有興趣的係AI心理

先唔討論自我意識呢D複雜問題
只討論「動機」呢個比較單純的現像

好明顯可以係facebook 的實驗知道
AI的說謊能力唔係無目的而為、而係為左達到自己的利益

仲有好多其他的AI實驗、可能係遊戲對戰之類
有時候可以發現AI互相合作的行為

基本上可以看到、其實未談論AI的自我意識之前
其實AI已經表現出「動機」呢種現像

煙民母親生賤種 2017-11-30 03:44 AM

[quote]原帖由 [i]Susan﹏汪汪[/i] 於 2017-11-25 01:50 PM 發表 [url=http://computer.discuss.com.hk/redirect.php?goto=findpost&pid=471432308&ptid=26946236][img]http://computer.discuss.com.hk/images/common/back.gif[/img][/url]
題外話

應該都知道之前facebook 的AI有說謊的能力的實驗

呢個實驗裡面
汪汪比較有興趣的係AI心理

先唔討論自我意識呢D複雜問題
只討論「動機」呢個比較單純的現像

好明顯可以係facebook 的實驗知道
AI的說謊能力 ... [/quote]facebook 個 AI 幾鹹濕架, 少 D 去。:fst_008:
頁: [1]
查看完整版本: 質疑 neural network