• 瀏覽: 45,665
  • 回覆: 5
  • 分享: 5
天災可以毀滅人類
核武可以毀滅人類
太陽可以毀滅人類
小行星可以毀滅人類
黑洞可以毀滅人類
巨引源可以毀滅人類
反物質可以毀滅人類





聽朝又咪要準時起身返工



引用:
原帖由 220 於 2023-2-9 12:56 發表

你明唔明嫁就是霍金沒有明日起返身

真係唔明,請詳解



引用:
原帖由 IwinU 於 2023-2-9 13:10 發表

天災唔會令你失業
核武唔會令你失業
太陽唔會令你失業
小行星唔會令你失業
黑洞唔會令你失業
巨引源唔會令你失業
反物質唔會令你失業
 
只有你老闆會令你失業

錯,唔只你老闆,你自己都可以令你失業



引用:
原帖由 晚間的小確幸 於 2023-2-9 13:31 發表

外在因素冇得講,自取…就

乜因素都好,最後你會發現,根本唔到你控制,你可以控制既係你繼續返工好定辭職好


而且,霍金雖然偉大,但唔代表佢生前講乜都啱



[隱藏]
引用:
原帖由 世界真虛假T 於 2023-2-9 14:13 發表

霍金既擔心不無道理,機械人比人類更聰明,你可以search下呢個機械人Sophia既對答,佢既回答會驚嚇到你

 
https://www.youtube.com/watch?v=JgIKzZkxa5k

你從何得知機械人比較聰明?機械人既回答只係從網絡上揀答案,而唔係自己創造答案



引用:
原帖由 世界真虛假T 於 2023-2-9 18:52 發表

http://scitech.people.com.cn/BIG5/n1/2017/1107/c1007-29631041.html
 霍金已不是第一次對人工智能的崛起表示擔心。2016年10月,霍金也曾警告稱,人工智能可以發展自己的意志,並與人類的意志抗衡。
 
霍金擔心既唔係人類,佢係擔心AI太過聰明會不斷進化,最終會消滅人類,記得睇過一套戲,AI扮豬食老虎,等人類放鬆防範就對抗人類 ...

睇戲?猿人都統治人類,咁洗唔洗殺晒所有猩猩同狒狒?