国产精品乱码一区-性开放网站-少妇又紧又爽视频-西西大胆午夜人体视频-国产极品一区-欧美成人tv-四虎av在线-国产无遮挡无码视频免费软件-中文字幕亚洲乱码熟女一区二区-日产精品一区二区三区在线观看-亚洲国产亚综合在线区-五月婷婷综合色-亚洲日本视频在线观看-97精品人人妻人人-久久久久久一区二区三区四区别墅-www.免费av-波多野结衣绝顶大高潮-日本在线a一区视频高清视频-强美女免费网站在线视频-亚洲永久免费

 找回密碼
 注冊會員

QQ登錄

只需一步,快速開始

搜索
樓主: 老鷹

機器學習有多厲害,工程師這飯碗能保多久

  [復制鏈接]
11#
發表于 2018-7-31 10:43:16 | 只看該作者
機器人永遠都是機器,物質決定意識,意識是生命體對客觀世界能動的反應,機器人的反映能力取決于設計者的思維能力,而機器人自己的行為判斷能力都在一定的程序下進行,是一種運算模式,人類的大腦開發量連十分之一都不到,在這種背景下機器人的智慧可能會比一般人的高,但是能人背后有能人,這就是人定勝天的本錢。
12#
發表于 2018-7-31 11:48:59 | 只看該作者
為什么說人工智能將是人類災難?  \, `' Y: r" @$ X5 v; O  _
4 y, M4 A( A) X. V1 K; D
2017-01-08 10:06:12欄目:默認欄目 1664 2 24; A1 u4 K/ ~3 g/ \& h' G
伴隨著阿爾法狗徹底完虐人類頂尖圍棋手,關于人工智能的討論再入高潮。對于此次人工智能潮流,根據有些網站的調查,多數人是持歡迎的態度。對此,本人認為,應該對人工智能保持高度的警惕,弄不好,這就是開啟了潘多拉魔盒,將導致人類的最終毀滅。
' `" t9 h1 s1 S& f2 w8 b2 V8 _/ A$ o- X& M- j
著名的英國劍橋大學物理學家霍金說:“我認為,對于一個生物大腦和和一臺計算機所能取得成就來說,其間不存在深刻的差別。所以從理論上來說,計算機可以效仿人類的智能,并超過人類的智能。”
2 x7 F) f! D" K5 u! c8 M& \, {4 ^3 w* ]) \# e0 U* {0 X  s; S
霍金認為,人工智能的發展可能幫助人類消除疾病,消除貧困,阻止氣候變化,但是也可能產生人們不愿意看到的種種后果,包括產生自主武器,造成經濟災難,以及發展出同人類發生沖突時擁有自己意愿的機器。強大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,“未來智能中心”的一個簡單的使命就是弄清楚人工智能未來是不是會毀滅人類。) k. @( `8 d  O3 e6 P9 k
$ w4 w/ w2 B( F, E
霍金教授的看法應該被高度重視,因為目前已經有人在研究“生物電腦”,盡管他們只是因為生物可降解的屬性,但是:“人工智能+智能生物自我繁殖”,難道不正是霍金教授所說的“一個生物大腦和和一臺計算機所能取得成就來說,其間不存在深刻的差別”?何況有人已經開始打破生物大腦和計算機的區別!( u1 ]/ R2 r% I4 D& \
# k, o; ~4 w/ T3 d
: n/ W# r7 W- _$ Z! e0 g
首先,智能上的優越是人類成為地球主宰的唯一終極依靠。人類的體能不如狗熊、犀牛、大象,速度不如獵豹或鹿馬狼,嗅覺不如狗,聽覺不如蝙蝠……唯一超越地球上這些動物的,就是智力,也正因為智力的優勢,人類做了地球的主人。按照這一被人類自己已經證明了的“智力決定論”,當然誰的智力最優秀,或說誰智力能超過人類,誰就是地球的主人。: `* B% [( u! D7 C3 g
+ N) y, n( p' e: K# \& d# t. @5 u( S' d
其次,機器的智力在圍棋上超過人類,無論怎樣評估其嚴重性都不過分。本人作為業余圍棋愛好者,多年之前就和圍棋軟件下過棋,那時如果我完全按照圍棋里的“定式”下,是比不過軟件的,因為軟件永遠沒有記憶錯誤。但是當我脫離“定式”,哪怕下了一著人人皆知的百分之百的“臭招”,圍棋軟件立即就找不著北了,于是軟件肯定就開始亂下了,自己就能贏了軟件。但是現在,這阿爾法狗已經戰勝了幾乎全部人類現有高手,肯定是已經克服了一招一式必須暴力計算的弱點!我深知,圍棋的特點就是在所謂“大局觀”上的虛擬性、籠統性、概括性,也就是不精確性,這正是需要精確計算的機器最不足的地方,但是今天,被阿爾法狗的設計者用策略網絡和機器自動更新策略(即機器自我學習功能)解決了,這和當年的深藍用暴力計算戰勝國際象棋世界冠軍是完全不可同日而語的!換句話說,就是機器可以自己學習了!這不就是每一代人從小到大干的主要事情嗎?況且機器如果掌握了學習能力,肯定可以比人類干得好!因為機器是沒有遺忘的!它學習過的東西都是過目不忘!! C( h! n. e3 z7 W) c$ G! Z: g) M

, K) F3 m' Z, m2 n4 e0 _4 ^智力是學習的結果,機器學會了學習,其智力的突飛猛進就可以期待了。有了無與倫比的學習能力、無與倫比的記憶能力、無與倫比的計算能力,加上無與倫比的不知疲倦的體力,機器將超過人類還是什么不可想象的事嗎?( l$ L% c: X, c0 v* P4 G

6 e- s6 y( K2 n) P5 Z8 e最后結論自然就出來了——+ o4 M' x6 F- M) D9 H6 i- M% K

" f2 U! J' n( a4 a; f地球上的既定法則是智力決定控制權,智力決定地球歸誰控制,機器的智力如果超過人類,那地球最終自然要歸屬于機器!而一旦放任機器智能的自由發展,由于機器相對于人類的上述優勢(學習、記憶、計算、體力等),人類只能甘拜下風!再說,一個各項能力遠超人類的“機器學霸”,還不具有人類的情感(主要指人類中高尚的部分情感)——主要是沒有憐憫之心,智能機器能做出什么來?(又有人會說可以給機器加上“高尚情感”!問題在于,你可以去加“高尚情感”,一定專門有人要加“無惡不作”!這樣,邪惡機器其實無窮無盡的!那時的恐怖襲擊完全由機器人就可以完成!而且會比人類中的恐怖份子更殘忍!)
2 N( l9 g! i3 U6 p2 A; B% d- G* u) c" D  ~4 G
這還不是非常可怕的前景嗎?美國科幻電影里表現過很多次的機器與人類的戰爭已經近在咫尺!那些美國科幻電影簡直就是提前模擬的人機戰爭的預演教育片!& e4 F( B7 c& ^2 M. g# c) G+ G* y( y

# N$ T/ m- p1 x早晚有一天,人類必須坐到一起,鄭重討論是否該賦予機器(本人所說的機器即人工智能,即智能機器)選舉權的問題!但機器的數量卻是幾乎可以無限生產的!這樣一來,人類連數量上都輸掉了,權利還能不拱手讓出嗎?那樣,人類只能作為機器的奴隸了。
. l6 o" ~: T2 ^7 Q: r' t7 u* M
: g# S) j8 d* J. l# M# h1 u" I有人說人類可以提前對人工智能做一些限制,可以簽一些全球性的協議。那我們看看原子彈技術的擴散歷程吧!至今,聯合國多次制裁協議都不能阻止狂熱的朝鮮追求核武器的努力!何況主要個人技術為主的人工智能的擴散呢?地球上永遠有一些狂人是不受正常人控制的,這就象精神病人,至今人類都不能控制精神病人的發病、不能根治此病,更別提個別狂人對人工智能的追求!這些在美國的科幻電影中也早就警告過了!何況,很可能與大家的愿望相反,人工智能極可能被有些國家首先用于戰爭!以筆者有限的戰爭知識,排雷機器人的智能化就將遠遠超過人類,試想,一個配合X光透視的機器人排雷;是人類可比的嗎?比人類中的恐怖份子更殘忍的機器人恐怖襲擊加上超越的智力,是人類阻止的了的嗎?這些,難道不應該提前預防嗎?
1 s+ X& q1 b4 _0 R: M& N  u1 r+ \. z: R; J; v4 [
總之,我們知道人工智能的全面普及已經不可避免,很可能在幾十年內實現。但是對人工智能的危害很多人還沒有足夠的警惕,他們并不知道人類正在玩兒火。就象霍金所說的:“強大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情”。如果多數人對此沒有足夠的警惕,人類的毀滅就等不到太陽熄火的那一天了!
7 l' Q' W- _& @* y+ S2 y0 \8 g5 `. K) ?+ a# z
13#
發表于 2018-7-31 13:04:01 | 只看該作者
提示: 作者被禁止或刪除 內容自動屏蔽
14#
發表于 2018-7-31 18:11:41 | 只看該作者
人工智能發展好快 啊
15#
發表于 2018-8-1 08:11:21 | 只看該作者
目前的所謂人工智能,仍然還是停留在--機器按照人類的指令執行,想要機器自己有思想,目前的技術根本無法實現
16#
發表于 2018-8-1 09:27:13 | 只看該作者
感覺好像不久的將來所有人都會失業了
17#
發表于 2018-8-1 11:29:10 | 只看該作者
不是高級工程師 發表于 2018-8-1 09:27. W6 Q/ s' |8 {9 g/ i: g4 ^% _# v
感覺好像不久的將來所有人都會失業了
$ `0 Y4 q8 m1 @2 Y. J! j+ i
每一次革命都伴隨著一部分人的淘汰和一部分人的崛起,唯有先接受再不斷學習
& N1 b9 J7 W" x
18#
發表于 2018-8-2 08:25:17 | 只看該作者
人工智能用好了十人類的福音,用不好就成了災難。如果被別有用心的壞人掌握,是不是要發動機器人的戰爭?
19#
發表于 2018-8-2 16:19:11 | 只看該作者
杞人憂天
回復

使用道具 舉報

20#
發表于 2018-8-2 18:08:44 | 只看該作者
人工智能再發達,很難取代機械工程師。記得一次看新聞聯播上,國外的分析。
您需要登錄后才可以回帖 登錄 | 注冊會員

本版積分規則

Archiver|手機版|小黑屋|機械社區 ( 京ICP備10217105號-1,京ICP證050210號,浙公網安備33038202004372號 )

GMT+8, 2025-9-17 09:57 , Processed in 0.058455 second(s), 13 queries , Gzip On.

Powered by Discuz! X3.5 Licensed

© 2001-2025 Discuz! Team.

快速回復 返回頂部 返回列表