欧美另类激情_日本三级视频在线播放_中文字幕在线不卡_国产高清视频在线播放www色

您的位置:中國博士人才網(wǎng) > 新聞資訊 > 引才活動 > 霍金質(zhì)疑人工智能 警告稱其可能讓人類滅絕(圖文)

關(guān)注微信

霍金質(zhì)疑人工智能 警告稱其可能讓人類滅絕(圖文)

時間:2014-12-03來1源:中國新聞網(wǎng) 作者:91boshi

資料圖:著名英國科學(xué)家霍金。

中新網(wǎng)12月3日電據(jù)英國廣播公司(BBC)報道,英國著名科學(xué)家斯蒂芬·霍金說,人類創(chuàng)造智能機器的努力威脅自身生存。霍金表示,“徹底開發(fā)人工智能可能導(dǎo)致人類滅亡。”

霍金的此番警告是回應(yīng)對他使用的通訊科技的改良,其中就包括了基本的人工智能。

霍金是英國著名理論物理學(xué)家,患有肌萎縮性脊髓側(cè)索硬化癥(ALS),使用英特爾(Intel)公司開發(fā)的一種新的系統(tǒng)說話。

另一家英國公司Swiftkey的機器認知方面的專家也參加了這一系統(tǒng)的開發(fā)。這家公司的技術(shù)已經(jīng)被用在智能手機的按鍵應(yīng)用軟件中,揣摩霍金教授的思想并推測他可能希望使用的詞語。

霍金教授說,人工智能目前的初步階段已經(jīng)證明非常有用,但他擔(dān)心創(chuàng)造出媲美人類甚至超過人類的東西將要面對的后果。“它可能自行啟動,以不斷加快的速度重新設(shè)計自己。而人類局限于緩慢的生物進化過程,根本無法競爭,最終將被超越。”

不過,其它科學(xué)家并非都對人工智能持如此悲觀的看法。智能機器人的發(fā)明者羅洛·卡彭特表示:“我相信我們還將繼續(xù)在相當(dāng)長的時間內(nèi)掌控科技和它的潛力,并解決世界上的許多問題。”

卡彭特說,“我們還不知道機器智能超越人類后將出現(xiàn)什么情況。所以我們不知道我們最終將得益于此,還是因此而被忽略、被邊緣化,或者被消滅。”他預(yù)示,人工智能將起到正面的作用。

霍金教授并非少數(shù)擔(dān)心未來的科學(xué)家。智能機器的開發(fā)已經(jīng)讓很多人擔(dān)心它們將取代人類,短期效應(yīng)是使數(shù)以百萬計的工作職位不復(fù)存在。而長期來看,人工智能是“人類生存面臨的最大威脅”。

霍金教授另外還對互聯(lián)網(wǎng)的好處和危險發(fā)表了看法。他引述英國政府通訊總部(GCHQ)負責(zé)人的警告說,網(wǎng)絡(luò)有可能成為恐怖主義分子的指揮中心。“互聯(lián)網(wǎng)公司應(yīng)該下更大力氣應(yīng)對這些威脅,但是困難之處是如何不損害自由和隱私”。

雖然人工智能在過去數(shù)年發(fā)展很快,但霍金使用的科技智能儀器中,聲音部分并沒有任何的更新?lián)Q代。

霍金承認,他的聲音的確聽起來很機器,不過堅持他不想要更加自然的聲音。“這已經(jīng)是我的標(biāo)志,我不想變成更自然的英國腔調(diào)的聲音”,“我聽說很多需要智能聲音的孩子,都要像我這樣的聲音。”

中國-博士人才網(wǎng)發(fā)布

聲明提示:凡本網(wǎng)注明“來源:XXX”的文/圖等稿件,本網(wǎng)轉(zhuǎn)載出于傳遞更多信息及方便產(chǎn)業(yè)探討之目的,并不意味著本站贊同其觀點或證實其內(nèi)容的真實性,文章內(nèi)容僅供參考。

相關(guān)文章