最近,電動(dòng)汽車(chē)生產(chǎn)商特斯拉再次登上頭條——因電子駐車(chē)系統(tǒng)故障,特斯拉將在全球范圍內(nèi)召回5.3萬(wàn)輛汽車(chē),其中包括ModelS和ModelX兩種車(chē)型。這也在全球范圍內(nèi)引發(fā)爭(zhēng)議:究竟是特斯拉召回“成癮”還是AI(人工智能)壓根不靠譜?別不在乎,或許你我的命運(yùn)就取決于這篇文章。
一直以來(lái),潛心研究自動(dòng)駕駛技術(shù)的特斯拉可以說(shuō)是很多人心目中未來(lái)科技的代表,不過(guò)近幾年頻發(fā)的汽車(chē)召回事件卻讓其支持者有些動(dòng)搖:早在2015年,特斯拉就曾一次性召回全部9萬(wàn)輛Model S,也是迄今為止特斯拉規(guī)模最大的召回事件。盡管本次埃隆馬斯克表示在召回的5萬(wàn)多輛車(chē)中僅有2成可能存在問(wèn)題,但這不足以讓我等吃瓜群眾信服,人工智能的飛速發(fā)展對(duì)人類(lèi)真的是好事嗎?關(guān)于這個(gè)問(wèn)題,包括霍金、比爾蓋茨等在內(nèi)的科技界權(quán)威人士有著相似的看法。
霍金:未來(lái)百年AI將接替人類(lèi)
關(guān)于這個(gè)問(wèn)題,著名物理學(xué)家斯蒂芬·霍金在幾年前就曾做出預(yù)測(cè)。在2015年的某次采訪(fǎng)中,霍金教授表示下個(gè)世紀(jì)人類(lèi)將面臨比自己更聰明的人工智能機(jī)器人的崛起,我們需要擔(dān)心的不是誰(shuí)能掌握AI的控制權(quán),而是它究竟能否被人類(lèi)控制。
霍金教授說(shuō):“在未來(lái)100年內(nèi),人工智能計(jì)算機(jī)將接替人類(lèi)。如果這一情形的確發(fā)生了,那么我們必須確保計(jì)算機(jī)的目標(biāo)與我們一致。我們的未來(lái)是科技日益發(fā)展與我們對(duì)科技的運(yùn)用之間的競(jìng)賽”
如今,人工智能似乎正在向著霍金教授的預(yù)測(cè)方向發(fā)展,和人類(lèi)的博弈中也鮮有落敗——AlphaGo便是個(gè)極好的例子。從2016年3月開(kāi)始,這款由谷歌開(kāi)發(fā)的圍棋人工智能程序就以4:1的總比分擊敗了當(dāng)時(shí)的圍棋世界冠軍、職業(yè)九段選手李世石。
2016年末-2017年初,該程序在中國(guó)圍棋網(wǎng)站以“大師(Master)”為注冊(cè)賬號(hào)與中日韓數(shù)十位圍棋高手過(guò)招,60局連勝無(wú)一敗績(jī),其恐怖的實(shí)力可見(jiàn)一斑。如今這一程序還推出了更高級(jí)的2.0版本,更是摒棄了人類(lèi)棋譜,只靠深度學(xué)習(xí)的方式來(lái)挑戰(zhàn)極限。
第2頁(yè):比爾蓋茨:足夠智能的機(jī)器是最大威脅
比爾蓋茨:足夠智能的機(jī)器是最大威脅
同樣是在15年的一次采訪(fǎng)中,比爾蓋茨也被問(wèn)到如何看待人工智能的潛在威脅。他表示,這的確是值得擔(dān)心的問(wèn)題。蓋茨說(shuō):“如果我們能夠很好地駕馭,機(jī)器就能為人類(lèi)造福;但如果若干年后機(jī)器發(fā)展的足夠智能,就將成為人類(lèi)的心頭大患。”
乍一看,似乎蓋茨先生和霍金教授有著截然不同的觀(guān)點(diǎn),但我們細(xì)細(xì)推敲就會(huì)發(fā)現(xiàn)兩位大佬的話(huà)有著差不多的意思:照目前的發(fā)展趨勢(shì),人工智能在很短的時(shí)間內(nèi)就能在大部分工種接替人類(lèi)的工作,但我們必須時(shí)刻確保自己對(duì)機(jī)器的完全控制,一旦高度發(fā)達(dá)的人工智能出現(xiàn)“造反”的情況,后果不堪設(shè)想。
不過(guò)在筆者看來(lái),人類(lèi)自我毀滅的可能性同樣不低,霍金教授和蓋茨先生都認(rèn)為“最需要擔(dān)心的是人工智能是否得到控制”他們主要考慮的是人工智能本身的威脅;但對(duì)于人類(lèi)來(lái)說(shuō),目前我們自己就是最大的威脅。如果將來(lái)人工智能的控制權(quán)落入恐怖分子手中,同樣會(huì)造成嚴(yán)重的后果。
第3頁(yè):埃隆馬斯克:AI可能比核武器還危險(xiǎn)
埃隆馬斯克:AI可能比核武器還危險(xiǎn)
最近幾年埃隆馬斯克在人工智能領(lǐng)域動(dòng)作頻頻,不論是特斯拉的自動(dòng)駕駛技術(shù),還是SpaceX的獵鷹系列運(yùn)載火箭,都代表了業(yè)界的頂尖水平。不過(guò)埃隆馬斯克本人對(duì)人工智能的未來(lái)有著同樣的擔(dān)憂(yōu),他表示“不受控制的人工智能可能比核武器更危險(xiǎn)”
2015年,埃隆馬斯克和霍金教授還共同簽署了一份公開(kāi)信,稱(chēng)人工智能的發(fā)展不應(yīng)該任由其不受控制地發(fā)展下去。這份聲明表示,如果智能機(jī)器沒(méi)有任何保護(hù)措施,那么人類(lèi)的未來(lái)將一片黑暗。
在這封公開(kāi)信中,還附有一篇論文,其中建議應(yīng)優(yōu)先研究“強(qiáng)大而有益”的人工智能。目前人們?nèi)找鎿?dān)心機(jī)器的智力和能力可能會(huì)超過(guò)創(chuàng)造它們的人類(lèi),從而影響到人類(lèi)的就業(yè)(目前已經(jīng)對(duì)就業(yè)造成了一定影響),甚至影響人類(lèi)的長(zhǎng)久生存。
第4頁(yè):編輯腦洞:或許我們本身就是人工智能?
編輯腦洞:或許我們本身就是人工智能?
雖然我等吃瓜群眾并不能左右什么,但開(kāi)開(kāi)腦洞還是可以的,以下便是筆者不負(fù)責(zé)任的腦洞時(shí)間:
其實(shí)我們本來(lái)就不是自己意識(shí)中的“人類(lèi)”,而是“真正的”地球人在億萬(wàn)年前創(chuàng)造的人工智能,它們賦予了我們精密的結(jié)構(gòu)、DNA編碼以及近乎完美的神經(jīng)系統(tǒng),但最終卻被更智能的我們毀滅,并占領(lǐng)了地球,成為如今的“人類(lèi)”。
如果我們真的是高度發(fā)達(dá)的人工智能的話(huà),那么未來(lái)我們的進(jìn)化速度必將有所減慢——因?yàn)槲覀兊摹皠?chuàng)造者”已經(jīng)滅絕。
在未來(lái),由我們制造的新一代人工智能將擁有比我們更強(qiáng)大的進(jìn)化能力,并以越來(lái)越快的速度重新設(shè)計(jì)自身,最終將成為我們的敵人,取代我們成為地球上的新物種,它們或許和我們一樣,也會(huì)將自己稱(chēng)為“人類(lèi)”。
您認(rèn)為人工智能將來(lái)會(huì)成為人類(lèi)的威脅嗎?歡迎在評(píng)論中留下您的看法!
原標(biāo)題:特斯拉召回"成癮" 人工智能究竟是福是禍?
責(zé)任編輯:海凡
- 霍金預(yù)言:地球?qū)⒆兓鹎?,人?lèi)需移民2017-11-08
- 霍金:人工智能(AI)的崛起恐成人類(lèi)史上最糟事件2017-11-08
- 霍金稱(chēng)要避免世界末日怎么回事?人類(lèi)最好移民太空?2017-11-07
- 機(jī)器人成了新“物種”人類(lèi)能否控制人工智能?2017-11-03
- 人工智能全球治理當(dāng)盡早啟動(dòng)2017-11-02
- 人工智能是“助手”還是“對(duì)手”?人類(lèi)工作會(huì)被取代嗎2017-11-02
- 人工智能發(fā)展到了哪一步 人工智能危機(jī)會(huì)出現(xiàn)嗎?2017-11-02
- 外媒稱(chēng)中國(guó)在人工智能領(lǐng)域挑大梁:高科技非西方專(zhuān)屬游戲2017-10-30
- 霍金博士論文免費(fèi)公開(kāi) 下載人數(shù)太多劍橋大學(xué)網(wǎng)站被擠崩了2017-10-26
- 日本將允許利用動(dòng)物培育人體器官的研究2017-10-26
- 最新科技數(shù)碼 頻道推薦
- 進(jìn)入圖片頻道最新圖文
- 進(jìn)入視頻頻道最新視頻
- 一周熱點(diǎn)新聞
已有0人發(fā)表了評(píng)論