“它可能是霍金歷史上最好的事情,也可能是教授歷史上最壞的事情。”霍金在劍橋大學(xué)新萊弗爾梅未來(lái)智能中心上這樣評(píng)價(jià)人工智能。看人深圳光明小姐上門(mén)按摩服務(wù)(選妹微信189-4143)提供全國(guó)外圍女上門(mén)、伴游,空姐,網(wǎng)紅,明星,學(xué)生上門(mén)預(yù)約服務(wù) 同城30分鐘內(nèi)到達(dá) 面到付款
這已經(jīng)不是工智霍金第一次在人工智能問(wèn)題上表態(tài)。
2014 年,霍金霍金曾指出成功研發(fā)人工智能將成為人類(lèi)歷史上犯的教授最大錯(cuò)誤。去年 7 月,看人霍金和特斯拉創(chuàng)始人伊隆·馬斯克、工智微軟創(chuàng)始人比爾·蓋茨等人聯(lián)名發(fā)布公開(kāi)信,霍金讓公眾警惕人工智能的教授深圳光明小姐上門(mén)按摩服務(wù)(選妹微信189-4143)提供全國(guó)外圍女上門(mén)、伴游,空姐,網(wǎng)紅,明星,學(xué)生上門(mén)預(yù)約服務(wù) 同城30分鐘內(nèi)到達(dá) 面到付款風(fēng)險(xiǎn)。
不過(guò),看人這一次霍金肯定了人工智能的工智積極影響。
“人們可以通過(guò)創(chuàng)造智能來(lái)進(jìn)入一個(gè)有積極效應(yīng)同時(shí)未知的霍金世界。我們或許可以通過(guò)新技術(shù)改革的教授工具來(lái)消弭工業(yè)化對(duì)自然世界的傷害。人類(lèi)最終需要達(dá)到的看人目的是消除疾病和貧窮。”
他也沒(méi)忘繼續(xù)提醒人們警惕人工智能,這“也可能是最壞的事情。”
本次活動(dòng)的舉辦方劍橋大學(xué)新萊弗爾梅未來(lái)智能中心,未來(lái)研究的重點(diǎn)就是解決人工智能不斷發(fā)展過(guò)程中,可能對(duì)人類(lèi)社會(huì)產(chǎn)生的尖銳問(wèn)題和影響。
面對(duì)人工智能的迅猛發(fā)展,不僅是學(xué)界,更多科技公司也已經(jīng)行動(dòng)了起來(lái)。
前不久,亞馬遜、Facebook、Google、IBM 和微軟五家公司聯(lián)合發(fā)起了AI 伙伴關(guān)系”(Partnership on AI),旨在通過(guò)成立聯(lián)合組織來(lái)制定基本規(guī)則,以保護(hù)人類(lèi)和人類(lèi)的工作。
當(dāng)然,除了人工智能,這位輪椅上的巨人還很關(guān)心姑娘。
霍金最喜歡的歌是 Rod Stewart 演唱的 Have I Told You Lately;最喜歡的電影是《祖與占》(Jules et Jim),一部 1962 年上映的講述三角戀的法國(guó)影片;最喜歡的電視劇是《生活大爆炸》。
| 原來(lái)最引起霍金好奇心的奧秘,不是宇宙中的黑洞,而是姑娘。|
 霍金與第一任妻子簡(jiǎn)霍金與第一任妻子簡(jiǎn)
言歸正傳。以上這些像八卦消息一樣的內(nèi)容,來(lái)自霍金今天在社交網(wǎng)站 Reddit 上進(jìn)行的“問(wèn)我任何事”(Ask Me Anything)。
這場(chǎng) AMA 活動(dòng)最早在 7 月 27 日開(kāi)始,網(wǎng)友們得知霍金要來(lái)參加后,馬上跟帖,向霍金提出了 9000 多個(gè)問(wèn)題,成為史上第三大 AMA 活動(dòng)。
盡管挖出了那么多八卦消息,但這次 AMA 的主題是人工智能以及其影響。2014 年初,霍金曾指出成功研發(fā)人工智能將成為人類(lèi)歷史上犯的最大錯(cuò)誤。今年 7 月,霍金和特斯拉創(chuàng)始人伊隆·馬斯克、微軟創(chuàng)始人比爾·蓋茨等人聯(lián)名發(fā)布公開(kāi)信,讓公眾警惕人工智能的風(fēng)險(xiǎn)。
人工智能是惡魔嗎?
霍金重申了自己對(duì)人工智能的觀點(diǎn):人工智能的真正風(fēng)險(xiǎn)不是機(jī)器人(對(duì)人類(lèi))的惡意,而是競(jìng)爭(zhēng);一個(gè)超級(jí)聰明的人工智能極其擅長(zhǎng)完成目標(biāo),而如果這些目標(biāo)和我們利益不一致,那我們就糟糕了。
舉個(gè)例子,你會(huì)踩死螞蟻,但不是出于主觀惡意。假設(shè)你不是一個(gè)討厭螞蟻的人,但如果你要負(fù)責(zé)的一個(gè)水電項(xiàng)目開(kāi)發(fā),就會(huì)沖掉該區(qū)域內(nèi)的蟻巢,這對(duì)螞蟻來(lái)說(shuō)不是什么好消息。
而我們要避免變成螞蟻。
機(jī)器會(huì)比創(chuàng)造它的人更聰明嗎?
霍金:任何東西獲取比祖先更高級(jí)的智慧都是有可能的。我們進(jìn)化 ,比我們的猿類(lèi)祖先更加聰明,而愛(ài)因斯坦比他的父母更聰明。
如果人工智能像人類(lèi)一樣演化得很聰明,我們可能會(huì)面臨“智慧爆炸”(intelligence explosion),最終機(jī)器的智慧會(huì)超過(guò)我們,而且超過(guò)的程度比人類(lèi)超過(guò)蝸牛還多。
我們正面臨著智能機(jī)器的威脅嗎?
霍金:不要相信任何人所說(shuō)的“還有多久就能建造出像人類(lèi)一樣的人工智能。”
當(dāng)這件事真的發(fā)生的時(shí)候,這對(duì)人類(lèi)要么是最好的、要么是最糟糕的影響。所以把這個(gè)問(wèn)題弄清楚有很大的價(jià)值。
技術(shù)性失業(yè)的風(fēng)險(xiǎn)是什么,機(jī)器正在讓我們失業(yè)嗎?
霍金:后果取決于如何分配商品。
任何人都可以享受由機(jī)器生產(chǎn)的財(cái)富,如果機(jī)器的擁有者反對(duì)財(cái)富重新分配,絕大多數(shù)人將貧困一生。目前看來(lái),趨勢(shì)正走向不好的那個(gè)方向,科技正在加速不平等。
|