在隨后的推文中,馬斯克具體論述了對(duì)AI體系開(kāi)辟停止監(jiān)管的需要性。這與他本月早些時(shí)刻所說(shuō)的話(huà)相照應(yīng),其時(shí)他說(shuō):“我以為,任何對(duì)"組成風(fēng)險(xiǎn)的工作,至多當(dāng)局應(yīng)當(dāng)有所懂得,由于當(dāng)局的義無(wú)之一就是確保公共福利。沒(méi)有人愛(ài)好遭到監(jiān)管,但對(duì)"有風(fēng)險(xiǎn)的任何器械(包含汽車(chē)、飛機(jī)、食物和藥品等)都應(yīng)當(dāng)遭到管束,AI也是如斯。”
閱讀對(duì)馬斯克推文的評(píng)論發(fā)明,仿佛年夜多半人都在某種水平上贊成馬斯克的看法。名為丹尼爾·佩德拉薩(Daniel Pedraza)的用戶(hù)以為:“我們須要一個(gè)順應(yīng)性較強(qiáng)的框架,不須要固定的規(guī)矩、司法或準(zhǔn)繩,這對(duì)治理AI有利益。這個(gè)范疇正在賡續(xù)地變更和演進(jìn),任何固定的規(guī)矩很快就會(huì)掉效。”
很多專(zhuān)家都不肯意AI成長(zhǎng)得太快。它形成的威逼聽(tīng)起來(lái)能夠有點(diǎn)兒像科幻小說(shuō)中的場(chǎng)景,但它們終究能夠被證實(shí)是有用的。像史蒂芬·霍金(Stephen Hawking)如許的專(zhuān)家早就收回正告,傳播鼓吹A(chǔ)I有終結(jié)人類(lèi)的能夠。在2014年采訪(fǎng)中,這位有名的物理學(xué)家說(shuō):“AI的成長(zhǎng)能夠預(yù)示著人類(lèi)的終結(jié)。”他乃至以為主動(dòng)化的分散對(duì)中產(chǎn)階層是一種無(wú)害的力氣。
另外一位專(zhuān)家、metaMed Research的首席迷信官邁克爾·瓦薩爾(Michael Vassar)指出:“假如遠(yuǎn)超人類(lèi)的通用人工智能沒(méi)有遭到謹(jǐn)嚴(yán)監(jiān)管,可以確定的是,人類(lèi)將在異常短的時(shí)光內(nèi)滅盡。”
很明顯,至多在迷信界,AI的自在成長(zhǎng)能夠不相符人類(lèi)的最好好處。許多人曾經(jīng)開(kāi)端著手制訂這些規(guī)矩,以確保AI的成長(zhǎng)“符合品德標(biāo)準(zhǔn)”。電氣與電子工程師協(xié)會(huì)提出了他們的第一份規(guī)矩草案,愿望能引誘開(kāi)辟人員朝著準(zhǔn)確的偏向成長(zhǎng)。
另外,在當(dāng)局參與之前,科技巨子們也正在制訂自我監(jiān)管規(guī)矩。來(lái)自谷歌、亞馬遜、微軟、IBM和Facebook等年夜型科技公司的研討人員和迷信家曾經(jīng)開(kāi)端評(píng)論辯論,以確保AI造福于人類(lèi),而不是成為人類(lèi)的生計(jì)威逼。
固然,要想到達(dá)足以威逼人類(lèi)生計(jì)的水平,AI還有很長(zhǎng)的路要走。但是,AI的提高是日新月異的。有名將來(lái)學(xué)家雷·庫(kù)茲韋爾(Ray Kurzweil)預(yù)言,盤(pán)算機(jī)將在2045年變得比人類(lèi)更聰慧。但是,他其實(shí)不以為這是件恐怖的事。或許,科技公司的自我監(jiān)管將足以確保這些擔(dān)心變得毫有意義,或許終究能夠須要當(dāng)局的贊助。不論你的感到若何,如今開(kāi)端這些對(duì)話(huà)不算庸人自擾。但與此同時(shí),也不要過(guò)于擔(dān)憂(yōu),除非你是個(gè)有競(jìng)爭(zhēng)力的玩家。
