跟著人工智能和機械人的疾速成長,開端有更多人對它們吐露出擔心的情感,乃至史蒂芬·霍金也表現,將來有一天,人工智能機械人將代替人類成為地球上的主導性命情勢。本文作者 Simon Chandler 以為其實人工智能和機械人今朝而言對我們社會最年夜的威逼不在于此。我們所恐怖的不該該是這些機械人,而是機械人面前的發明者們。 史蒂芬·霍金表現,將來有一天,人工智能機械人將代替人類成為地球上的主導性命情勢,埃隆·馬斯克也說過相似的話。然則,最近幾年來跟著人工智能和機械人獲得的使人注視的提高,他們對這個社會組成的最緊急、最逼真的威逼其實不在于此。 詳細來講,這類威逼其實不是由人工智能和機械人會超出他們如今的特定辦事目標(例如治理對沖基金或招募新員工)和對抗其一切人的能夠性而帶來的。更確實地說,情形恰好相反,恰是因為這些人工智能裝備和機械人可以或許異常高效的代表他們的主人來辦事,是以才對這個社會發生了威逼性。 現實上,因為機械人和人工智能裝備到如今為止還沒有展示出一點點的自立或自力性,是以很明顯它們其實不是像霍金所說的那樣一種“新的性命情勢”。它們更像是對那些創立和應用它們的人群的一種延長,它們是精心制造的對象,用來加強這些人履行某項任務或許義務的才能。 恰是因為它們是操作者的一種延長,所以它們對這個社會也組成了潛伏的威逼。由于機械人是由具有特訂價值不雅和好處的特定人群來設計和應用的,這就意味著它們的行為必定會反應并推行這些人的價值不雅和好處,而這些人的價值不雅和好處其實不必定為一切群體和小我所認同。機械人所具有的卓著的效力和臨盆力,可以或許為那些具有足夠資本應用到它們的人供給顯著的優勢,這些人能夠會以就義那些沒有一致資本的其別人的好處為價值來重塑這個世界。 你只需看看比來人工智能和機械進修算法招致成見的事例就可以想象,人工智能將來將若何加重社會、經濟和政治范疇的不屈等景象。例如,收集非盈利媒體 ProPublica 在 2016 年 5 月揭橥了一項研討結果,個中顯示,美國多個州應用的再犯法評價算法對非裔美國人有所成見,將其毛病標志為“高風險”再犯法人員的概率為 44.9%,而白人的這一數據則為 23.5%。除此以外,2017 年 4 月揭橥于《迷信》雜志的一篇研討論文發明,當機械進修對象從互聯網上進修到年夜量的辭匯聯設法主意以后,會對女性和非裔美國人取得一種“類人語義成見”(即呆板的印象)。 這類情形下成見的發生是因為人工智能裝備和機械人只能從它們吸收到的數據和參數中去進修。平日情形下,這些數據和參數是由那些設計和應用它們的人群來供給,例如白人和那些站在社會金字塔頂尖、享有特權的男性。也恰是由于如斯,人工智能臉部辨認軟件在辨認有色人種的面貌方面表示一向不睬想。而且,這也能解釋為何人工智能和機械人會以辦事和推進它們制作者和一切者好處的方法來運作。 除此以外,人工智能和機械人因為其所出現出的卓著的效力,到 2017 年將滲入滲出到 2470 萬個任務崗亭,這就意味著它們將會把制作者的標記烙印到生涯和任務的年夜部門范疇。它們會讓數百萬工人階級掉去任務,它們會打亂如今家庭生涯的節拍,它們會讓那些有才能年夜范圍運用它們的蓬勃國度取得相較于成長中國度更年夜的貿易優勢。終究,那些制作和具有它們的平易近族和階級將集聚集更高的全球影響力。 也恰是由于如斯,那些日趨增多的有關付與機械人權力(乃至是國民權)的相干論調會讓人感到如斯不安。由于,機械人和人工智能曾經取得了其一切者的產業權掩護,不克不及被隨便損壞。如許一來,不言而喻,付與它們“權力”就不只僅意味著付與他們掩護本身不備損壞的消極權力(由于他們曾經具有這些權力),而是意味著要付與它們可以尋求本身的目的,而不受一些人攪擾的積極權力,例如,那些備受機械人設法主意熬煎的人的攪擾。 換句話說,付與機械人這類權力現實上就同等于付與其一切者為到達本身的目標、完成本身的價值和好處所需的特別的、受掩護的位置。然后,這些一切人應用 AI 和機械工資本身的目的辦事的才能便可以更進一步。 最初,在有關人工智能相干評論辯論中常常會涌現的一個話題也值得一提。不管是歐洲議會,照樣研討機構,常常會說我們須要確保人工智能機械人可以或許進修而且保護人類的價值不雅。但是,成績在于:機械人畢竟進修而且保護的是哪些人的價值不雅呢?而這個全人類又是由誰來代表的呢?不管真正普世的價值不雅能否可以或許灌注貫注到智能機械人當中,這類說法只能注解機械人的所作所為只能在某個偏向上發生品德、社會和經濟方面的結果,是以它們也只能是作為某些價值不雅的署理人。 而使人擔心的一個現實是,這些機械人很年夜水平上是由一些特定的公司和工業家階級來制作和控制,是以它們的才能也很有能夠會為如許一個階級的價值不雅和好處帶來顯著的利益。