當人們還在擔心越來越聰明的機器人或許會在某天搶走自己飯碗時,卻有人進行了一個作大死,如果他進展足夠順利的話,你可能更需要愁的是,這些家伙會不會要了你的小命。
日前,據外媒快公司報道,一位來自加州的機器人專家、藝術家,嗯,叫 Alexander Reben,打造了一款機器人,長下面這個樣子。

然后,這款機器人的作用,注意,是唯一的作用,就是對人進行一個傷害。 #此處自帶黑人問號臉
好啦,倒也不是讓你缺胳膊斷腿的傷害,至少它現在能做的,不過是當你將手指頭放在某一范圍內,它會突然地給你的指頭扎上一針。而有意思的是,這位名叫Alexander 的設計者故意將傷害的指令進行了隨機設置,因而,當你將手指置于這機器人的地盤之下,你也不知道這位機器人版的容嬤嬤會不會突然地給你來一下 。 #玩的就是心跳
所以為什么要打造這樣一款應該沒人會買也著實不希望量產的機器人呢?
Alexander表示, “此前,沒有人想過真的去打造一款為傷害人類而誕生的機器人,(但機器人傷害人的隱患是切實存在的),我要把人們腦海中的隱憂化為現實,因為只有當它真正以某種實體存在的時候,人們才會更迫切直白地去面對它,而不是安慰自己不過是假想敵,就不會只是單純地發表一些高談闊論了。”
似乎,這一看似反人類的行為,卻恰恰是一番用心良苦,不知道這個腦回路你能不能理解。反正,來自麻省理工學院媒體實驗室的 Kate Darling,一位 “機器人技術對于社會的短期影響”課題的研究人士對于Alexander的實驗性發明表示贊賞,不過,她才不會把手放在機器人的案板上呢。
在畫風突變之前,Alexander的得意之作,是一款叫做 BlabDroid的機器人。它小巧無害的造型,能激發人們向它傾訴。而多年以來,Alexander一直在探索人與科技之間的關系,以及科技如何幫助我們更好地去理解人性。

他已經敏銳地意識到,人們正變得越來越害怕機器人,要么是擔心它們會給自己帶來生理上的傷害,要么是看到了在某些領域可能被取代的悲催未來。 “機器人會干掉人類”或者 “機器人會搶走我們的飯碗”已經是近來談到類似話題時的常用句型了。
Alexander想要迫使人們在這些可能發生的問題、威脅到來之前,認真地去尋求解決方案。通常來說,這是所謂學者專家們應該考慮的問題,但是Alexander認為,沒有哪一家研究機構能夠打包票說,自己打造的機器人不會在未來的某一天傷害到人類。同樣的,也沒有哪家公司會刻意地去打造一款以傷害人為目的的機器人。 “沒人會想稱為「首家害人機器人公司」”。

鑒于Alexander的機器人殺傷力著實有限,并不至于讓人缺胳膊少腿,更不可能將你碾軋成肉末,似乎倒也不會引起太強烈的反對聲。不過Alexander希望更多法學、哲學、工程學、倫理學領域的學者專家能注意到他所打造的這個怪家伙,“我希望這些跨學科的人們能走到一起來解決這個問題,因為這不是依靠單一某領域的力量就能搞得定的。”他想,律師會就如何界定對人類造成傷害的機器人的責任問題展開辯論,而倫理學家會思考這樣一個實驗是否是合理的,哲學家會問為什么會有這樣一臺機器人存在。
1942年,美國著名的科幻小說家艾薩克·阿西莫夫(Isaac Asimov,1920 - 1992)曾在《我,機器人》這本小說中,提出了著名的“機器人三定律”,即
第一,機器人不得傷害人類,或坐視人類受到傷害;
第二,除非違背第一法則,機器人必須服從人類的命令;
第三,在不違背第一及第二法則下,機器人必須保護自己。
這三條定理不僅成了后續科幻作品所遵從的定理,對機器人學也影響重大。然而,我們也有充分的理由相信,艾薩克的這三條鐵律并不能真的保護人類免于來自機器人的傷害。
即使是對這一實驗表示青睞的Darling教授也指出,不管是不是在實驗狀態下,Alexander的機器人只要是傷害到了任何人,那Alexander,作為這臺機器人的制造者都要為此承擔道德上的責任。
“當自主機器人傷人時,我們可能會漸漸地覺得自己不需要承擔傷人的道德責任。當然啦,法律上的責任是跑不掉的。我們越能預期機器人的行為時,我們就越不會受到來自機器人的“故意”傷害?”同時,她還認為隨著科技的不斷進步,我們也要以新的目光去審視機器。
“從責任這個立足點來說,機器人將不會僅僅只是工具,而是我們本身的一個外延拓展,而隨著它們自主技術的不斷提高,從某種角度上說,我們應該像對待動物般對待它們,畢竟我們也不能總是預期它們的行為。”
而對于Alexander而言,他希望人們能正視這些問題。“我想要人們來對抗這種危險的實體,這也許能提高人們的這種意識,而不僅僅再停留于哲學層面的討論。總會有不可預料的情形出現,而我們要走在更前面一些。”