6月中,在倫敦有幾位裁判跟一位神秘嘉賓透過電腦進行筆談,這位神秘嘉賓才13 歲,從烏克蘭來,名喚Eugene Goostman,英文聽寫還不十分道地。 對談5分鐘後,有1/3的裁判被說服,認為小男生真有其人。謎底揭曉時,才發現他不過是一個已經發展了13年的電腦程式。

消息傳出,人工智慧界非常振奮,經過了六十幾年,人工智慧的成就終於能夠通過圖靈測試(Turing Test)的考驗。這個測試在1950年由英國數學家艾倫•圖靈(Alan Turing)提出,作為衡量人工智慧的發展指標。電腦如果能跟人腦對答如流,不露縫隙,讓人腦錯以為在跟另一個人腦對話,這時候,人工開發的電腦智慧才算過了門檻。

最近20年,人腦的進步有限,人工智慧或機器學習(machine learning)的發展卻突飛猛進。許多需要高度智力的遊戲,人腦已經節節敗退,1997年IBM開發的「深藍」便打敗了世界西洋棋冠軍卡斯帕洛夫。法國學者開發的「瘋狂石頭」(Crazy Stone)2013年跟日本圍棋9段石田芳夫對弈,在19x19的標準棋盤上,石田芳夫讓了4子,結果這位曾經打敗林海峰、五連霸本因坊的世紀圍棋高手居然輸給了毫無名頭的電腦程式。

在人工智慧上,有個「摩拉維克弔詭」(Moravec paradox)的說法。1980年代中,卡內基梅隆大學教授摩拉維克發現:要讓電腦展現成年人的智力相對容易,但是要它具備有如一歲小孩一般的感知和運動能力,可是十分困難。

「摩拉維克矛盾」到今天仍然成立。下棋,預測一個人的偏好,或者是海量資料的分析能力,電腦的智慧早已超過人的智力,但是在DARPA每年舉辦的機器人挑戰(DARPA Robotics Challenges)裡,有些機器人還在練習爬樓梯。然而即使機器人仍在蹒跚學步,許多不必模仿人類動作的機器已經在為人類山上下海,甚至取代人的工作,既解決了許多迫切的問題,也產生不少新的倫理挑戰。

人類對機器人有一種天生的恐懼。從某一個角度來說,機器人是人類最具威脅力的競爭者,除了智力之外,它擁有許多脆弱的人類缺乏的優點,像是任勞任怨,不會疲倦,維護簡單,不必吃喝拉睡;它又沒有人的種種缺點,例如每年要求加薪,期待升遷機會,心有不甘便發起罷工,以及生老病死等等麻煩問題。如果機器人跟人產生衝突,以機器人的金剛不壞對付人的血肉之軀,人毫無勝算的可能,這是一種先天的不對稱。

也許出自這種內心深層的恐懼,美國科幻作家阿西莫夫(Isaac Asimov)在他的科幻小說裡曾經制定了有名的機器人三定律。

第一定律,機器人不得傷害人,或任人受到傷害而無所作為。

第二定律,機器人應服從人的一切命令,但命令與第一定律相抵觸時例外。

第三定律,機器人必須保護自己的存在,但不得與第一、第二定律相抵觸。

三鐵律設想周到,以保護人類為出發點,但其前提是機器人跟人類各有其獨立人格。在真實情境下,機器人的後面都有一個活生生的人類在主宰操縱,當機器人聽令於其背後的主人,面對另一個人類時,它可以聽從主人的命令,去傷害另一個人類嗎?如果可以,是否違反第一定律?第二定律要求機器人聽從人的命令,只有主人的命令嗎?可能的被害人可否命令機器人停止?

從另一個角度來說,機器人又不是人的競爭對手,它不過是人的工具而已。在人工智慧持續進步的過程中,人機合作是必然的趨勢,雖然下象棋或圍棋,人腦已不如電腦,但是新的研究顯示,人腦加上二流的電腦,仍然能夠打敗第一流的人工智慧。因此有人認為將來的職場會出現中層工作(middle work),結合人腦的精彩創意和電腦的細膩分析,可以創造出許多新的工作機會。

但是人機間的合作,太容易被利用來侵犯另一個人的利益。從身邊小事來說,現代人每天收到無數垃圾電郵,不請自來,都是某人指揮機器的結果。在家裡不斷收到行銷電話,全是電腦自動撥號,打電話的人的時間成本為零,接電話的人分分秒秒用的都是自己的時間。人機合作產生的優勢,對另一方而言,常常是束手無策的不公平。

更引起爭議的是從事戰爭行為的機器人或是無人飛機(drone)。在中東戰場,美國政府已經發起數百次無人飛機的攻擊,贊成者認為這是種有效、精準、能夠減少地面人員傷亡的最佳戰術;反對者則認為無人飛機將戰爭行為簡約成電玩遊戲,不見鮮血,便失去對戰爭殘酷性的體認,如果不能準確辨識,誤傷普通百姓,責任要無人飛機、還是幕後的下令者承擔?更何況如果每個國家都可以不經國際程序,便直接派遣無人飛機,到其他國家執行殺人任務,世界秩序該如何維護呢?

人與人間產生衝突,結果將機器捲入,最大的問題是破壞力量的懸殊,產生了嚴重的不對稱性。於是不免讓人想起古代兩軍對峙,有時由主帥出戰,兩人決一死戰,便決定勝負,省卻了大軍的傷亡。十八世紀流行決鬥,紳士們為了維護榮譽,擇期單挑,找來第三者做為仲裁,訂定了公平的決鬥規則,決鬥開始後,只要有挑戰方覺得滿意,決鬥便告一結束。

究竟古老你死我活的血腥決鬥方式較為野蠻,還是現在手不沾血的大規模殺人行為較為文明?這也是人工智慧高度發展後產生的另一個弔詭。

因此在未來人機共生的社會裡,我們可能需要新的人機共生三定律。這裡不妨東施效顰一番:

第一定律,某甲欲指使機器人對某乙有所作為,不可無償將某乙利益移轉至某甲。

第二定律,如果某甲之作為與第一定律相抵觸,必須事先取得公正第三方同意。

第三定律,如果某甲之作為與第一、第二定律相抵觸,某甲應承擔一切法律及道德責任。

阿西莫夫機器人三定律不過是倫理哲學層面的冥想,在真實世界裡從來沒有獲得實施。人機共生三定律也沒有實踐的可能,但是透過這樣的討論,也許可以彰顯,今天的人工智慧已經發達到了一個程度,探究的範圍不能再局限於生產力提升、或是經濟成長這些議題,而應該將人的價值、人與人間的尊重、和人機的合理關係拉入視野之內,只有這樣,人工智慧才不至於成為收不回潘朵拉盒子的小精靈。

Photo credit:Scott Lynch (CC BY-SA 2.0)

瀏覽次數:9091

編輯推薦

延伸閱讀

矽谷 Acorn Pacific Ventures 創投基金共同創辦人。職場生涯中一半台灣,一半矽谷,一半企業,一半創投。因創投業務廣泛接觸三江五湖能人志士,近距離觀察產業更迭,深刻感受到名與實,見與識,知與行的差距,無論創業或人生,真正成功的人都能縮短其中的差距。 著有《小國大想像》臉書專頁)及《錫蘭式的邂逅》二書。

「獨立評論@天下」提醒您:
1.本欄位提供網路意見交流平台,專欄反映作者意見,不代表本社立場
2.發言時彼此尊重,若涉及個人隱私、人身攻擊、族群歧視等狀況,本站將移除留言。
3.轉載文圖請註明出處;一文多貼將隱藏資訊;廣告垃圾留言一律移除。
4.本留言板所有言論不代表天下雜誌立場。