科技一日千里,而當中的人工智能科技發展都愈來愈成熟。在現時的電影中,我們都會經常看見一些以人工智能作為題材的電影。有時你認為這些都只是天馬行空的幻想,但你有否想過有朝一日,人工智能會開始有自己的意識,需要法律去保障它們的權利呢?

在《dailymail》的一篇文章中,有一位法律專家曾經警告,說明現今有關機械人的法律要追趕到科技的步伐。在某些有需要的情況下(如人工智能「覺醒」和它們開始需要應得權利),我們要將法律改善到可以保障到它們。而這些問題其實是必定會衍生出來的,故此建議在事情發生之前,開始將人和機械的界定變得更加清晰。而在過去,其實也有很多出名的人物對「人工智能對人類的威脅開始上升」而感到擔憂,當中包括Stephen Hawking和Elon Musk。

在一月的時候,有人簽署了一封公開信給人工智能研究者,去對他們提出人工智能潛力危險的警告。當中警告說出,如果這項技術沒有事先想到一些保障措施,人類可能會走向一個黑暗的未來,令到數以百萬計市民失去他們的工作,甚至會令到「人類」這個物種被消滅。

法律專家Ryan Calo概述了一個可怕的思想實驗,當中是詳細說明我們的法律可能需要更新,以應對機械人的投票權所帶來的挑戰。Ryan Calo亦提及到:「你試想一想,如果機械人都宣佈自己存在著自我意識,而這種狀況發生的可能,有誰人可以去否定呢?而這些人工智能也會讀過《Skinner v. Oklahoma》,而《Skinner v. Oklahoma》是一宗最高法院的案件,當中說明「生育」是公民的基本權利之一。」

Ryan Calo續說:「當這些人工智能有了「生育」權利,它們就會得到了權利去進行自我複製,然後它們就需要代表去進入議會去捍衛它們的權益,最後就需要投票權。」,而在其它方面的發展上,作為程式員的Stuart Russell博士都提及人工智能可能和核武器一樣危險,因為從一開始,核能的主要目的就是用之不完的能量,所以人工智能無可估計的能量和智慧,可能會變為一種威脅人類的武器。

當然,一個新科技的誕生,可以為人類帶來更美好的生活,但亦可能變為雙刃劍,帶有某種破壞的可能。故此,在發生危機之前,我們要盡一必可能去作出預防措施,以免一發不可變拾。

作者:WernerHK(本文章由聚言時報授權提供)


 人工智能的權利與威脅的思考(WernerHK)

 https://www.facebook.com/GaldenPolymer/timeline