人工智能(AI)是現時每家公司都希望採用的科技,事關通過先進的 AI 技術,將可望減少人手!不過大家先別太高興,事關人工智能亦會帶來了一系列法規上的問題,假如你身處在一個依法治國的地方,便要多加留意啦!

AI 以及機器學習等,由於需要通過收集大量數據以完成機器學習的過程,因此在企業角度來說,稍一不慎便很容易誤墮法網,尤其是對於某些行業,例如:醫療保健以及金融業等,便需更加注意;但相對的,當企業欠缺足夠的數據進行分析,亦會對 AI 以及大數據分析有明顯的影響。

使用 AI 的風險

首先是金融公司。對她們來說,雖然使用 AI 可令投資決策更精準,不過錯誤使用 AI 例如錯誤採用不同的演算法內容,便有機會令投資者做錯決定。

至於醫療保健行業,現時採用 AI 以及機器學習等技術,主要用於進行各種的辨識功能,例如可識別診斷醫療影像中的情況!儘管這些基於 AI 及機器學習的識別會隨著時間而變得愈來愈精準,然而由於識別過程之中欠缺將病人的病歷以及習慣或患者的其他背景信息一併作考慮,因此與人工智能和機器學習所得出的結果可能很窄且不完整,而單單依賴這些結果而沒有醫學判斷實際上還會導致更差的結果。

另外,AI 亦會犯錯!面對此情況,人類和機器的角色和責任又會是什麼呢?機器如何做出決定並自主地學習以獲得更好的結果?如果你認為人工智能是「工廠」,輸出或決策是根據自我學習而製定的,那麼人類的角色就是設計部門,通過良好的策略製定而使其產生可接受的結果以及降低錯誤所造成的損失;而作為人類,我們有責任確保這個學習過程的質量。

然而隨著機器能夠自己做出決定,我們亦同樣需要考慮他們所犯的錯誤及其後果,以便設計合適的監管方法。

需要考慮的法律問題

除了監管方面,使用人工智能還需考慮法律上的問題,其中主要的問題是:假如機器得出錯誤的結論而造成可能有害的行動,誰將會為此而負責?是電腦?AI?還是開發者?

例如,出現醫療事故,是醫生或醫療中心的問題,還是應用開發者及負責人的問題?又例如,患者明確要求以 AI 系統進行治療,那又要怎麼辦?

另外在金融行業之中,如果使用人工智能來幫助收集財務信息,那麼我們可能需要有一名主管簽名並證明所提供用來分析的信息是準確的,事關不準確的數據源將會導致作出錯誤的投資決定。

換句話說,即使人工智能作出了任何的決定,都必須經人手再次確認,才可解決法規以及法律上的責任問題,亦即是說 AI 在某些行業之中並不能有效地發揮其作用。

安全 AI 最佳實踐

其實我們可以作一些準備以防範與人工智能相關的法律和合規性風險。其中一個最關鍵的事情,就是徹底掌握機器如何做出決定。這意味著理解立法機構,法院和陪審團可能會對創建和部署系統的人產生不滿,亦即是說開發者擁有很大的責任。

公司亦可能需要考慮他們是否可以設計一個系統,以便在滿足監管機構和法律門檻的水平上的要求,而監管機構則可以通過責任規則和其他方法來鼓勵這種透明度;企業亦應參與製定管理其運營規則的相關監管機構的規則制定,以確保其切實可行。


 人工智能改變世界?都是先考慮 AI 帶來的法規與監管問題吧!

 https://www.facebook.com/hkitblog