MIT 史隆管理學院最近引述一個數字,這是引用 2022 年Accenture survey對1600名高階管理人員和資料科學領導者的調查,只有6% 使用人工智慧的公司實施了負責任的人工智慧實踐,儘管 42% 的公司表示他們的目標是到 2024 年這樣做。
這應該是一項議題。就如同人類的進步,你無法可以阻擋。比方說:當人類開始飛行的時候,建立空中交通的秩序是必要的。類似的比喻,未來如何建立負責任的人工智慧環境,也應該是重點。何謂負責任的人工智慧(Responsible AI )?大概可以這樣解釋:在設計、開發和使用人工智慧技術時,確保其符合倫理、法律和社會價值觀,並且促進對人類的福祉和可持續發展,同時產生積極影響的原則和實踐。
是的,這項解釋真的很不「技術」。為什麼我這麼說呢?多數的人看到人工智慧、大數據,只想到技術方面的議題。可是,當你看到上述的解釋,你應該要告訴自己:技術能解決的,都不是問題,而人類的問題,都不是技術可以解決的。就如同,我常說:每個人都知道不可以喝酒開車,可是,每天晚上,喝酒開車的人還是比比皆是,這樣的作為符合倫理、法律與社會價值觀嗎?如果是你,如何去改善呢?
具體來說,可以從兩個方向來討論負責任的人工智慧。這是可操作的。第一:利用數據所訓練的模型是否可以排除偏差(Bias)?偏差是一個複雜的問題,並且可能涉及社會、文化和個人價值觀等多項因素。因此,確保無偏差數據的目標是一個持續努力的目標。第二:人工智慧做為一項工具,如何避免濫用?這牽涉到法律、道德,牽涉到個人數據隱私,也牽涉到上述的偏差等。這些議題,如果對應前面說到 MIT 史隆管理學院最近引述一個數字,難怪大家對人工智慧會越來越不信任,甚至產生敵意。
人工智慧本來就是人類自己創造模仿自身智慧的機器。技術能力不斷翻新,威力不斷提升。當然,後面帶來的問題,可能也越來越多。關鍵是大家都忽略了這些軟實力!有人就已經提出:技術可能會被取代,但是人類的軟實力,可能是無法被人工智慧取代的。就如同,人類發明了很多飛機,每天飛來飛去卻沒有一套管理方法,就一定會出問題。當你關注人工智慧技術發展的同時,其實更應該要思考這些深沉的問題。如何利用框架,產生方法,在團隊裡優化,才是一套可行的道路。