6/16 晚上的說明會,我們提出了一個有獎徵答。有獎徵答的目的是希望促進大家的閱讀與思考。我們收到了一些回應,感謝大家。相關的獎勵已經電郵寄出。報名課程的優惠,我們也將會逐一落實。希望大家能夠在這一個過程中,不斷的思考與研究這些議題,為自己創造不凡的價值。可是,如果你沒有行動?很抱歉,機會就不會是你的。
自己出的題目,還是需要自己來解答。我的題目是說:文章中提到,兩項具體可操作的負責任的人工智慧,請問是哪兩項?根據這兩項,請各舉一個例子來說明,為什麼可操作?如何操作?這篇文章是:Data Democracy 數據民主 — 翻譯影片後的思考。
文章的最後一段,其實答案已經有了一個方向:
這裡的文字,其實已經把答案的框架說了一圈。可是,題目是要求兩項具體可操作,所以,你必須要深入思考這些內容。請留意,負責任的人工智慧還有一個文章的連接點。如果你願意點擊之後,再去看看的話,答案將會更加直接。
第一,排除偏差。第二,避免濫用。就是我想說的答案:具體可操作的負責任的人工智慧。
偏差是什麼?不用多作解釋,你應該可以理解。過去,統計推論的時候,需要證明你的樣本可以代表母體,這就是一種避免偏差的作法。現在,你交給模型訓練的數據是否有偏差?這種偏差可能你們自己都無法感受到,因為人類本身的行為多少都有偏差,或許我們不說是偏差,而是個人的偏好。這些偏好,是否無意產生結果後,相關的數據餵給了模型。最有名的例子就是利用人工智慧來篩檢履歷,結果不小心發生了種無歧視的問題。因此,面對數據上可能的偏差,你的策略就是服務管理所談到的:持續改進。你們是否將模型的數據更擴大、更多樣性、更經常的不斷檢討?有了這些舉動,你才有機會修正可能的偏差!相對的,有了這些舉動,你才能說你們是負責任的人工智慧。
濫用的議題,就真的不是那麼容易去解決。一把小小的水果刀,也可以拿來傷害別人。人工智慧作為一項工具,如何避免被濫用?如果把議題縮減到自身的企業內,也就是說你們相關的管理與治理工作是否妥善?隱私與安全規則是否都已經落實?這說到底就是:各位的數據素養是否真正的知曉,並且實踐中?不要認為數據素養的課程不重要,人類最可怕的問題就是:無知。會濫用人工智慧的人,他本身的技術、技能與技巧一定是很優秀的,可是,為什麼會拿來濫用?關鍵的因素就是:本身的道德意識與其素養的不足。看到這裡,或許你也會想到法律與規範等,固然是不錯!對於數據素養與相關意識而言,這些或許是高調且偏向道德層面。可是,面對今天,尤其是生成式人工智慧的興起,人類準備好了沒有?難怪歐盟會通過第一個人工智慧的監管草案。
人類是否準備好?這個議題其實在歷史上,或是在你身邊,經常的被看到。比方說,智慧型手機就是一個好案例。很多老先生老太太,慢慢的不願意接受新的資訊事務的影響而選擇放棄,後果就是生活上面的各種不方便!當然,你因為具備了現代公民的素養,你會使用智慧型手機,可是你還是免不了被人家詐騙?未來的環境一定更多樣性、更複雜,你要如何面對人工智慧對你的幫助,或是挑戰?你是否具備足夠的素養?其實,唯一的策略就是不斷的學習,不斷的自我進步。祝福你。