5/23 歐洲舉辦的 Big Data Days 2023 活動的第一個演講是:「解密數據民主的力量,大數據時代的導航」(Unleashing the Power of Data Democracy — Navigating the Era of Big Data),這是由Jan-Willem Middelburg 先生主講,我們利用了幾天的時間,把整個演講大致的中文化後,放上了中文字幕。或許,你可以參考看看。
這個議題應該要受到大家的關注與思考,因為它來的又快又急!這與政治議題毫無相關,可是卻會影響每一個人。生成式人工智慧在今年絕對是一個議題!緊接著你就看到許多假造出來的圖片,有一些可能是無傷大雅,但是有一些卻可能會引發社會動盪的。影片的內容有舉例:教宗穿上白色的羽絨夾克?藝術家的作品被模仿?政治人物被警察逮捕與卑躬屈膝?這些圖片都是假的!可是,你該如何判斷?我們多設想一下,台灣今年馬上要大選了,會不會有假的圖片拋出?然後產生類似2004年319事件的後果?我們不知道,我也不願意去預測,但是我們不期望發生這類事件。
Jan-Willem Middelburg 先生在影片上說道:「我非常堅信,未來你所看到的、閱讀的、聽到的、看到的一切,都將在很大程度上取決於演算法或技術,所以,這就是說每個人都需要為自己做決定,如果你想知道,能相信什麼,什麼是真的,什麼是假的,你需要有能力做出有效的評估!」關鍵是:你有能力嗎?未來,如何確保人們在未來可以負責任地使用人工智慧?這絕對是一個令人燒腦,而且絕對要跳出現有環境與技術來思考的議題,你有思考過嗎?
數據民主的目標是促進數據驅動的決策,使組織內的各個層級的個人,能夠利用數據,獲得洞察力,做出明智的選擇,因此為組織作出貢獻!而不論他們的專長或技術能力,因此涉及到打破傳統上限制獲取數據的障礙,使不同角色和部門的個人有能力獲取、分析和利用數據。因此,鼓勵合作,促進創新,並提高整體生產力和效率是不言而喻的。同時,民主不是濫用!治理、管理、安全、隱私,甚至公平和無歧視與監督和監控的議題,絕對也不會少。
所以簡單的說:在台灣,人民可以投票,但是你要有民主素養,也要遵守相關的規定,這就是你行使民主的能力。相同的類比,上述說道「數據民主」,從個人到組織,我們有足夠的「數據素養」,可以做到嗎?如果沒有,未來如何迎接:演算法與技術交給你的資訊呢?或許你會說,負責任地使用人工智慧,就應該防止濫用這些生成式的人工智慧工具?這句話也應該是對的。可是,你也知道政府一再呼籲不要喝酒開車,但是就有人忽視這一個呼籲,導致斷送自己或是別人的生命。
負責任的人工智慧包含了很多面向,比方說:過程透明且可解釋的,會有助於建立信任和理解,確保運作符合預期,同時,檢驗其潛在偏差和不公平,保護隱私,遵守法律和規定,防止濫用或未經授權的使用,進行社會影響評估,接受監督與建立責任機制等。說起來,都像是唱高調!可是,就如同上述說道:不要喝酒開車,你真的不喝酒開車嗎?所以,我們經常說到:技術能解決的問題,都算是簡單的問題。這些不簡單的問題,未來都會是我們需要面對的問題。
補記 ( 2023/6/7)
MIT 史隆管理學院在五月份有一篇文章說到:產業正在主導人工智慧的研究。文章的主標題說到:What does this mean for research that is in the public interest? 這對符合公共利益的研究意味著什麼?主要的呈現數據來自這裡:Today, roughly 70% of individuals with a PhD in artificial intelligence get jobs in private industry, compared with 20% two decades ago.約有70%的人工智慧博士進入私人產業工作,20年前這個數字只有20%。
進入產業當然是好事,表示產業大家都開始重視人工智慧的開發?話雖說如此,如何確保確保人工智慧模型公正、公平並用於公共利益?產業化的意義也就是會讓這些研究人員以不同的方式思考問題。說得更直接:就是產業利益將會放在公共利益之前。再說的更明白一點:模型因此產生偏差,你不斷接收到偏差的資訊,你能明白嗎?把時間在拉近一點來比喻:許多電腦軟體商都說你會使用操作這項軟體你就是大數據專家、就是分析師?是這樣嗎?這不就是一種產業引導,導致大量偏差的現象呢?這篇文章也似乎告訴大家:這種現象依然會發生在人工智慧的時代。但,你有能力可以看清事實嗎?