數位信任是 AI 技術應用的核心要素。隨著 AI 技術深入生活的每個角落,無論是政府、企業,還是消費者,都需要數據治理來確保系統透明和公正。而AI 技術應用必須基於「責任」原則,AI 開發者和服務提供者應負責任,保證 AI 系統的透明性和問責性,並設法減少技術帶來的風險。
人工智慧科技基金會詹婷怡董事長認為,數位信任是數位經濟和網路治理的基石。他強調企業在提供 AI 產品和服務時應負起責任,確保 AI 的發展和應用符合社會倫理和價值觀,如同歐盟的人工智慧法案,臺灣也需要制定相應的法律,台灣因此成立了數位信任協會,推動企業在資料治理、透明度及演算法倫理等方面的自我規範,涵蓋數據完整性和信息透明化等方面,希望在提升數位治理、數據完整性和風險管理等方面,建立起完善的法律框架。規範AI的發展和應用,並將AI產品和服務的風險分級管理,以確保其安全性及可信任性。
台灣AI卓越中心許永真副總召集人也認同數位信任的重要性。他認為,在 AI 時代,個人不能完全依賴國家或平台來保障自身的權益,而應該具備自主判斷和選擇的能力。他建議透過技術手段,例如給予真假訊息不同的傳播速度,來幫助人們來增加對不良訊息的反應。
人工智慧科技基金會詹婷怡董事長指出,除了生產製造為我們創造GDP很重要之外,應該好好的善用AI應用在數位轉型在各個領域,創造更高的價值。而也要去思考AI如何為我們培育各領域的專家,臺灣需要培養跨領域的AI人才。未來的 AI 人才不僅需要精通程式設計和演算法,更需要具備跨領域的知識和技能,可以縱觀全局的人才,這樣的思維導入,才會讓我們的AI的應用可以更加的完善,將 AI 技術應用到各個領域。
台灣AI卓越中心許永真副總召集人則從教育的角度出發,指出AI是一個很方便的工具,它可以幫你找資料、整理資料、回答問題,可是最後的判斷還是要在人身上,所以使用者對於資訊的理解與判斷尤為關鍵,另強調 AI 素養的重要性,在 AI 時代,建議加強「批判性閱讀」的教育,分析訊息來源,培養獨立思考能力,這種能力不僅在應對AI生成資訊時重要,也有助於避免受到不當資訊的誤導。台灣AI卓越中心許永真副總召集人也認為,人才培育的重點在於使能夠在資訊洪流中保持冷靜,掌握應對複雜局勢的技能,才能更好地適應 AI 時代的生活和工作。