2025-11-14 18:52:02
每經記者|趙景致 每經編輯|張益銘
人工智能的采用率正在上升,但信任仍是一個關鍵挑戰。
根據畢馬威KPMG最新數據,相較于2022年ChatGPT發布前,如今AI(人工智能)普及率已經顯著提升,但憂慮情緒也隨之上升,全球僅46%受訪者愿意信任AI系統。
許多先進的人工智能模型被視為“黑箱”,即便是開發者也難以完全理解其決策邏輯。面對這種透明度缺失的情況,我們應如何建立對人工智能系統的信任?近日,《每日經濟新聞》記者(簡稱NBD)專訪了香港金融科技周籌辦商Finoverse首席執行官Anthony Sar。
Finoverse首席執行官Anthony Sar 受訪者供圖
“大語言模型至今其實仍不透明,即便對于其創造者也是如此。”Anthony Sar認為,建立信任需要強有力的人類監督、透明的數據使用以及企業級的測試,與此同時,當AI出現嚴重錯誤時,責任應由多方共同承擔。
NBD:許多先進的人工智能模型被視為“黑箱”,面對這種透明度缺失的情況,我們應如何建立對人工智能系統的信任?
Anthony Sar:大型語言模型的透明度仍未完全實現,即便對其創造者而言亦是如此,如今的人工智能不僅能預測文字,還能理解概念——這既賦予了它強大的能力,也帶來了相應風險。建立信任需要強有力的人類監督、透明的數據使用以及企業級的測試。負責任的人工智能意味著,在技術能夠安全提升人類成果的領域部署它,而非取代人類的判斷。
NBD:訓練數據中存在的社會偏見往往會傳導至人工智能上。在您看來,社會和科技公司應采取哪些具體且可操作的措施,系統性地減輕甚至消除人工智能偏見,以確保其發展不會加劇社會不平等?
Anthony Sar:人工智能往往會反映人類生成數據中存在的偏見,但我們應該建立更具包容性的人際聯結。例如,我們為本次金融科技周設計的人工智能社區主持人Samantha,在為參會者進行匹配時,僅關注雙方的共同利益,而忽略頭銜、國籍或影響力等因素。
Samantha通過發起原本可能不會發生的引薦,幫助打破了這一障礙。活動吸引了來自120多個國家的參與者,Samantha基于共同價值而非曝光度為人們搭建聯結。這只是人工智能如何幫助減少壁壘、推動以人為本的機會獲取的一個例證。
NBD:當人工智能系統出現嚴重錯誤(例如自動駕駛汽車引發事故、醫療人工智能給出誤診)時,該由誰為這一錯誤負責?
Anthony Sar:人工智能的責任應由多方共同承擔。就像交通安全依賴于司機、行人及監管機構共同遵守規則一樣,負責任的人工智能需要開發者、部署者和用戶各自承擔明確的角色。
我們已經擁有監管復雜系統的框架,通過標準制定、測試和執行,這些框架同樣可以應用于人工智能領域。
例如,我們在Samantha的設計中融入了“人機協同”模式,確保所有互動均經由活動組織者與我們的團隊審核后,再逐步擴大自動化應用范圍。這種方式既保留了人類監督,又讓人工智能能夠處理日常事務,為平衡創新與問責提供了真實可行的實踐模型。
NBD:隨著人工智能能力的快速提升,人們對其被惡意使用的擔憂日益加劇,甚至有人擔心人工智能可能變得無法控制,超出人類的監督范圍。您認為這些是迫在眉睫的現實威脅,還是遙遠的科幻場景?國際社會應如何為人工智能的發展和使用劃定“紅線”,以應對其可能帶來的“災難性”或“生存性”風險?
Anthony Sar:與任何強大的技術一樣,人工智能既可用于造福人類,也可能被用于危害他人,就像核能一樣。人工智能可能在未來20年內超越人類能力,因此治理至關重要,必須確保技術發展的方向始終服務于人類福祉。
我們認為,靈活的、基于風險的治理模式是關鍵。需要注意的是,并非所有應用場景都存在相同程度的風險,在金融、醫療或公共安全等敏感領域,監管必須像對持證職業那樣嚴格,確保每一項決策都經過測試、驗證并明確問責。但在創意類或低風險應用場景中,應允許人工智能在清晰的倫理準則下更自由地發展。
封面圖片來源:受訪者供圖
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP