• <acronym id="mz9d1"><output id="mz9d1"></output></acronym>

    <sub id="mz9d1"><ol id="mz9d1"><nobr id="mz9d1"></nobr></ol></sub>
        1. <sup id="mz9d1"></sup>
          每日經濟新聞
          要聞

          每經網首頁 > 要聞 > 正文

          AI惹禍誰來背鍋?香港金融科技周籌辦商Finoverse首席執行官:應由多方共同承擔

          2025-11-14 18:52:02

          每經記者|趙景致    每經編輯|張益銘    

          人工智能的采用率正在上升,但信任仍是一個關鍵挑戰。

          根據畢馬威KPMG最新數據,相較于2022年ChatGPT發布前,如今AI(人工智能)普及率已經顯著提升,但憂慮情緒也隨之上升,全球僅46%受訪者愿意信任AI系統。

          許多先進的人工智能模型被視為“黑箱”,即便是開發者也難以完全理解其決策邏輯。面對這種透明度缺失的情況,我們應如何建立對人工智能系統的信任?近日,《每日經濟新聞》記者(簡稱NBD)專訪了香港金融科技周籌辦商Finoverse首席執行官Anthony Sar。

          Finoverse首席執行官Anthony Sar 受訪者供圖

          “大語言模型至今其實仍不透明,即便對于其創造者也是如此。”Anthony Sar認為,建立信任需要強有力的人類監督、透明的數據使用以及企業級的測試,與此同時,當AI出現嚴重錯誤時,責任應由多方共同承擔。

          負責任的人工智能并不意味著取代人類判斷

          NBD:許多先進的人工智能模型被視為“黑箱”,面對這種透明度缺失的情況,我們應如何建立對人工智能系統的信任?

          Anthony Sar:大型語言模型的透明度仍未完全實現,即便對其創造者而言亦是如此,如今的人工智能不僅能預測文字,還能理解概念——這既賦予了它強大的能力,也帶來了相應風險。建立信任需要強有力的人類監督、透明的數據使用以及企業級的測試。負責任的人工智能意味著,在技術能夠安全提升人類成果的領域部署它,而非取代人類的判斷。

          NBD:訓練數據中存在的社會偏見往往會傳導至人工智能上。在您看來,社會和科技公司應采取哪些具體且可操作的措施,系統性地減輕甚至消除人工智能偏見,以確保其發展不會加劇社會不平等?

          Anthony Sar:人工智能往往會反映人類生成數據中存在的偏見,但我們應該建立更具包容性的人際聯結。例如,我們為本次金融科技周設計的人工智能社區主持人Samantha,在為參會者進行匹配時,僅關注雙方的共同利益,而忽略頭銜、國籍或影響力等因素。

          Samantha通過發起原本可能不會發生的引薦,幫助打破了這一障礙。活動吸引了來自120多個國家的參與者,Samantha基于共同價值而非曝光度為人們搭建聯結。這只是人工智能如何幫助減少壁壘、推動以人為本的機會獲取的一個例證。

          人工智能責任應由多方共同承擔

          NBD:當人工智能系統出現嚴重錯誤(例如自動駕駛汽車引發事故、醫療人工智能給出誤診)時,該由誰為這一錯誤負責?

          Anthony Sar:人工智能的責任應由多方共同承擔。就像交通安全依賴于司機、行人及監管機構共同遵守規則一樣,負責任的人工智能需要開發者、部署者和用戶各自承擔明確的角色。

          我們已經擁有監管復雜系統的框架,通過標準制定、測試和執行,這些框架同樣可以應用于人工智能領域。

          例如,我們在Samantha的設計中融入了“人機協同”模式,確保所有互動均經由活動組織者與我們的團隊審核后,再逐步擴大自動化應用范圍。這種方式既保留了人類監督,又讓人工智能能夠處理日常事務,為平衡創新與問責提供了真實可行的實踐模型。

          NBD:隨著人工智能能力的快速提升,人們對其被惡意使用的擔憂日益加劇,甚至有人擔心人工智能可能變得無法控制,超出人類的監督范圍。您認為這些是迫在眉睫的現實威脅,還是遙遠的科幻場景?國際社會應如何為人工智能的發展和使用劃定“紅線”,以應對其可能帶來的“災難性”或“生存性”風險?

          Anthony Sar:與任何強大的技術一樣,人工智能既可用于造福人類,也可能被用于危害他人,就像核能一樣。人工智能可能在未來20年內超越人類能力,因此治理至關重要,必須確保技術發展的方向始終服務于人類福祉。

          我們認為,靈活的、基于風險的治理模式是關鍵。需要注意的是,并非所有應用場景都存在相同程度的風險,在金融、醫療或公共安全等敏感領域,監管必須像對持證職業那樣嚴格,確保每一項決策都經過測試、驗證并明確問責。但在創意類或低風險應用場景中,應允許人工智能在清晰的倫理準則下更自由地發展。

          封面圖片來源:受訪者供圖

          如需轉載請與《每日經濟新聞》報社聯系。
          未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

          讀者熱線:4008890008

          特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。

          歡迎關注每日經濟新聞APP

          每經經濟新聞官方APP

          0

          0

          国产日本精品在线观看_欧美日韩综合精品一区二区三区_97国产精品一区二区三区四区_国产中文字幕六九九九
        2. <acronym id="mz9d1"><output id="mz9d1"></output></acronym>

          <sub id="mz9d1"><ol id="mz9d1"><nobr id="mz9d1"></nobr></ol></sub>
              1. <sup id="mz9d1"></sup>
                亚洲综合久久AV一区二区三区 | 中文有码在线观看 | 一级国产加日韩加欧美 | 亚洲一区二区麻豆AV | 天天视频在线观看免费专区 | 亚洲天堂男人2020 |