12月7日,2025大灣區科學論壇人工智能分論壇暨第六屆中國(廣東)人工智能論壇在廣州南沙國際會展中心舉行。在“人工智能創新與治理”圓桌交流環節,四位專家圍繞中國AI發展的優勢與挑戰、算力支撐、人才培養、企業責任、敏捷治理機制等展開了深度對話。

“人工智能創新與治理”圓桌交流。(圖片來源:活動主辦方)
交流中,四位專家針對人工智能的“敏捷治理”這一概念分享了見解。中國工程院院士、鵬城實驗室主任高文指出,以AlphaGo下圍棋為例,其訓練數據中80%都是生成式數據,正是通過生成數據與既有數據的結合訓練,才實現了對人類的超越。這一現象讓我們必須重視生成式數據的治理問題,核心是要引導其“向善”發展。他強調,“敏捷治理”絕非事后補救,而應注重事前預埋治理邏輯。例如對生成式數據的管理上,需要進行標識,僅靠顯式標識還不夠——這類標識可能被人為移除,因此還需配套隱式標識,確保其難以被隨意篡改。基于此,相關立法機構與技術部門應提前介入治理過程,而非等問題發生后再被動應對。
中國科學技術大學黨委常委、副校長吳楓結合校園實踐分享了看法。他提到,當前學校的信息化建設成效顯著,基礎設施完備,但人工智能技術的落地應用仍存在較大空白。為此,校方曾嘗試推動人工智能在校園管理等場景中的應用,卻發現各部門對數據安全高度敏感,普遍持謹慎態度,這讓他意識到:人工智能在校園的應用,必須先從后臺場景起步,而非直接推進前端落地。隨后,學校用了一年多時間,重點推進數據治理工作——明確數據管理規則、探索合理利用路徑,包括封閉場所的數據開發等相關規范。而解決完數據問題后,又面臨新的課題:哪些人工智能技術適合校園場景?吳楓指出,師生及學校領導對人工智能的使用同樣敏感,反對用技術對師生進行全方位的監測與了解,這意味著人工智能技術的應用必須建立在明確規范之上,先立規矩再談開發。缺乏完善的治理體系,人工智能技術很難在校園這類敏感場景中順利落地應用。
百度、京東的兩位企業代表一致認為,“敏捷治理”的核心是“邊發展邊治理”——既要推動技術快速迭代,也要實現更具針對性、更高效的治理,確保治理節奏與發展步伐同頻同步。同時,兩位代表還結合企業自身的開發與服務實踐,介紹了人工智能安全治理的具體做法與措施。
百度首席技術官、深度學習技術及應用國家工程研究中心主任王海峰表示,百度已將人工智能安全治理貫穿于技術研發到落地應用的全流程,既有模型安全保障,也有外部安全屏障。在源頭環節,會對數據進行嚴格篩選,從根源上規避安全風險;即便數據經過篩選無虞,模型仍可能出現“幻覺”現象,團隊也針對性開展研究,著力優化幻覺抑制。進入應用層面,會考慮到不同產品的特性搭建獨立的安全保障體系。此外,團隊還從多角度深入研究AI安全領域,例如專門開展防偽技術研發等。
京東集團高級副總裁、探索研究院副院長何曉冬認為,AI安全治理至關重要,京東主要從三個層次構建安全防護體系:第一,源頭數據防護,公司內部建立了嚴格的數據安全保護機制;第二,生成內容標注,在AIGC時代,針對生成式數據制定了新的規范,比如京東直播中會對AI生成內容進行清晰標注;第三,敏感內容監測,對AI生成內容的敏感性進行持續跟蹤監測。
圓桌交流環節上,“人工智能創新與治理——共建可信共生人工智能未來倡議書”發布,倡導構建“安全可信、創新共生、包容普惠”的人工智能發展新生態,確保技術進步與人類福祉同頻共振。