數字化浪潮席卷全球,人工智能正以前所未有的廣度與深度融入經濟社會,成為推動社會進步的重要力量。然而,隨著AI在各領域的廣泛應用,由其引發的安全、隱私和倫理問題也逐漸浮出水面,成為社會各界關注的焦點。而在2026年的政府工作報告中也提出,要完善人工智能治理。
2026全國兩會期間,全國人大代表,海爾集團董事局主席、首席執行官周云杰帶來4份建議,內容涉及新型工業化、人工智能、人口老齡化、科普教育等領域。針對人工智能治理這一熱點,他提交了《關于應對人工智能應用的安全、隱私和倫理等挑戰的建議》,從標準體系、技術源頭、治理生態三大維度提出解決方案,呼吁為人工智能高質量發展系好“倫理安全帶”。
直面挑戰:智能時代的“三重隱憂”
中國互聯網絡信息中心發布的第57次《中國互聯網絡發展狀況統計報告》顯示,截至2025年12月,我國生成式人工智能用戶規模達6.02億人,普及率升至42.8%。人工智能在制造、家居、金融、醫療等多個領域實現深度應用,但技術爆發式增長背后的安全、隱私與倫理挑戰也日益凸顯,成為制約產業健康發展的關鍵瓶頸。
周云杰認為,AI帶來的不僅是技術迭代,更重要的是深刻的社會系統重組,其關鍵不在于“用不用”,而在于“怎么用”。他在調研中發現,AI應用的具體挑戰體現在技術、場景、體系三個層面:
在技術層面,存在技術濫用與責任主體缺失的問題。自動化決策、生成式人工智能等技術的濫用,已催生出網絡詐騙、知識產權侵害等社會問題。此外,在自動駕駛、醫療機器人等物理交互場景,算法的安全容錯率極低,事故發生后的責任歸屬如何在開發者、部署者、使用者之間界定,成為法律與倫理的真空地帶。
在場景層面,全球文化差異與行業多樣性增加治理復雜性。不同國家和地區在價值觀、倫理道德、法律制度上存在顯著差異,導致人工智能的合規側重點和應對策略各不相同,跨國企業人工智能全球應用面臨文化沖突和合規挑戰;不僅如此,不同垂域行業對人工智能的風險容忍度、合規要求、透明度等也存在差異,例如,醫療行業重視隱私與準確性,單一的技術方案和治理模式難以適配所有業態。
在體系層面,人工智能治理體系適配性與協同效能不足。在供給側,基礎模型原生可信體系設計不完善,對于倫理、幻覺、對抗、價值觀、可解釋性等模型原生防護能力不足;在應用側,不同產業業態倫理風險差異明顯,缺乏細分領域差異化監管標準;在治理側,跨部門、跨領域治理協同難度大,人工智能的復合型人才短缺,難以有效支撐人工智能創新發展。
三維共治:系好人工智能“倫理安全帶”
人工智能發展不能脫韁,行業應對的核心在于“以治理促發展、以可信促基石、以生態謀共贏”。為此,周云杰提出三點建議:
一是健全人工智能標準體系,明確多元治理責任。建議由國家網信辦牽頭,聯合工信部、科技部等相關部委,建立分級分類、風險導向的管理體系,鼓勵重點行業聯盟牽頭制定垂直領域的安全與倫理專項標準及實踐指南,通過柔性立法與動態標準,既守住合規底線,又為創新留下空間。
二是強化技術源頭防控,推動供給側原生可信能力建設。建議由科技部、工信部牽頭,聚焦安全左移、原生可信的理念推動基礎模型原生合規能力建設,集中力量重點突破幻覺治理、深度偽造鑒別、對抗攻擊防護、算法可解釋性等核心防護技術,打造原生可信的基礎模型。
三是構建共治生態,試點建立“監管沙盒”并強化行業自律。建議在人工智能產業聚集區,選取金融科技、醫療、智能汽車等領域,聯合開展“監管沙盒”試點,小范圍測試并觀察風險、迭代規則,探索包容審慎的監管新模式;同時,指導成立由龍頭企業發起的“倫理治理聯盟”,形成政府監管、企業自律、社會監督、公眾參與的多元共治良性生態。
唯有筑牢倫理底線,人工智能才能真正成為構建“有溫度的智能社會”的積極力量,推動社會穩健步入一個人機和諧共生、科技真正向善的美好未來。
青島財經日報/首頁新聞記者 尹為鑒

請輸入驗證碼