2025上合组织论坛 周鸿祎建言AI安全应对与柔性监管
2025上合组织论坛 周鸿祎建言AI安全应对与柔性监管
2025上合组织论坛 周鸿祎建言AI安全应对与柔性监管5月29日,以“智汇中国 智惠上合”为主题的2025中国—上海合作组织人工智能合作论坛在天津举行。360集团创始人周鸿祎受邀参加“安全风险(fēngxiǎn)与监管(jiānguǎn)治理”议题交流时表示,人类在享受AI带来(dàilái)的巨大机遇时,也必须正视与之伴生的安全风险与监管挑战。他提出(tíchū),一方面,应“以模(mó)制模”,利用安全大模型解决大模型安全问题;另一方面则(zé)应以辩证、客观的态度看待监管问题,力求在保障安全的前提下,为创新预留(yùliú)足够空间。
周鸿祎在发言中表示,从现实应用层面来看,大模型面临着传统安全威胁与(yǔ)AI自身安全隐患的(de)双重挑战,这些问题已成为制约AI产业健康发展的关键瓶颈,亟待(jídài)系统性解决方案。在传统安全风险方面(fāngmiàn),系统漏洞(lòudòng)与供应链攻击成为AI领域的“心腹大患”。一旦漏洞被攻击者利用,企业的核心商业机密、用户敏感数据等将面临被窃取的风险,可能给企业带来(dàilái)难以估量的损失。
而AI自身的安全问题同样不容忽视。大(dà)模型存在的“幻觉”现象,以及易遭受(zāoshòu)提示(tíshì)注入攻击等特性,可能导致严重后果。特别是众多企业基于(jīyú)大模型构建了能够自主工作的智能体,这些“数字员工”具备调用各类工具的能力,一旦大模型被恶意操控或出现“幻觉”,智能体可能出现误发重要邮件、错误操作致使生产线停摆等误操作,将风险从(cóng)虚拟世界传导(chuándǎo)至(zhì)现实生产生活中,传统的安全防护手段在这些新型风险面前显得捉襟见肘。
周鸿祎提出,必须以创新思维重塑安全体系,“以模制(mózhì)模”成为破局关键。所谓“以模制模”,即利用人工智能技术自身的优势,通过安全大(dà)模型(móxíng)赋能数字安全,实现安全防御的智能化升级。据了解,360依托10年300亿元的技术投入成果(chéngguǒ),结合(jiéhé)20年来积累的海量(hǎiliàng)安全大数据,以及世界(shìjiè)顶级安全专家的丰富(fēngfù)经验,训练出专业的安全大模型,并形成完整的安全解决方案。目前,该安全大模型已成功应用于政府、能源、金融、教育等关键行业,为其筑牢AI安全防线。同时360牵头成立大模型安全联盟,联合科研机构(kēyánjīgòu)、高校和行业头部企业,共享技术成果,共同研发安全产品(chǎnpǐn)与服务,携手推动AI安全有序地融入各行各业。
而在监管治理层面,周鸿祎指出,合理有效的监管是人工智能产业(chǎnyè)健康发展的重要保障。当前,全球(quánqiú)各国纷纷出台AI监管政策,旨在规范技术应用、防范潜在风险(fēngxiǎn)。然而,人工智能技术发展日新月异,其优势与局限(júxiàn)并存,这就要求监管部门以辩证、客观的态度看待,在保障安全的前提下,为创新预留(yùliú)足够空间。
以大模型的“幻觉”问题为例,这一特性虽可能导致信息偏差(piānchā),但同时也赋予大模型创造力(chuàngzàolì)和(hé)想象力,在科研领域,如新药分子结构设计、蛋白质结构预测等(děng)方面发挥着积极作用。周鸿祎认为,可借鉴互联网早期发展的“避风港原则”,在AI监管中采取柔性(róuxìng)治理策略具有重要意义。即在坚守安全底线的基础上,对企业因技术特性导致的一般性失误给予一定(yídìng)宽容度,以鼓励创新(chuàngxīn)。通过制定统一的技术标准和监管框架,明确规则(guīzé)边界,引导企业在规范内积极探索创新,避免因过度监管抑制产业发展活力。

5月29日,以“智汇中国 智惠上合”为主题的2025中国—上海合作组织人工智能合作论坛在天津举行。360集团创始人周鸿祎受邀参加“安全风险(fēngxiǎn)与监管(jiānguǎn)治理”议题交流时表示,人类在享受AI带来(dàilái)的巨大机遇时,也必须正视与之伴生的安全风险与监管挑战。他提出(tíchū),一方面,应“以模(mó)制模”,利用安全大模型解决大模型安全问题;另一方面则(zé)应以辩证、客观的态度看待监管问题,力求在保障安全的前提下,为创新预留(yùliú)足够空间。
周鸿祎在发言中表示,从现实应用层面来看,大模型面临着传统安全威胁与(yǔ)AI自身安全隐患的(de)双重挑战,这些问题已成为制约AI产业健康发展的关键瓶颈,亟待(jídài)系统性解决方案。在传统安全风险方面(fāngmiàn),系统漏洞(lòudòng)与供应链攻击成为AI领域的“心腹大患”。一旦漏洞被攻击者利用,企业的核心商业机密、用户敏感数据等将面临被窃取的风险,可能给企业带来(dàilái)难以估量的损失。
而AI自身的安全问题同样不容忽视。大(dà)模型存在的“幻觉”现象,以及易遭受(zāoshòu)提示(tíshì)注入攻击等特性,可能导致严重后果。特别是众多企业基于(jīyú)大模型构建了能够自主工作的智能体,这些“数字员工”具备调用各类工具的能力,一旦大模型被恶意操控或出现“幻觉”,智能体可能出现误发重要邮件、错误操作致使生产线停摆等误操作,将风险从(cóng)虚拟世界传导(chuándǎo)至(zhì)现实生产生活中,传统的安全防护手段在这些新型风险面前显得捉襟见肘。
周鸿祎提出,必须以创新思维重塑安全体系,“以模制(mózhì)模”成为破局关键。所谓“以模制模”,即利用人工智能技术自身的优势,通过安全大(dà)模型(móxíng)赋能数字安全,实现安全防御的智能化升级。据了解,360依托10年300亿元的技术投入成果(chéngguǒ),结合(jiéhé)20年来积累的海量(hǎiliàng)安全大数据,以及世界(shìjiè)顶级安全专家的丰富(fēngfù)经验,训练出专业的安全大模型,并形成完整的安全解决方案。目前,该安全大模型已成功应用于政府、能源、金融、教育等关键行业,为其筑牢AI安全防线。同时360牵头成立大模型安全联盟,联合科研机构(kēyánjīgòu)、高校和行业头部企业,共享技术成果,共同研发安全产品(chǎnpǐn)与服务,携手推动AI安全有序地融入各行各业。
而在监管治理层面,周鸿祎指出,合理有效的监管是人工智能产业(chǎnyè)健康发展的重要保障。当前,全球(quánqiú)各国纷纷出台AI监管政策,旨在规范技术应用、防范潜在风险(fēngxiǎn)。然而,人工智能技术发展日新月异,其优势与局限(júxiàn)并存,这就要求监管部门以辩证、客观的态度看待,在保障安全的前提下,为创新预留(yùliú)足够空间。
以大模型的“幻觉”问题为例,这一特性虽可能导致信息偏差(piānchā),但同时也赋予大模型创造力(chuàngzàolì)和(hé)想象力,在科研领域,如新药分子结构设计、蛋白质结构预测等(děng)方面发挥着积极作用。周鸿祎认为,可借鉴互联网早期发展的“避风港原则”,在AI监管中采取柔性(róuxìng)治理策略具有重要意义。即在坚守安全底线的基础上,对企业因技术特性导致的一般性失误给予一定(yídìng)宽容度,以鼓励创新(chuàngxīn)。通过制定统一的技术标准和监管框架,明确规则(guīzé)边界,引导企业在规范内积极探索创新,避免因过度监管抑制产业发展活力。

相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎