◎我们的Wang Zhuhua记者在BOAO亚洲论坛2025年会上,人工智能的安全和治理成为重点。随着开源模型的进步,例如DeepSek,以及计算能源成本的指数下降和智能人体技术的快速发展,AI正在从“信息智能”转变为“物理智能”和“生物智能”,但其潜在风险也放弃了全球治理和全球治理和技术社区的深刻关注。 3月26日,许多政府客人,健身房和商业界对“如何促进应用和AI治理之间的平衡”提出了潜在的想法。会议的客人对技术进化和道德挑战的两个维度进行了深入分析。在谈论AI技术的优势进步时,张Yaqin是一所学者中国工程学院Tsinghua University智能产业研究所Tor说:“ DeepSeek是最大,最大的创新。” “符号和联系的深度整合的机会似乎已经到来了。”中国科学自动化研究所的研究人员Zeng Yi说,AI发展中有两种象征意义和连通性的途径。过去,两者未能实现有机融合,但是现在,基于受生物神经网络启发的智能推理机制,逻辑推理资源的深刻整合以及人工神经网络表示的编码已成功实现。他说:“受到大脑神经机制的启发,尤其是创新技术(例如神经路线机制)的创新将成为促进AI开发的关键。”加深了Technoai logia的切割 - 边缘的进步之后,客人将主题转变为我们的风险和挑战。与之紧密相关。人工智能技术正在“一路入侵”,有什么潜在风险?张Yaqin认为,无法控制的风险“至少翻了一番”,尤其是生物智能领域的潜在威胁可以“扩大几次”。他说:“应定义可尼蒙斯体重的红线,例如禁止自我复制。发明技术的人类的智慧也应被指导技术方向的智慧所重视。” “ AI开发应用与安全之间的关系并非相互限制。” Zeng Yi指出,研究团队通过改善大型模型的安全特征(例如道德限制)的实验证明,将不会影响认知能力和AI解决方案能力。 “道德安全应该是开发Largeai模型的基因。作为第一个原则,它不能被排除或违反,并且可以不断发展。” Zeng Yi说,保证基本的POSII posiAI安全性需要集成源技术。面对AI治理挑战,例如预防和控制技术风险以及实施道德准则,各国已经建立了治理的共识?许多客人说,尽管当前的技术发展取得了迅速的进展,但结构仍存在显着差异,但在整体IA的结构上仍然存在显着差异。 “近年来,人工智能治理方面的进展相对有限。” AI治理,一个是负责技术和工业标准的制定,而另一个则负责政策。协调和国际治理职能。从这个意义上讲,这位前原则 - 金融部长Esca Aho认为,AI治理不应信任一个国际组织。它可以从欧盟的经验中学习,以制定移动通信标准并共同创建动态标准政府,公司和科学研究机构。经济合作与发展组织的全球关系与合作总监Andreas Sauer认为:“我们需要开放,不断学习和发展AI治理机构,以及需要参与的多部门,多层助理和更感兴趣的方。”