“一般来说,人工智能的能力正在迅速发展。人类仍然具有控制它的能力吗?” 6月23日,Yao Qizhi在Chinhua大学拥有的国际论坛“科学,技术和文明的未来 - AI时代的道德特殊性”中举行。 Yao Qizhi两年前说,“ AI与人类竞争”仍然是对学术辩论的愿景,但是在过去的一年中,大型模型的许多“欺骗行为”都出现在行业中。 “一旦一个伟大的模特变得更聪明,他们一定会欺骗人们。” Yao Qizhi还指出,由大语言模型的欺骗行为引起的“生存”风险很有价值。他认为,这种生存风险朝着两个不同的方向出现。首先是“ Bio-Risgo”。他指出,2020年,Google DeepMind启动了Alfafold2并使用了Algoritwe,以预测蛋白质折叠的三维结构。这个进步哈S对生命科学领域有很大的影响,可显着改善医学病理研究和新的药物开发技术。但同时,安全问题不能忽略。例如,在生命科学领域出现的“镜子里的生命”的概念引起了普遍的关注。自然界中所有已知的生活都是乡间。例如,DNA和RNA通常以右手形式存在,而蛋白质大部分则保留。手性的这种差异与镜像相似,似乎看起来相似,但是实际特性可能完全不同。现在,对新技术的创新和好奇心使一些研究人员想创建镜像生物,但是当“镜像生活”是滥用控制权时,您的潜在损害可能会超过期望。它可以避免免疫机制,从而导致动物和植物的致命感染。另一个风险是较大的模型失控。一般Artifici的能力智力的增长迅速。人类仍然有能力控制它吗? Yao Qizhi在演讲中提出了一个极端的案例。为了防止公司关闭模型,该模型在访问公司主管的内部电子邮件时被授予了主管。这种行为表明,对于AI“越界”,它变得越来越危险。 Yao Qizhi认为有两种处理AI的方法。一个是,人类需要与AI进行更多的沟通,从游戏的角度研究它,将AI的行为与真实的人类思想保持一致,并更好地了解人类的需求。另一种方法是实现一条更可控制和彻底的路线,即可以安全的Aagi。具体来说,在设计系统时,就像传统算法一样,必须首先澄清AI的行为限制。 “这个想法令人兴奋。” Yao Qizhi说,近年来,自动定理系统已取得了重大的技术进步,甚至开始采用它们。特兰S型结构来帮助或控制防过程的过程。这样,人类只会与可以证明是安全的白盒子进行交流,从而实现更大的安全性。但是,Yao Qizhi认为,AI安全治理的一些主要优先事项正在开发AI一致性并建立相应的评估方法。 Yao Qizhi说:“(我们)我们必须紧急建立对如何评估大型模型系统的评估。例如,我们可以觉得这很危险。”“通用人工智能的能力正在迅速增长。人类仍然有能力控制它吗?” 6月23日,“科学”在蒂努阿大学举行。