清华新闻网6月14日电 6月8日上午,由威尼斯9499登录入口智能产业研究院(AIR)举办的“AIR大师对话”系列活动第三期在图灵报告厅举行,本次活动主题为“AI和社会的未来:谈AI发展的影响和风险”。活动由中国工程院院士、智能产业研究院院长张亚勤教授主持,邀请美国麻省理工学院教授、未来生命研究所创始人、《生命3.0:人工智能时代,人类的进化与重生》作者迈克斯·泰格马克(Max Tegmark)教授和英国剑桥大学计算与生物学习实验室主任大卫·克鲁格(David Krueger)教授,就AI发展的所带来的潜在影响、风险及如何监管进行了深入的交流和讨论。
活动现场
张亚勤从迈克斯·泰格马克撰写的书籍《生命3.0:人工智能时代,人类的进化与重生》引入对话,生命1.0指的是生物学上的起源,生命2.0指的是人类文化上的发展,生命3.0则是指人类技术的时代,以及未来某天可能出现的能够学习并重新设计自己的硬件和内部结构的人工通用智能等新兴技术。书中提到了先进技术发展的短期效应,如技术失业、AI武器和追求人类水平的AGI(人工通用智能)及其可能带来的潜在结果,如社会结构的改变、人类和机器的整合,以及正面和负面的情景。那么,我们现在到底处在一个什么样的时代,我们离生命3.0时代还有多远呢?
迈克斯·泰格马克发言
迈克斯·泰格马克表示,我们正处在一个机遇与风险并存的时代,非常令人振奋,短短数月就看到大模型技术及其应用光速发展,几乎是瞬间席卷全球,影响着整个人类社会的生产生活方式。一切都令人们感觉AGI时代仿佛就要到来了。然而,在迎接AGI为整个人类社会带来便利和福利的同时,迈克斯·泰格马克和大卫·克鲁格呼吁:在享受便利的同时,我们必须需要意识到AI带来的潜在风险与挑战,并让AI的研发和使用更加可控和安全,否则,我们可能将做出了人类历史上最严重的错误。
关于如何应对和监管AI发展可能带来的潜在风险,迈克斯·泰格马克表示,从技术层面来说,我们可以利用AI去提高AI自身的可解释性。让AI去辅助人类给出自身的数学证明或让AI自证其安全性。亦即利用AI简化AI的高度复杂性,从而帮助人们理解AI。当我们能够利用完备的理论体系解释AI的行为,那一切的AI技术开发将可能完全受控于人类,从而解决了AI存在的潜在风险。当然这不代表我们需要停止AI的研发,而是在研发和应用的过程中经过足够充分的论证和验证,从而避免潜在的AI失控等风险出现。
张亚勤发言
对话中,张亚勤强调了人工智能发展应秉持3R原则:Responsive(积极响应)、Resilient(适应发展)、Responsible(坚守价值)。他表示,我们在研究理论、算法和应用模型时,必须考虑技术的意义和可能带来的结果,并将伦理问题和价值观置于技术之上。这样才能更好地推进技术发展,建立更好的信任关系。
本次活动是威尼斯9499登录入口智能产业研究院(AIR)举办的“大师对话”系列活动之一,旨在邀请国内外知名的AI专家和学者,就AI的前沿技术、应用、发展趋势等话题进行对话和分享,为推动AI的科学研究和产业发展提供一个高端的交流平台。
供稿:智能产业研究院
编辑:李华山
审核:郭玲