2025年,人工智能领域将迎来一场重大变革。近日,智源人工智能研究院发布《十大AI技术及应用趋势》报告显示,具身智能将成为AI技术及应用的重要焦点,它将AI融入机器人等实体,使它们具备类似感知、学习、交互能力。同时,超级应用的热度也在不断攀升,成为人们日常生活中不可或缺的智能助手。多模态大模型亦在加速突破,将进一步提升AI的应用范围和效果。
这些趋势预示着,AI技术将在多模态整合、智能体应用、合成数据等领域掀起新的浪潮。而随着AI应用持续走深向实,行业大模型将在金融、医疗、教育、零售、能源等多个行业领域实现了广泛应用。据IDC最新公布数据显示,预计到2030年,AI将为全球经济贡献19.9万亿美元,推动全球GDP增长3.5%。
值得注意的是,AI技术的快速发展在带来便利的同时也带来了挑战。深度学习模型复杂性的增加让AI的安全性和治理问题变得愈发重要。如何引入新的技术监管方法,以及在人工监管上平衡行业发展和风险管控,成为了当前行业面临的重要课题。
具身智能、超级应用迎发展元年
具身智能将成为2025年AI技术及应用的重要焦点之一。这一技术作为连接虚拟空间和现实空间的桥梁,将AI融入机器人等物理实体,使它们具备了类似人类的感知、学习和与环境交互能力。人形机器人作为该领域的标志性实体,截止2024年底,国内已发布或者在研人形机器人厂商接近100家,融资规模超100亿元。未来,部分人形机器人有望迎来量产。
相较于传统工业机器人的“固定程序+机械臂”的模式,具身智能机器人实现了“多模态感知+大脑决策”的迭代,大幅提升了智能化水平。目前,银河通用的Galbot机器人已经应用于美团24小时无人值守药房;而智源研究院联合高校院所,建设具身智能创新平台,深化数据、模型及场景验证等研究。
智源研究院副院长兼总工程师林咏华指出,具身智能的研究正由硬件主导转向更高级认知能力的智能系统发展。未来,国内具身智能初创公司或将经历洗牌,技术路线上端到端模型将持续迭代。在商业变现方面则更多聚焦于工业场景下的应用,部分人形机器人将迎来量产。
在全球数字经济的浪潮中,超级应用正逐渐成为新宠儿。从用户规模、交互频次及停留时长等维度来看,AI应用热度持续攀升,已到应用爆发的黎明前夕。在服务类智能体赛道,蚂蚁集团旗下支小宝、蚂小财等系列AI管家产品,正重塑AI产品形态。
在智源研究院行业研究组负责人倪贤豪看来,尽管移动互联网用户增速已见顶,但非网民用户群体中仍存在规模庞大、具备消费能力但因代际原因难以便捷入网的用户。针对这些用户的非现金支付、信息获取、线上服务需求,基于较好的基础模型结合不同能力对应的厂商接口适配,打造满足其需求的超级应用是可行的。然而,如何对接不同厂商完成接口适配、封装成为同样重要的问题,这对厂商渠道建设和运营能力提出了更高要求。
倪贤豪认为,在超级应用的比拼中,大厂因具备成熟的渠道建设能力而更具优势,而创业公司则需从零开始,面临较大挑战。
此外,报告还提及AI在科学研究中的迅速发展。林咏华指出,未来将有更多科研人员利用AI辅助进行复杂研究,特别是在生物医学、气候变化和新材料发现等领域,AI不仅能优化科研流程,还能从海量数据中提取有用信息,为科学创新提供新动力。
AI安全治理体系仍待完善
AI技术的飞速发展在带来巨大潜力的同时,也引发了一系列社会与伦理问题。业内普遍认为,随着AI模型能力的提升,其潜在风险也随之增加,确保AI系统的安全性和可控性成为未来必须面对的重要挑战。
大模型的风险主要包括生成幻觉、隐私敏感数据泄露、价值观导向问题、专业度缺失、伦理问题等。此外,作为信息系统,大模型还面临传统安全问题,如漏洞导致的模型丢失、数据泄露、可用性问题等。长远来看,大模型的不可控性或对社会造成损害,存在被恶意应用和失控的风险。
蚂蚁集团科技战略与执行部副总经理彭晋指出,大模型安全问题主要源于其生成式架构的特性。在海量数据与算力的压缩过程中,信息损失导致生成结果可能出现幻觉,且输入数据的质量参差不齐,存在有害样本和导向性问题,进一步恶化了生成质量。同时,训练过程中涉及的个人信息与版权数据,也引发了治理层面的安全担忧。
此外,AI安全具有“对抗性”特征,这是一种此消彼长的关系。也就是说,当攻击手段增强时,防御手段也会相应提升,因此,在大型模型的安全能力方面,需要不断地提升攻防两端的实力,而采用“大模型对抗大模型”的方法,是一个积极的发展趋势。另外,在安全围栏技术方面,需要确保输入和输出的安全性,降低遭受攻击的风险,通过建立一套完整的策略系统和安全防护组合,推动AI大模型的安全应用落地。
过去一年,国内外在AI模型治理方面做了大量工作。网络安全标准化委员会制定了生成式人工智能服务的要求;OpenAI和Google等也发布了安全措施和模型安全框架;蚂蚁的“倚天剑”安全解决方案,则从模型开发生命周期出发,涵盖语料管理、模型安全性管理、输出管理等环节,为大模型的安全应用提供了有力保障。
“未来大模型安全问题还需关注数据枯竭、合规治理、可解释性等关键点。数据孤岛和算力分离情况下,如何保证数据训练安全,隐私计算、联邦学习等技术的应用至关重要。”彭晋强调,尽管已有法律标准对个人信息保护进行规范,但缺乏实际操作指导,需要进一步细化。从更长远角度看,大模型的可信性,包括可控性、专业性、可靠性、安全性,是实现人机协同的关键,未来还需在更宽泛的领域进行深入研究。