CLM2024:走出中国大模型探索之路,大模型的下一步

作者 | 瑾瑜 编辑 | 蒋诗舟  

2024年06月20日 20:17  

本文3066字,约4分钟

在人工智能的宏伟叙事中,大模型的探索之路正成为AI前沿的核心篇章。

6月18日至19日,在中国中文信息学会主办的首届中国大模型大会(CLM2024)上,中国工程院院士高文、香港科技大学副校长、欧洲科学院院士郭毅可教授、中国工程院院士方滨兴和多位知名学者专家,立足自身研究经历和成果,从不同角度为中国大模型的探索之路提供了深刻洞察和宝贵建议。

“中国人工智能一定要有自己的大模型”

“中国人工智能一定要有自己的大模型!一定要重视稠密中文的语料,一定要多样性。”高文院士在大会开场报告中表示,并特别强调了数据规模质量对模型性能的重要性。

据他介绍,鹏城实验室作为中央批准成立的网络通信领域重点新型科研机构,主要聚焦战略性、前瞻性、基础性重大科学问题和关键核心技术研究,目前实验室已建设完成了一个云脑平台,一个开源社区,开发了一个脑海系列大模型。围绕科技基础设施建设,“鹏城云脑Ⅱ”基于自主可控的国产AI芯片,采用高效能计算体系结构,成为国内首个全面自主可控的E级(即百亿亿次)智能算力平台。目前云脑Ⅲ正在建设,在云脑Ⅱ的基础上又进行了大幅升级,这一“算力+运力+存力”高度融合全栈自主的智算平台,既有芯片本身的创新,也有网络和体系结构方面的创新,目标是可以支撑万亿级大模型的训练,特别是多模态大模型的训练。启智开源社区,则是一个包含了大量人工智能训练的软件,模型的开放开源社区,希望把更多资源汇聚到这个多元生态平台。

高文表示,大模型之路已经从语言大模型向“多模态”大模型跨越,中国人工智能需要自己的大模型底座来承载中文语料和中国历史的文明传承。他呼吁行业内外合作,助力国产自主创新的大模型生态发展,共同推进中国大模型事业。

在国内自研大模型领域,清华大学唐杰教授展示了团队自研GLM模型在文本、图像、代码理解和生成方面的应用。

“我们的GLM模型与GPT模型等有不同,GPT是Autoregressive,Bert是自编码,T5是编码器、解码器,GLM本质上是自编码,加上了填空。这样变得可以既有效率又有训练精度,经评测准确性跟GPT差不多,某些特定条件下会表现更好。”唐杰介绍说。

对于未来的思考,唐杰提出了团队要尝试做的几件事,一是原生多模态的基座大模型;二是超级智能和超级对齐,强调了让模型实现自我反思、自我学习和自我矫正的意义。“未来有了操作系统,可以把所有的软硬件全部重做一遍。” 唐杰说。

如果大模型是答案,那么它所解决的“问题”是什么

科学的本质是提出问题,而不仅仅是寻找答案。

“如果大模型是答案,那么它所解决的‘问题’是什么?”郭毅可在报告开篇提出了这个哲学性问题。

郭毅可认为,语言不仅是信息的编码,更是思维的边界,也是思维方式的决定因素。当前大模型缺乏主观性和情感意识,在模拟人类思维方面仍处于初级阶段。

大模型若要真正模拟人类智能,应该走出以总结信息为目标的“搜索范式”、以阐述观点为目标的“价值范式”和以发现新奇之美为目标的“创造范式”,使机器能够表达观点、进行争论,并具有创造力。

郭毅可预测,下一步会听会看、会理解会思辨、会表达会行动、具身的人性化语言模型或将是大模型未来的发展趋势。随着大模型朝着人性化、具身智能的方向发展,还可能形成一个新的科学领域——机器行为学。

大模型能够像人一样观察、感知、决策并影响世界,发现新规律吗?复旦大学邱锡鹏教授在其报告中提出了“世界模型”的概念,强调了大语言模型在实现通用人工智能(AGI)中的潜力。他提到,尽管大模型在模仿学习和知识转移方面取得进展,但仍存在预测和处理复杂任务的不足。未来,通过在大模型上增加多模态能力和Memory机制,将大语言模型向“世界模型”转变,可能实现更深层次的观察、交互和决策功能。

关于未来AGI之路到底在哪里,多位院士专家在讨论中对大模型的未来持乐观态度,认为它是实现AGI的重要途径,未来人工智能有可能在多方面超越人类,但也一致认为实现这一目标仍面临巨大挑战。

大模型的晴朗天空,还有几朵乌云

当年开尔文说,物理学的大厦已经建成,但是物理学明朗的天空还有两朵乌云,一朵与黑体辐射,一朵是迈克尔逊-莫雷实验,结果两朵乌云导致了革命,一个就是相对论,还有一个是量子力学。在大模型晴朗的天空,现在也飘着几朵云,比如数据和算力的限制就是当前面临的两朵“乌云”。郭毅可如是说,算力算料(数据)的资源大战,反映了当前人工智能发展的现实挑战,需要新的思维方式和方法来克服。

除了算力和数据,在方滨兴院士看来,大模型的天空,还有另一朵云,那就是“安全”。

随着大模型能力的不断增强,如何在保障伦理和隐私安全的同时,发挥大模型的最大潜力?如何在全球范围内建立合作与治理机制,以确保AI技术的健康发展?这些问题不仅涉及技术层面的创新,更触及到社会、文化乃至哲学的深层次议题。

随着大模型能力的迅猛发展,其潜在的风险和不可控性日益引起人们的广泛关注。

“国际社会对大模型潜在风险曾提出警告,并总结了大模型生成的内容应该符合HHH标准。第一个H就是有帮助的,它提供的信息始终要对人有帮助。第二H是客观的,你传达的信息一定要准确、客观。第三个H就是没有任何伤害行为的,也就是说不会伤害人类的。什么时候人工智能出现危险呢?就是我把它叫做‘智能行为体’,当这个人工智能和行为体合在一起,这个行为体具有能量、具有攻击力的时候,这时候你要关心它的安全问题了。”方滨兴分析。

大模型HHH标准不仅体现了对大模型技术性能的要求,更强调了其在伦理和社会责任方面的考量。

当前,如何确保大模型风险可控已成为全球共识。大模型的安全管理是确保其健康发展的关键。对此,方滨兴提出了“大模型保险箍”的概念。他认为当前虽然已经有了价值对齐、安全备案、毒性检测、道德伦理圈等手段,但由于人类价值观的普遍性与差异性、稳定性与演进性难题,迫切需要构建大模型价值管理的新模式。

充满艰辛,更充满希望

从文本到图像,从声音到行为,大模型正逐步扩展其在模拟和理解人类认知过程中的作用,预示着一个全新的人工智能时代的到来。

近年来,随着科技实力的不断增强,我国推动大模型技术的研究创新与应用方面,展现出前所未有的活力与潜力。

中国拥有庞大的数据资源、丰富的应用场景和活跃的研究氛围,为大模型的创新与应用提供了肥沃的土壤。政府对科技创新的重视,为大模型的研发提供了强有力的政策支持和资金投入。同时,中国在5G、云计算等基础设施建设上的快速发展,为大模型的运算和部署提供了坚实的基础支撑。

每一次科技创新的飞跃,都将点亮人类文明的星空。

我们可以更乐观地展望,大模型的下一步将在理解、学习、推理和创造等各个方面实现质的飞跃,它们将更加深入地融入我们的生活和工作,成为人类智慧的延伸和伙伴。在不远的将来,随着大模型技术的成熟,AI将更加深入地与人类协作,助力解决当今世界面临的诸多挑战,从气候变化到医疗健康,从经济发展到社会治理,为人类社会带来深远的影响。