可达智灵创始人兼CEO张宇:用AI赋能产品研发 将成为所有企业必须面对的课题

来源 | 《财经》新媒体整理   

2025年11月14日 11:39  

本文3404字,约5分钟

11月13日,由太湖世界文化论坛主办,太湖世界文化论坛财富文化发展工作委员会、《财经》杂志、《财经智库》、浙江金融研究院、浙江财鑫传媒承办的“太湖世界文化论坛·钱塘对话”在杭州举行。

可达智灵创始人兼首席执行官张宇在发言中表示,用AI赋能产品研发,这一趋势将会覆盖所有行业,也将成为所有企业必须面对的课题,推动其进一步加快研发速度、降低成本。例如,对一家芯片企业而言,如果没有充分利用AI赋能产品研发,提升迭代速度,提升产品质量,或许便很难在行业里与其他优秀企业竞争。

“这是一个决定性变革的时刻,我已经很难想象两年前那种研发模式在明年会变成什么样,但一定是非常不一样的。”张宇认为,“从今年开始就是非常波澜壮阔的几年,每年都有新的东西,可能每半年都有新的期待,我们一起来见证。”

以下为部分发言实录:

张宇:大家下午好!简单介绍一下自己的经历,我大概做了20年研发,毕业之后去了大唐移动,当时是中国的3G,后面去诺基亚做了6年通讯。2011年的时候,又在亚马逊做了8年。2019年回国做算力,叫DPU芯片,这也是人工智能重点发展的算力的基础。在芯片公司碰到了很多问题,尤其AI大模型起来之后,我们觉得产品的研发,即使是芯片研发这么传统的行业,我们已经感受到有大量的环节,比如产品的定位,产品的定义,软硬件,包含芯片的开发过程,不管是写RTL还是验证,还是软件开发、回版测试,有大量环节是AI可以做到10倍以上的提效。所以我们决定创办可达智灵,并拿到了融资,在国内这个赛道,种子轮估值是过亿的融资,后续半年会再做两轮融资,可达智灵是这样一个方向。

我简单介绍一下为什么要做这个事情?其实有一个数据,直到今年,数字经济已经发展的很蓬勃,我们现场所有的通信、衣食住行离不开数字经济,但有一个数字,其实到今年全世界才有3000万研发人员(软硬件研发),但我们有七十亿人口,其中3000万这些人创造了整个数字经济,我们做AI R&D Engineer(ADE),因为我们认为智能体会强力辅助研发人员做各行业的产品研发,目标是假设如果这3000万研发人员变成一个亿,变成两个亿,我们的数字经济、我们的云、我们的算力,莫总和江总这边的,软件和硬件、整个经济发展速度,以及GDP的规模会变成什么样?这应该是AI R&D engineer大模型赋能各行业场景产品研发非常蓬勃的仅仅开始,2025年是个元年,我们可以看到,在接下来多个行业,这块会有天翻地覆的变化。    

刚才也说智能制造也好,芯片也好,以及金融的软件服务行业也好,接下来很重要的一个场景,在做软件和产品研发的时候,之前是重人力的成本,有些设备,但现在需要把算力、AI模型成本放进去,企业研发成本逻辑会产生巨大变化,这也是我们创始的一个初衷和使命。我们认为在三年后,即使是像我之前做DPU的创业,一家芯片企业如果没有用好AI赋能产品研发,提升迭代速度,提升产品的质量,可能很难在这个行业里和其他用得好的同样的芯片企业竞争。所以AI coding或者AI R&D engineer去赋能企业产品的研发已经不是做不做的事情,而是说如果所有做产品的企业要瞄着三年后怎么样构建核心竞争力,怎么样能够拿到最好的产品研发的ROI,最重要的当下要做的事情就是AI R&D engineer怎么赋能产品研发。    

回到我们的主题,AI在各个场景下的应用,AI赋能产品研发,实际上是会跨越所有的行业,现在大家可能做的比较多是在网站开发,在APP,这是近乎于红海的,接下来不管是智能体,还是我们今年创始时主要做企业级,从几个行业先开始,从芯片、金融、包括智能制造的客户,有做英伟达电路板,英伟达GPU检测的企业,我们赋能整个产品研发、软件测试、硬件的模拟测试,包括代码生成,包括互联网的相关客户。我觉得AI赋能产品研发在多个场景下,现在已经很难看清三年之后产品的研发真的会变成什么样。今天整体的感觉是每个季度都有一个上一个台阶。   

大模型赋能整个产品研发阶段,其实是所有企业,所有行业都不得不面对的一个课题,而且是一个必做的功课。我们希望可达智灵跟随一些行业,能够更好的帮助全行业客户公司加速研发,降低成本,提升企业产品研发的质量。我做了20年的研发,很深的一个感受,今年是一个决定性变革的时刻,我已经很难想象两年前那种研发模式在明年会变成什么样,但一定是非常不一样的。    

这就是我的分享。      

颜阳:我有两个问题,我们在做AI赋能研发的时候,你们的团队做研发的有多少人?

张宇:目前我们大概是20多个人,还在快速增长,除了行政和财务,其实他们y也在大量用AI。我们的产品80%到90%都是用AI辅助生成的,当然我们研发搭了架构,把它拆成块。然后我们就是我们自己的客户,形成闭环开发和使用。    

颜阳:第二个问题,你们找的场景是做垂类的coding?   

张宇:不能说垂类,不同的行业有不一样的特性,比如智能制造,要交叉编译,有软件和硬件结合,和编网站不太一样。我们优先从几个行业开始,这个行业有KnowHow,但产品相对是通用的,如果软件可能是C++、JAVA,如果是硬件RTL这些开发,所以研发的产品是通用的。    

颜阳:通用的AI coding已经不太远了?    

张宇:2025年是非常蓬勃和火爆的一个元年。

颜阳:张总谈到一个问题,当我们进入到原生AI过程中,最基础的部分算力显得特别重要,我们进入到大模型时代,实际上是强行把以前的基础设施搬到现在AI大模型上面来,冯·诺伊曼架构模式相对来说体现的淋漓尽致,什么问题呢?每一个环节哪怕影响一毫秒加起来都是不得了,在算力层面,张总也做了很多努力,包括DPU,这部分带来的场景又是怎么样呢?   

张宇:算力方面是人工智能的基础,甚至是整个数字经济的基础,算力分成三个方面:一是计算,二是存力,三是运力,有交换机、路由器,现在大家看国内外的大型数据中心,万卡互联,千卡互联,GPU要互联,这是DPU最主要的方式,从网卡增强功能演化成DPU。整个数据中心的算力中心,基本上是以这三颗芯片为主,CPU、GPU、DPU。    

大家知道英伟达的核心壁垒是GPU,软件公司上面有CUDA生态,实际上英伟达另外一个很强的壁垒就是它的互联DPU,它的DPU和NVLink都是全球最厉害的公司,当然它是通过收购的,是很划算的,当时觉得挺贵,现在回头看是很划算的一个收购。英伟达一家公司GPU、DPU和CPU都做。国外的算力芯片大型企业,英伟达、AMD、Intel、博通CPU、GPU、DPU都做。英伟达在过去二三十年时间里一直在讲Accelerated Computing,这就是一个核心,我们的算力架构已经从传统的以CPU为中心,现在基本上走向人工智能以GPU为中心,再加上互联DPU,再辅助CPU为中心,确实是促进了整个算力的核心承载中心,所以我们才有英伟达八年1000倍的算力增长,才可以说有这么多摄像头去处理,才有足够便宜的算力让我们的生活便捷度提高。这些本质上是怎么用更少的电或者能源来生成更多的计算,所以DPU承载了这样一个互联的使命。    

多说一句,整个算力的发展其实是人工智能这几年得以爆发,所有的Scaling Law能够存在的基础。展望未来几年,前一个论坛在说泡沫,泡沫很大的一部分,包括国内的这几年的算力投入,都是重金砸向算力,本质上是让算力更便宜,但整个数字经济承载是于这些算力之上的,GPU、CPU、DPU就是这样一个联合的基础。

颜阳:从AI涉及到的数据、算法和算力,假如三选一你选哪个?    

张宇:它是一个循环的过程,人工智能有很长的过去但有很短的历史,因为人工智能已经70年了,算法存在了蛮长时间,但算力起来之后人工智能才从2012年有了AlexNet,才有2022年有了爆发。这里有两点:第一,有了算力以后才能产生更多数据,才能处理更多数据。有了数据和算力,才能有算法,才能更大规模的演进和更大规模的算法更快的迭代,所以我觉得很难选,如果让我选,因为我做过算力,所以我选算力,但我觉得这是以偏概全。

张宇:很喜欢的一句话就是说,可能工业革命是批量生产了体力,人工智能这一波可能是批量生产了智力,所以我们坐稳,从今年开始就是波澜壮阔的几年,每年都有新的东西,可能每半年都有新的期待,我们一起来见证。