ad1
当前位置: 东南在线 -> 热点

阿里云能靠AI找到第二春吗?

栏目:热点    发布时间:2024-10-06 20:20   阅读量:9671   

作为国内科技行业的风向标之一,2024年的云栖大会在9月19日如期举行。热闹依旧,但主题已有变化。

AI应用,成为了*的主角。

2023年,云栖大会上展示的典型应用场景,还是AI创作故事、生图,以及数字人。到了今年,云栖大会上的人工智能+馆,以及前沿应用馆,挤满了更多各个AI应用赛道的创业项目。

应用深度更广了。走进人工智能馆,只管感受到的,便是细分赛道的成型——阿里云将AI应用以主题划分,包括AI编程、3D/4D生成、AI音乐等等,都有多家创业公司展示已经落地可用的产品。

2024年的“香饽饽”具身智能区,更是齐聚了20多家机器人企业,人头涌动,观众对能翻跟头、推不倒的机器人充满兴趣。

在去年,阿里云喊出的口号还是“要做AI时代最开放的云”,在云栖大会也释放了一系列开源、闭源模型,以及底层云基础设施的更新。

如今,阿里云投入到AI上的力度并未减少,甚至更大。

值得注意的是,接任阿里云一年多的现任CEO吴泳铭,今年是*次在云栖大会上露面。

吴泳铭是阿里在这次生成式AI浪潮中的主舵手。他在开幕式讲话中表示:去年,大模型还只能辅助程序员写简单的代码,今天已经能直接理解需求,完成复杂的编程任务。

“智能涌现”在展会中试用了各类AI应用产品。印象深刻的一点在于,模型迭代比很多人想象得都要快——去年很多AI生图、智能客服等产品,常常受限于模型推理速度而体验平平;到了今年,“智能涌现”已经可以站在展台前,和数字人实时对话、随时打断。

不过,当下的进展离人们期待的AI应用大爆发还有很远的距离。“过去22个月,AI发展速度已超任何历史时期,但依然处于AGI变革的早期。”吴泳铭说,阿里云还会持续不断投入到AI基础设施的建设当中。

大模型还不够便宜,降价远未到头

本次云栖大会上,阿里云旗下的通义大模型家族,发布了通义千问新一代开源模型Qwen2.5,涵盖多个尺寸的大语言模型、多模态模型、数学模型和代码模型,每种模型均有多个开发版本,总计上架100多个模型。

其中,Qwen2.5全系列模型都在18T tokens数据上进行预训练,相比Qwen2,整体性能提升18%以上,支持高达128K的上下文长度,可生成最多8K内容。而最旗舰的Qwen-Max,性能已接近GPT-4o。

代码模型对模型的推理、思考能力有极高要求,这也是OpenAI新模型o1重点提升的能力。有业界人士评价:“Qwen是在Deepseek之外第二个推动编程能力提升的中文大模型,而且数学模型也整合了多种推理方法,这些进展都可以说是国产骄傲。”

2024年的大模型界,依旧经历着共识的震荡。GPT-5的延迟牵动着全球AI界的思绪,业界对大模型进化曲线的质疑,贯穿着这个夏天,一直到OpenAI发布新模型o1,推理、思考能力有了质的提升,这种情绪才稍有转向。

今年云栖大会计算馆里挂着的标语“AI是云计算的第三次浪潮”,也有了更坚实存在的理由。

不过,国内从5月开始的大模型降价潮,引起的争议尚未平息。有观点认为,行业发展早期,过早降价,这是无意义的内卷行为,反倒会伤害市场。

一年多来,通义千问的API,在阿里云百炼上的调用价格下降了97%,百万Tokens调用花费*已经降到了5毛钱。百万token,相当于350万字的中文书籍。

阿里云也尝到了大模型的甜头。刚刚过去的Q2季度,AI推动阿里云的收入和利润双增长,季度营收增长6%至265.49亿元,其中AI相关产品收入实现三位数增长,公共云业务实现两位数增长。值得注意的是,经调整EBITA利润同比增长155%,单季度EBITA利润达到23.37亿元。

不过作为云行业领头羊,阿里云表示:现在AI大模型的降价,远远没到尽头。

对比国外,国内如今的降价力度已经十分夸张,不少厂商都选择牺牲短期利润来跟进降价。阿里云CTO周靖人则否认是自家牺牲利润来降价:“模型本身在快速的迭代,过去几个月里,推理的架构、系统的优化都有提升很多,我们能够把各方面效率提起来,才会把技术红利让利给客户。”他说。

这波生成式AI的降价逻辑,和云计算发展早期是类似的。全球范围里云厂商经过一轮轮的降价,不断吸引企业上云、使用云,规模越来越大,让用云的边际成本不断下降,技术不断提升,这才让云行业不断壮大。

但现在的生成式AI浪潮,处在比云计算兴起时还要更早的阶段——现在国内算力市场还是以CPU为主,包括GPU等芯片的制造仍在探索期。

“我们不认为现在的降价是价格战。手机套餐一个月不到200元,可以用数十G的流量,但在二十年前,用这么多流量估计会用破产,”周靖人表示,“今天的价格不存在说已经足够低了,相对未来庞大的应用来说,还太贵了。”

阿里云围绕AI,在基础设施上的建设重构仍在继续。如今,阿里云的单网络集群已拓展至十万卡级别,从芯片、服务器、网络、存储到散热、供电、数据中心等等,都有围绕AI算力层面的更新。

一些利好的信号已经出现。根据阿里云披露的数据,在新增算力市场上,超过50%的新需求由AI驱动产生,AI算力需求已经占据主流地位。这一趋势还会持续扩大。过去一年,阿里云投资新建了大量的AI算力,但还是远远不能满足客户的旺盛需求。

o1给全球AI界续命,也指明中国大模型的不同道路

本届云栖上,吴泳铭抛出的一个鲜明观点是:“AI*的想象力不在手机屏幕,而是接管数字世界,改变物理世界。”

6月的智源大会上,零一万物、创新工场创始人李开复,甚至给今年最火的具身智能赛道泼了一盆冷水:一旦大模型接入物理世界,需要面临包括安全问题、机器问题、机械问题、故障问题在内的各种问题,难度会大很多倍。所以,当前大模型更适合在虚拟世界服务。

但现实并不如人意。从2024年开始,国内前沿的大模型基本都接近GPT-4的水平,模型能力的限制,又让To C端的应用囿于小而美的阶段,超级应用并没有爆发的苗头。更多的产业创新,都先流向了已有的超级应用中,提升存量业务的效率。

吴泳铭的观点,可以看作是对上面这些争论的一种反调。OpenAI的新模型o1发布后,中国在大模型上的发展道路,不会单纯重复上一个互联网时代的发展轨迹,或者说,有可能走出另一条道路。

阿里云已是国内对大模型最激进投入的巨头。在内部,阿里云的通义大模型家族涵盖了开源、闭源的大模型产品,在图像、视频、编程等方向都有细分的专业模型;在外部,阿里云在过去一年多的时间里,已经投资了国内大模型“六小虎”中的五家,出手果决。

如果说前不久OpenAI的o1给全球AI界“续命”,那么对当下的中国AI界,o1让“物理世界”上的赛道,现实意义更大了。

OpenAI将AGI的发展阶段划分了L1-L5的等级。按照这个分类,如今业界普遍认为,我们处于L2(推理者)的早期发展阶段。

生数科技首席科学家朱军就在云栖的圆桌上说,当下的GPT-o1的突破,有望让我们从L2很快达到L3阶段,未来18个月甚至有可能会冒出L4级别的突破。

“o1的突破代表着大模型训练范式的变化——让如今的大模型能够更智能地交互,从过程中去学习。最终都指向两个产业方向,一是数字内容,二是机器人、汽车等实体产业。”朱军表示。

在大模型上,国内相比全球还是追赶、跟随的状态,但在机器人、汽车等“物理世界”的赛道上,中国有着无法比拟的产业链优势——在华东和华南,蓬勃而成熟的制造业给予了可供快速迭代的基础。

“智能涌现”前段时间曾发布具身智能的行业观察,多位行业人士向我们提到了一项共同的判断:人形机器人创业理应在中国发生,而不是大洋彼岸的硅谷——相比之下,中国不仅有更强大的机器人生产能力、也有机器人应用场景,需求供给都比硅谷更强势。

比如,今年5月宇树科技发布的G1人形机器人,售价9.9万起,更是将人形机器人的价格进一步下探,在全球都属于先例。

o1发布后,可以预见这种产业趋势将进一步持续。这次云栖大会上,阿里云就推出了新的智能座舱解决方案,以后汽车AI助理,不仅能观察理解用户的语音、手势,还能根据环境信息和常识判断做出自主决策。乘客无需物理按键,只要动动嘴巴,就能让智能助理完成各种任务。

“生成式AI未来的价值,是移动互联网连接价值的十倍、几十倍。”吴泳铭以互联网浪潮对比:“过去三十年,互联网浪潮的本质是连接人、信息、商业和工厂,提高了世界的协作效率,创造巨大的价值,改变了人们的生活方式。但生成式AI是通过生产力的供给,创造了新的价值,从而为世界创造了更大的内在价值,总体提高了整个世界的生产力水平。”

从“撮合”逻辑走向“增值”逻辑,看到比此前大数十倍的机会,这可以解释如今阿里云对AI的重注从何而来。

进入到生成式AI浪潮的第二年,当下的大模型叙事,经历了共识快速形成、分化,已经成为了一个“信与不信”的抉择,但阿里,显然不愿错过AI时代抓住大爆发的机会。吴泳铭说:“从历史经验来看,人们对新技术革命,往往对短期高估,又对长期低估。但新技术革命会在人们的怀疑中成长,让很多人在迟疑中错过。”

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

来源:投资界    
ad09
ad10
ad08