编辑 | 苏建勋
本周可以说是大模型领域的又一次激战——前有谷歌和OpenAI的相互偷袭,海内也不甘掉队。
一贯低调的字节AI,全面出击。5月15日,火山引擎在每年例行的“原动力大会”上,从基座模型到上层运用,都抛出了一系列更新。
△来源:火山引擎
首先,品牌名称统一了。原来的“云雀”大模型,如今改名为“豆包大模型”。火山引擎乃至搬出了“豆包大模型家族”的名头,包括基座模型在内,豆包一口气推出了共9款模型。
和友商多尺寸、全性能的“大而全”路线,豆包的基座模型思路更简炼一些。
个中,豆包主力模型分为通用模型pro和lite两个版本,分别适配不同用户的利用需求。
除此之外,还有7款功能性模型,涵盖角色扮演、语音识别、语音合成、声音复刻、文生图等方面。
△来源:Dreamina
除了根本模型,火山引擎还放出了这一年的成绩单:
目前,豆包大模型日均处理1200亿Tokens文本,天生3000万张图片。
“豆包App”是字节跳动重点投入的大模型运用,同样基于豆包大模型构建,这是海内AI运用的“顶流”。火山引擎表示,在苹果App Store和各大安卓运用市场,豆包App的下载量在AIGC类运用中排名第一。
据字节跳动产品和计策副总裁朱骏透露,豆包上已有超过800万个智能体被创建,月度生动用户达到2600万。
此外,字节也不改“App工厂”的本色。过去一年里,除了主打的豆包App外,字节跳动还基于大模型,推出了互动娱乐运用“猫箱”,以及星绘、即梦等AI创尴尬刁难象。
△来源:火山引擎
基座模型的“地板价”,还能再降
在发布会中,火山引擎可以说是胸有成竹。这表示在,在展示豆包模型家族的时候,火山引擎乃至没有提及多少参数、性能干系的信息,而是一上来就亮出价格:0.0008元/千Tokens。
这可以说是一个“地板价”。
以OpenAI发布的全新模型GPT-4o为例,GPT-4o的价格已经来到输入5美元 / 百万 Token(约为0.035 元/千tokens),输出15美元 / 百万 Tokens(0.1元/千tokens)。
而海内的大模型厂商,均价在0.12元/千Tokens旁边——豆包大模型的价格,比上述的模型都要便宜很多。
“大的利用量,才能打磨出好模型,也能大幅降落模型推理的单位本钱。据火山引擎卖力人谭待表示,按现在豆包大模型在企业市场的定价,0.8厘就能处理1500多个汉字的价格,比行业便宜99.3%。
△直接点名友商价格 来源:火山引擎
他还强调,这次贬价是豆包的主力模型贬价,而不是用小模型贬价来稠浊视听。以豆包通用模型pro-32k版为例,模型推理输入价格仅为0.0008元/千Tokens。市情上,同规格模型的定价一样平常为0.12元/千Tokens,是豆包模型价格的150倍。
这也意味着,大模型行业从“以分计价”到“以厘计价”的时期。
为何能够做到大幅贬价?“一个是我们能够做到,第二是我们须要这么做。”谭待表示。
一个缘故原由在于,从ChatGPT爆发到现在,如今基座大模型已经进入了稳定迭代的阶段。无论是在模型演习和推理利用上,都还有长足的优化空间,本钱低落得很快。
就以火山引擎为例,谭待表示,在演习上,豆包的模型构造做了不少优化调度;而在模型工程上,比如以前利用的是单机推理方法,如今豆包采取的是分布式推理——可以理解为,不同的AI打算需求可以用底层的不同芯片来进行处理,从而让算力效率大幅提升。
在会后的采访中,谭待表示,0.0008元/千Tokens“并不是一个意在‘打价格战’的价格”。作为字节跳动To B的主要的载体,火山的定价会遵照正常的商业逻辑,亏钱补贴,并不能换来长久的商业互助。
现在,AI运用市场仍在发展早期,之前的大模型利用价格还是太贵,明显制约了运用的发展,这也是模型厂商贬价的缘故原由所在。
就以海内市场情形来说,字节的豆包App已经是第一梯队的AI运用,但2600万月度生动用户,也还远未达到“杀手级运用”的级别。“大模型领域远未到竞争激烈的阶段,大家都很早期。”谭待说。
QuestMobile数据显示,截至今年3月,基于大模型的AIGC行业用户量为7380万,只管同比增长了8倍,也仅占移动互联网用户量的6%。
从其他玩家的动作来看,阿里云和腾讯云在2024年Q1都宣告了一波大贬价,但紧张针对的还是CPU为主的通用算力,AI干系的GPU算力价格贬价不多。
相较之下,字节并不是海内唯一打“贬价牌”的厂商,但却是对AI算力贬价强调最多的。这个中的潜在缘故原由是:作为云打算市场的后起之秀,字节对AI所带动的增量需求也更加渴求。
此时,选择用低价来降落用户利用AI的门槛,覆盖更多市场,也是情理之中。
而可以预见的是,在今年,海内基座大模型的贬价趋势还会持续。推理侧本钱还有巨大的低落空间,国产模型厂商实在有不少技能储备。
比如,近期一个值得关注的是,海内私募量化巨子“幻方量化”发布的Deepseek大模型第二代,就基于构架创新大幅降落推理本钱,把API定价直接打到了竞品的1/10乃至1/100,每百万token的输入仅需1元。
“豆包”更像人了,To B落地加速
不谋而合地,今年大厂所发布的To C运用,已经越来越像“人”。这背后透露的信息是:AI助理,正在以比我们想象中更快的速率向我们走来。
本周的几场大厂发布会都是如此。先是OpenAI发布的GPT-4o,对话已经险些没有延时——用户可以随时打断、随时接话,犹如电影《Her》中的超级人工智能,它乃至能通过“看”和“听”,判断用户的感情、状态,给出回应。
而在昨天的谷歌发布会上,Project Astra作为谷歌首个AI Agent产品,可以基于手机摄像头、实时语音做交互,还拥有“影象”,意味着和人类的交互能够更加深度。
在火山引擎这场发布会上,豆包App所释出的信息,也多有共通之处。
字节产品和计策副总裁朱骏就表示,“我们为豆包这类产品定义了三个产品设计原则,第一条便是“拟人化”。为了让产品更像人,豆包团队在大模型的ASR和超自然的TTS音色高下了不少功夫,只管即便做到类似和真人对话的觉得。
他以生活场景举例,在“五一”假期,豆包就真的像朋友一样,陪伴他去旅行——在旅途中,豆包不仅根据恐龙博物馆、自贡井盐的形成供应了详细讲解。在饭桌上,被问到“怎么剥皮皮虾”,豆包不仅回答了问题,还同时推过来一个抖音视频——让他直不雅观地看到了剥皮皮虾的技巧。
不过,就如今国产模型的进度来看,如今展现的能力,只是AI智能体的第一步。
“大模型的能力目前很多维度上让人惊叹,但也在很多维度上有缺陷,同时又在快速演进,每隔三个月、半年都会发生很大的变革。”朱骏表示:“去年,去年上半年大模型回答问题时10道题可能错6道,但到了今年,幻觉就已经大幅降落,再合营搜索引擎做知识增强,已经达到可用状态,当然,后面提升的空间还非常非常大。”
如今运用落地更多的,还在B端。
随着“豆包模型家族”的亮相,现在的字节的AI版图已经颇具雏形:火山引擎卖力基座模型、开拓者生态的构建。原来的To B做事,也是如今输出AI做事的抓手。同时,这个基座也支撑着字节内部的浩瀚AI运用成长。
从原有的To B做事来看,火山引擎在大模型运用上的业务思路,大致可以分为三块:
首先是确定性高、行业天花板也高的场景,比如手机、汽车,这部分火山会和行业互助伙伴一起共创。
其次,对付一些不是特殊清晰的创新方向,火山会作为做事方,支持创业团队来做。
末了,开拓者是火山尤为看重的板块,火山不仅供应成套的AI开拓工具,还供应了高自由度的模型开拓模式,以及垂直场景里须要的功能,比如语音功能的高互动、低延迟等等,字节都有上风
在本日的发布会上,火山引擎就分别成立了手机、汽车两个生态同盟。汽车领域的互助伙伴包括吉利汽车、长城汽车、捷途汽车、赛力斯、智己汽车等20余家厂商。
而在手机领域,火山引擎的推进速率更快。大模型做事已经悄悄进驻到不少互助伙伴的产品当中,比如OPPO小布助手、光彩聪慧办公智能助手、小米“小爱同学”,以及华硕条记本电脑的豆叮AI助手等等。
以Oppo的小布助手为例,在和豆包大模型互助之后,通过业务数据精调+Prompt,Oppo构建了多个垂域大模型,真正让仿照口试、英语传授教化、情绪陪聊等场景达到可用状态。
在更广泛的企业场景里,火山的大模型做事,已经迅速让AI从POC(内部试点)阶段,走到真实的生产系统里。
一个范例例子是智能驾驶、智能座舱的交互。传统的自动驾驶方案里,人类和汽车的交互还是会有延迟、听不准的情形涌现。
但在汽车搭载了豆包lite大模型后,汽车厂商可以在低延迟下实现对话,支持闲聊、搜索、娱乐、导航、车控等多个座舱智能助手场景,效果要比传统语音处理高达50%以上。
△搭载大模型的车机系统,讯问附近美食,会自动推送相应的抖音视频 来源:作者拍摄
而在字节内部,在过去一年,字节已经有50多个业务大量利用豆包进行AI创新,包括抖音、头条、番茄小说等多个产品。
接下来,火山引擎还会连续拓展企业真个场景。面向开拓者的AI开拓平台“扣子”,在今日就推出了企业专业版,企业版的扣子会供应API、事宜推送、乃至纯代码的接入办法,让开发者能够将AI Bot支配在飞书等办公正台上。
在企业端,现在招商银行、海底捞火锅、超级猩猩、猎聘等企业,已在扣子上搭建了智能体。
超级猩猩的智能体,便是用无代码的办法,开拓了一个约课助手“猩同学的小同桌”,给用户供应个性的健身建议,并且帮助用户约课。
△“猩同学的小同桌” 来源:火山引擎
在会议的展台上,字节也预报了未来的一些新功能——比如,在会场展台就运行着边缘云的Bot,当AI Bot和场馆中的摄像头联动,就可以见告不雅观众,会场中有多少人,以及哪个展台的热度最高。而很快,AI大模型也可以接入到硬件里,比如机器人等各种智能设备。