周鸿祎说做自媒体有流量焦虑,今年业界对AI更理性了
360集团创始人周鸿祎来参加2024年世界互联网大会乌镇峰会,从迈入乌镇景区开始,他身边总围绕着一群人,他还给自己安排了至少两场论坛和一场采访。近一年来,周鸿祎成为不折不扣的“网红”,他的抖音账号已经发了1000多条视频。
“前一段时间在抖音上希望流量好一点,偶尔有流量焦虑,会看别人的视频怎么做,一看就到半夜两点才睡,搞得睡眠习惯很不好。”周鸿祎在采访中说。“很多人问我在短视频中胡说八道是不是不务正业,我觉得搞流量不是不务正业,企业家应该用行动为企业发展寻找突破口。” 今日他又在乌镇峰会的发言中表示。
周鸿祎尤其喜欢在短视频中谈AI,他说这是在“絮絮叨叨地科普”。最近,他乐于对外分享的观点是,中国的AI企业更适合走专有大模型的道路,他在乌镇峰会期间反复强调企业不要一味跟随OpenAI的路线。
第一财经记者在乌镇峰会也见到了应用厂商印象笔记董事长兼CEO唐毅,他也在思考通用大模型和专用大模型在商业应用时的差别,他告诉记者,在一些比较垂直专业的场景,专用模型质量会更好、成本更低。唐毅谈到OpenAI的做法和一些AI应用厂商面对落地场景时的实际考虑。总体而言,唐毅发现,业界对AI期待值还是很高,不同的是在今年的乌镇峰会上,大家比去年更务实、客观、科学、理性了。
“不要被OpenAI牵着鼻子走”
AI是本届乌镇峰会的热议话题,在展望AI给社会生产力带来巨变的同时,一些互联网厂商负责人开始划分不同AI发展路径并试图找到其中更适合的路径。
周鸿祎从中美AI企业的差异谈起,他告诉记者,他一直认为中美人工智能发展差距不大,原因是大模型四要素算力、算法、软件、数据中,国内企业与美国企业的差距主要在于算力,也就是差距在芯片上。目前,OpenAI走了AI发展的一条“明线”,也就是通过堆算力、数据、能源、人力做超级人工智能。
“去年我也为人工智能的通用性欢呼,但现在发现通用人工智能最多是把大模型培养到大学(本科)毕业生的水平,而不是专才的博士。GPT-5还做不出来,OpenAI又改做o1,但o1解数学、物理题可以,造航空发动机不行。”周鸿祎对记者说,OpenAI的路线还未证明能走通,且美国也只有五六家公司在走这条路,目前随着自然数据逼近枯竭、开始使用合成数据,这些公司发现效果并未显著提升,Scaling Law(缩放定律)遇到阻碍了。
唐毅也发现,算力和数据“堆高”的路线遇到一些挑战,能用的数据越来越少,Scaling Law遇到问题。在现有模型架构下,大算力、大参数、大数据的路径继续走下去,大模型的回报率在下降。在商业回报层面,大量基座大模型和通用大模型的“账”算不过来,面对这些挑战,现阶段业内正在思考架构算法如何创新、小模型表现怎么样等。
周鸿祎认为,中国厂商更适合走另一条“暗线”,即走专业化模型的道路。这条路线对算力要求不算太高且能落地。谷歌做下围棋的AlphaGo、分析蛋白质结构的AlphaFold、设计芯片的AlphaChip已证明了专业化道路的可行性。中国企业要发挥工业门类多、工业链条长的优势来获取垂直领域数据做专业大模型。周鸿祎称,OpenAI的路径长远看目标正确,但不值得所有公司学习,国内只需由阿里、腾讯、字节、百度这些有实力的大公司跟进。
在数据方面,周鸿祎认为专用大模型相对大参数基础大模型更有优势。OpenAI用大量公开数据训练大模型,几乎把世界上能找到的公开数据都用了,但这些数据不仅逼近耗尽,而且互联网上很多数据质量差。业内近期已重视起知识密度和知识质量,这种高密度、高质量数据在互联网上找不到,但立足于行业,专业大模型更容易获得这些数据。在对算力依赖小的情况,这些高质量数据让专业大模型能力并不差。
印象笔记作为知识管理应用厂商,唐毅关注成本和效用。他告诉记者,公司做的是参数量比较少的专用模型,在数据专业,模型预训练、调优和场景控制好的情况下,训练成本和推理成本的“账”可以算得过来。在考虑调用通用大模型API(接口)还是使用自己的专用模型之间,需要考虑场景需求,在应用场景很垂直、很窄的情况下,自有专用模型质量和成本都会更优。
“考虑要为AI投入多少时,‘账’要算得过来,不能在完全看不到合理投入产出比的时候去投入。除非追求的是AGI(通用人工智能),甚至认为AI未来会替代人类,就像OpenAI,否则一定要在算得清‘账’的情况下去解决用户痛点。”唐毅说。
周鸿祎表示,只要不追求万能大模型,对参数要求就不用那么高。近期国际上已出现一个把参数做小、降低算力要求的趋势,最近他去美国见了很多VC(风险投资机构),发现VC不投通用大模型了,而是投很多专用大模型公司。周鸿祎告诉记者,只要企业不被OpenAI“牵着鼻子走”,走自己的产品化之路,摆脱算力上的压制,做好产业化落地没问题。
“用钱包投票比用眼球投票更重要”
近期一些大模型厂商开始谈论大模型带来的实际效用。在近期的电话会议上,腾讯管理层表示,AI给公司带来了切实的好处,但与一些美国公司的AI收入相比还有进一步发展空间。海外企业已经开始应用AI用于提高业务效率等,而国内相关生态还不算十分活跃,因此公司AI方面的收入比一些美国云服务提供商低不少。
国内AI的需求是否仍不够多?周鸿祎告诉记者,中国企业和消费者对AI的需求非常大,现在感觉需求不大有几个原因。“科普做得不够,很多企业家不了解AI所以不知道怎么用AI,或者提出不合理的要求,希望AI能解决所有问题。”周鸿祎说,在企业中要把场景分得很细,不要期望用一个模型解决所有问题。此外,现在大模型公司宣传上和做法上也有问题,例如大模型宣传偏向提高个人效率,给大家的感觉是能写小作文、拍小视频,偏向娱乐。
“让大模型回答诺贝尔奖最年轻获得者家乡的温度,像这种问题很多同行看了很兴奋,但我问过很多传统企业的老板,他们更想知道怎么解决炼钢时省电等具体问题。”周鸿祎说,大模型要聚焦解决实际问题。此外,还要解决大模型太贵的问题,大模型公司要告诉企业只有一块显卡、两块显卡也能用上AI。
唐毅则告诉记者,作为应用厂商,对AI的投入要考虑到保持前沿不落下,也要避免不惜一切代价冲上去。从实际效果看,公司将AI功能放在收费会员机制上,能看到会员数量上升了,搭载AI功能后效果还不是“从1到10”,但能实现“从1到1.5再到2”的改变。
“到目前为止,业内还没能因为出现一个通用大模型,就出现一个超级应用。我认同的一个观点是不一定要聚焦超级应用,而是要聚焦超级场景,将AI能力嵌入合适的场景中。同时,不要单纯通过投放来获客,有100万用户规模可能还不如拥有1000个付费用户。除了要让用户‘用眼球投票’,更要让用户留得住,并‘用钱包来投票’。”唐毅告诉记者。