Deep Seek现象的启示-——运营商所面临的困境

2025-02-06 12:14

作者:马晓亮(中国电信广东公司)

2023年至今,当人们还为ChatGPT的“智力爆炸”惊叹时,DeepSeek以开源之名撕开了AI高墙的第一道裂缝。不管怎么议论, 它已搅动了一池AI春水,看似技术路线的选择,实则暗藏着信息权力、技术权力、资本游戏、地缘政治的剧烈碰撞,进而让全球围观了美科技股暴跌。

从工程开发角度看中美两国模型构建思路

应该说一直到现在,美国仍引领整个信息技术进程,使得美国建立的信息架构成为全世界的标准。最初,在AI模型构建时,也遵循这个规律。模型构建,开发者要考虑各种资源的成本平衡问题,涉及到软件的实现、计算能力、存储能力、网络带宽成本、编程的人工成本及其他。

工程实现,需要根据不同资源的成本差异,设计匹配方案。如果编程人工成本和管理成本高,计算和存储能力的获得相对较低,就会倾向于简单的编程算法去实现,是硬件依赖型算法。如果硬件成本相对高,就得通过更为复杂的编程去尽可能节省计算和存储的硬件资源。实现相同目标的技术路径和方案可以有很多选择,考虑到成本的综合平衡,不能简单地说哪种算法或策略较好。

选择不同的技术方案,也体现不同的文化。我本科是在天津南开读的,电子信息专业;硕士是美国读的,计算数学专业;读完后在美工作一年多,编程工程师;博士又回到国内西电读,电子信息,应该说对中美两国的信息技术架构建设思路都了解。美国在引领信息技术发展的过程中,逐步地形成了他们特定的文化,不关注计算效率最优化,主要关注编程的方便性、简洁性、可读性等。

形成这种文化还有另一个原因:在整个信息技术架构中,硬件公司有行业标准控制能力,拥有更大的话语权。CPU是INTEL等公司生产的,所谓的WINTEL联盟,就是INTEL和微软两家公司形成一种默契,INTEL会说服微软根本不用关注软件的计算效率,交给INTEL解决;微软也乐于关注编程的简单性和用户界面的友好性。在这种文化演变下,计算效率就有巨大的改进空间。人工智能时代,英伟达与OpenAI也有类似软硬件新关系。应该说,所有技术改进,提升计算效率的方法,美国人都知道,甚至大多数都是他们最先提出来的,但由于文化差异,甚至因为商业因素,他们不会去充分利用这些技术,在一定条件下还会人为降低硬件使用效率,这也是DeepSeek可以将模型计算效率提升的可能性所在。

运营商客服AI技术方案选择

这三年,运营商在客服领域大量使用AI技术,随着大语言模型的迅猛发展, AI核心要素(算法、数据和算力)面临新的挑战。不同的垂域AI服务,如何提升细分模型推理输出精度;在BP级数据吞吐场景下,如何避免数据拥塞、加速存取以减少模型推理时长;模型对网络、算力要求几何级激增,如何最优化云网算力资源匹配多任务并行。基于以上问题的工程创新,中国电信取得一定的成果,我所主导的“面向智能客服知识推荐的垂域模型关键技术研发及产业化应用”项目获2024年吴文俊人工智能科技进步二等奖。该项目所选取的技术路线,例如高效训练推理协同模型、异构算力的任务-算力关联匹配方法、云网协同的异构混合算力调度方法等,都近似DeepSeek的技术路径,遵循中国式的“优化编程、减少硬件资源占用”文化。

项目特色及实现路径

1、渐进式知识演化机制:研发带遗忘因子的参数演化算法实现敏捷迭代:①动态知识图谱:构建电信业务变更检测模型,自动识别3大类12小类规则变动。②增量学习框架:采用参数重要性评估矩阵,仅更新12%的关键参数(传统方法需全量更新)。③安全回滚机制:建立模型版本沙箱环境,支持72小时内异常工况回溯。该机制使新业务上线适应周期从14天缩短至8天,规则变更引发的工单错误率下降40%。

2、人机协同增强回路:构建四维坐席能力评价体系(响应速度、解决率、话术规范、客户情绪引导),通过以下方法实现持续优化:①对话过程实时拆解:将优秀服务案例转化为带时空标记的训练样本。②反事实增强学习:生成“如果…会更好”的对比训练数据。③个性化模型微调:为TOP20%的坐席构建专属推理模型。该持续优化闭环,使得座席培养周期从3个月压缩到2个月,金牌座席经验复制效率提升30%。

图1:项目组开展课题研发攻关

图2:项目组自研客服AI大脑(2023年)

实际应用场景及效果

1、客服效率的提升:项目选取广州电信客服场景,结合用户基数庞大和语料数据标准化程度高的优势,构建标准化数据底座,调用中国电信星辰大模型研发细分行业模型,实现垂域数据治理与业务场景深度耦合;依托轻量化技术路线突破消费级硬件算力瓶颈,异构调度效率提升15%、成本降低70%;以“资源优化+场景定制”的双轮驱动模式,为行业提供了可复制的AI转型闭环范式。

项目之初,客服工作大量依托人力处理,日均处理3000投诉工单,派单、打单、质检处理效率低且人为出错频发,为解决坐席人员流动高,培训耗时且难以适应电信业务更替频繁的问题,决心建设垂域模型,辅助坐席,落实电话业务问答、知识跟随能力;又伴随着300多话务人员知识问答对算力的极大消耗和初期只有英伟达4090等消费级显卡的困境,以最小的算力完成最大化任务,着手解决本地化算力AI调度问题。至2025年,平台稳定运行三年余,话务员工作效率提升15%,平均每份工单处理时间从20分钟缩减至17分钟,总工单处理能力增长19.7%,工单处理及时性提高11.1%。

2、成本的大幅降低:初期,面临人力成本和算力资源有限的双重挑战,通过研发知识演化机制,人机协同增强等技术,显著降低人力和系统运营成本。

派单人力成本减少了70%,话务运营团队规模缩减了16.5%。同时,借助云网协同的异构混合算力调度方法,我们在有限的硬件资源下实现了任务的高效处理,节省了大量的硬件投资。

3、客户满意度的提升:通过AI技术的引入,客户的整体满意度得到了显著提升。项目实施后,客户满意度上升了3.1个百分点,工单重复投诉率下降了0.7个百分点。

这些成果不仅体现AI技术的先进性,更反映工程开发对客户需求的深刻理解。

图3:项目落地现场

对DeepSeek的几点思考和启示

1、DeepSeek r1并没有显著超越早期模型的智能水平,其最大优势在于训练过程中的成本大幅降低,而并非在智能表现上有质的飞跃。

2、DeepSeek的出现并不意味着中国在AI技术上超越了美国。不过,它在工程设计上的优秀表现为其赢得了竞争中的一席之地。

3、Nvidia在GPU市场的领先地位正面临挑战,随着价格战的到来,市场的调整似乎是不可避免的。尽管如此,Nvidia的威胁并不意味着它将被完全取代,毕竟高端GPU仍然有需求。运营商如何有效规避美国GPU出口限制,更高效运用已有算力资源,成为当前主要任务。

4、DeepSeek是一次经济革命和地缘政治的警钟,它的成功可能影响全球AI产业格局,但它并未解决AI的根本难题。

同时,三大运营商都对基础设施、模型投入了大量资金,却产出有限,算力使用率仅为15%,相当于做了英伟达的囤货商,又面临着算力需求的急速压缩。

DeepSeek崛起不仅是中国AI技术的重要突破,也是全球AI产业格局的重大变化。它带来了成本的大幅下降,给传统AI巨头带来了更大的竞争压力。我们并不惊讶看到,更少的计算就能实现相当或更强大的功能,推理成本下降是人工智能改进的标志。据估计,算法的进步速度为每年 4 倍,这意味着每过一年,实现相同功能所需的计算量就会减少 4 倍。Anthropic 首席执行官 Dario 认为,算法的进步速度更快,可以带来10 倍的改进。例如,就 GPT-3推理定价而言,成本已下降了 1200 倍。需要明确的是,目前,DeepSeek 的独特之处在于最优化实现成本-功能水平,之前的 Mistral 和 Llama 型号阶段性也做到了这一点。

正当 R1 被疯狂炒作时,谷歌刚刚发布了一款更便宜的推理模型:Gemini Flash 2.0 Thinking。该模型比 R1 便宜得多,能够通过 API 为模型输入更大的上下文长度。根据报告的基准测试,Flash 2.0 Thinking 击败了 R1,尽管基准测试并不能说明全部情况。Google 的模式很强大,在许多方面都与 R1 相媲美,但并没有受到任何炒作。这可能是因为 Google 的市场策略乏善可陈,用户体验不佳,且 R1 是来自中国的惊喜。 

没有谁能够在这场风暴中独善其身,不管是这次吴奖的垂域模型构建,或是DeepSeek的破局,再到谷歌Gemini Flash 2.0,都是让AI不再神秘。当开源模型在GitHub上自由流动,个人开发者只关注基础模型的性能和算力要求,用千元级显卡就跑出企业级应用,“技术平权”得到最贴切的诠释。DeepSeek撕开的这道裂缝,永远不会闭合,AI不再是少数人的权杖,而是照亮每个角落的光。

(责任编辑:康玲华)

运营商财经(官方微信公众号yyscjrd)—— 主流财经网站,一家全面覆盖科技、金融、证券、汽车、房产、食品、医药、日化、酒业及其他各种消费品网站。

分享至:
文章关键词:

关于网站