gitweixin
  • 首页
  • 小程序代码
    • 资讯读书
    • 工具类
    • O2O
    • 地图定位
    • 社交
    • 行业软件
    • 电商类
    • 互联网类
    • 企业类
    • UI控件
  • 大数据开发
    • Hadoop
    • Spark
    • Hbase
    • Elasticsearch
    • Kafka
    • Flink
    • 数据仓库
    • 数据挖掘
    • flume
    • Kafka
    • Hive
    • shardingsphere
    • solr
  • 开发博客
    • Android
    • php
    • python
    • 运维
    • 技术架构
    • 数据库
  • 程序员网赚
  • bug清单
  • 量化投资
  • 在线查询工具
    • 去行号
    • 在线时间戳转换工具
    • 免费图片批量修改尺寸在线工具
    • SVG转JPG在线工具

月度归档2月 2025

精品微信小程序开发门户,代码全部亲测可用

  • 首页   /  2025   /  
  • 2月
智能体 2月 24,2025

腾讯supersonic 智能助理不太懂您说什么呐,回去一定补充知识 问题解决

使用的是 0.9.10 版本,出现这个原因是在算指标问的自然语言没有匹配到任何语义实体。要注意数据集信息只出现在左边,没有加入到右边是没有任何语义实体的。需要把需要的加入到右边才能被自然语言匹配。

作者 east
面试 2月 22,2025

一年当中,几月份最好找工作

一年中,3月、4月和9月、10月是找工作的最佳时间段,这两个时期被称为“金三银四”和“金九银十”,是求职的两个高峰期。以下是具体原因和特点:

1. 3月、4月:春节后的招聘黄金期

  • 春节后跳槽高峰:春节前后,许多员工会拿到年终奖后选择跳槽,导致企业出现职位空缺,需要招聘新人填补2711。
  • 企业年度计划启动:春节后,企业开始新一年的业务计划,人员需求增加,尤其是日企等财政年度从4月开始的企业,招聘需求更为旺盛。
  • 招聘活动集中:各地会举办大量招聘会,如“春风行动”等,提供大量岗位,求职机会多。

2. 9月、10月:秋季招聘高峰期

  • 毕业季后的补充招聘:9月是大学生集中毕业的时间,企业会进行补充招聘,尤其是针对应届毕业生。
  • 企业年终冲刺需求:部分企业为完成年度目标,会在秋季增加人手,尤其是销售、市场等岗位。
  • 招聘活动活跃:秋季也是招聘会的高峰期,许多企业会通过线上线下渠道发布大量岗位。

3. 其他时间段的特点

  • 年底(12月-1月):由于年终奖和春节假期的影响,年底招聘相对较少,但部分企业会为来年储备人才。
  • 6月-8月:应届毕业生集中求职,岗位多但竞争激烈,尤其是初级岗位
作者 east
面试 2月 9,2025

大数据岗位广州有哪些值得去的公司,面试、薪酬、文化全方位解读

​

 一、互联网巨头旗下的大数据相关部门

腾讯

在广州,腾讯旗下的多个业务部门深度涉及大数据领域,例如声名远扬的微信事业群等。

面试风格:堪称严苛,通常需要经历数轮面试。技术面紧紧围绕代码细节,不仅会抛出算法、数据结构等相关问题,还会结合实际项目询问如何在大数据量下优化性能。比如,针对处理海量用户消息的场景,考察能否设计出高效合理的存储和读取方案。面试官特别看重应聘者对新技术的掌握程度以及学习能力,例如机器学习在大数据分析中的应用等方面。

薪酬福利:极具吸引力,工资水平高,除了基本薪资,还有股票、丰厚的年终奖金等。员工福利也十分出色,食堂饭菜美味且价格亲民,配备各类健身设施、提供免费体检等。

氛围文化:公司文化开放包容,大力鼓励创新,设立了众多内部交流分享会,方便大家自由交流。团队合作氛围良好,不同部门间沟通顺畅。

腾讯微信大数据面试题及参考答案

阿里巴巴(广州分公司)

虽然其核心业务在杭州,但广州分公司也在积极拓展大数据相关业务。

面试流程:较为复杂,包括技术面、业务面以及HR面。技术面主要考查大数据处理框架,如Hadoop、Spark等,并询问如何利用它们搭建高效的数据处理平台。业务面则结合实际业务场景,考察如何从海量数据中挖掘出具有价值的信息,为业务决策提供有力支持。

加班程度:与互联网行业的整体状况相似,业务繁忙时期加班较多,不过阿里巴巴也在努力平衡员工的工作与生活,推行相关政策保障员工的休息时间。

薪酬福利:待遇相当可观,补贴丰富,还具备完善的培训体系,助力员工提升技能,职业发展空间广阔。

氛围文化:内部氛围强调团队合作和客户至上,学习成长机会众多,还有丰富多彩的团队活动,大大增强了员工的凝聚力。

阿里大数据面试题集锦及参考答案(3万字长文:持续更新)

网易

在广州,网易的多个业务线与大数据紧密相关,包括热门的游戏、流行的音乐以及丰富的新闻资讯等业务,均高度依赖大数据分析以提升用户体验。

面试风格:技术面主要考察专业技能,如大数据开发中常用的技术栈,包括Hive、Kafka等的使用,还会深入询问在实际项目中遇到的问题及解决方案。同时,对算法和数据结构的考察也极为深入,例如常见排序算法的时间复杂度分析。此外,会结合网易的业务特点,提问如何利用大数据提升产品的个性化推荐效果。

加班情况:因项目而异,在一些热门游戏项目或重点产品的迭代阶段,加班比较频繁,但网易注重员工的工作生活平衡,会尽量合理安排工作时间。

薪酬福利:薪资处于行业较高水平,除基本薪资外,还有绩效奖金、项目奖金等。福利包括五险一金、补充商业保险、带薪年假、节日福利等,员工还能享受到内部产品的优惠。

氛围文化:公司文化强调创新和自由,积极鼓励员工尝试新的想法和技术,团队氛围轻松活跃,存在众多跨部门的交流活动,有利于员工拓宽视野,了解不同业务领域的知识。

2024年最全网易大数据面试题及参考答案(3万字长文持续更新)

二、专注大数据服务的专业公司

树根互联

作为工业互联网领域的大数据服务领先者。

面试风格:注重考察对工业场景的理解,具备相关行业经验会极大地加分。会询问在工业数据采集、分析方面的经验,比如如何确保工业设备数据采集的准确性和稳定性。

加班程度:情况相对较好,不是典型的高强度加班文化,通常依据项目进度而定,项目紧张时会加几天班。

薪酬福利:薪资处于行业中等偏上水平,福利包含五险一金、带薪年假、节日福利等,还有员工培训和晋升机会。

氛围文化:团队融洽,专注于工业大数据技术的研发和应用,公司鼓励员工持续学习新技术,不断提升在工业互联网领域的能力。

云从科技

在人工智能和大数据结合方面表现卓越,尤其是在计算机视觉领域。

面试风格:技术面主要考察人工智能算法、大数据处理技术方面的能力,例如深度学习算法在大数据量下的训练优化。还会询问对行业的理解,比如计算机视觉在安防、金融等领域的应用场景和发展趋势。

加班程度:视项目而定,重要项目的攻坚阶段会加班,不过公司也关心员工的工作强度,尽量合理安排。

薪酬福利:薪酬有竞争力,会根据员工能力和贡献给予相应回报。福利方面有完善的保险、健康体检、带薪年假等。

氛围文化:浓厚创新,大家积极探索人工智能和大数据的前沿应用,团队合作紧密,不同部门间经常协作攻克技术难题。

三、传统企业转型涉及大数据业务的公司

广汽集团(在大数据驱动的智能网联汽车领域发力)

作为传统车企,广汽在汽车研发、生产、销售等环节投入大量资源应用大数据。

面试风格:会将汽车行业知识与大数据技术结合,比如询问如何利用大数据优化汽车生产供应链,或者通过数据分析提升汽车用户满意度,对拥有汽车行业背景知识的求职者更为青睐。

加班情况:整体加班不算多,遵循正常工作节奏,但在新车型研发的关键阶段,可能会有阶段性加班。

薪酬待遇:良好,拥有完善的福利体系,包括五险一金、补充商业保险、员工购车优惠等。

氛围文化:传统稳健,也积极拥抱新技术变革,鼓励员工在大数据和汽车融合领域创新。

南方电网(在电力大数据分析与应用方面有深入探索)

作为电力行业的巨头,大数据在电网运营、客户服务等方面发挥着关键作用。

面试重点:在于考察对电力行业的了解以及大数据技术在电力领域的应用能力,例如如何通过数据分析预测电力负荷,优化电网调度。

加班情况:相对稳定,一般不会有高强度加班,除非遇到电网紧急抢修等特殊情况。

薪酬待遇:稳定且优越,福利完善,除常规福利外,还有员工培训、职业发展规划等支持。

氛围文化:强调团队协作和社会责任,在保障电力供应的同时,积极推动大数据技术在电力行业的创新应用,员工归属感强烈。

四、其他知名企业(涵盖游戏、金融、通信、电商等领域)

4399

作为国内知名的游戏公司,大数据在游戏运营、用户行为分析等方面关键作用显著。

面试内容:除了考察大数据相关技术,如数据挖掘、数据分析工具的使用,还特别关注对游戏行业的理解,比如如何通过数据分析来优化游戏的留存率和活跃度,对热门游戏的玩法和用户喜好有何见解。

加班情况:游戏行业竞争激烈,开发及版本更新阶段加班较多,但平时有相对轻松时段,公司会安排调休等让员工休息。

薪酬福利:薪资水平不错,有项目奖金、绩效奖金等。福利包括五险一金、带薪年假、节日礼品、年度旅游等,还有游戏竞赛和团队活动。

氛围文化:充满活力和创意,员工多为游戏爱好者,团队合作紧密。

4399大数据面试题及参考答案(数据分析和数据开发)

银联

在广州的业务涉及金融大数据分析,为支付业务、风险控制等提供有力支持。

面试重点:注重金融知识和大数据技术的结合,会问在金融数据处理、风险评估模型搭建等方面的经验,比如如何利用大数据分析来防范信用卡欺诈风险,以及对金融行业的监管政策的了解。

加班情况:适中,依据项目需求和业务高峰安排,重要支付业务推广期或系统升级时可能有短期加班。

薪酬待遇:稳定且较好,福利完善,有五险一金、补充公积金、企业年金、带薪年假、健康体检等。

氛围文化:严谨规范,同时积极拥抱数字化变革,团队合作良好,注重职业发展。

联通

在广州积极推进大数据在通信运营、客户服务等方面的应用。

面试内容:会考察通信行业知识和大数据技术,比如如何利用大数据优化通信网络资源配置,提升用户通信体验,还会询问通信数据分析、用户画像构建等问题。

加班情况:依据业务而定,网络建设、新业务推广等阶段会有一定加班,但联通也在优化流程、提升效率以减少不必要的加班。

薪酬待遇:稳定,福利包括五险一金、补充保险、带薪年假、节日福利等,并提供职业发展通道和培训机会。

氛围文化:强调服务和创新,员工协作氛围浓厚,鼓励参与创新项目提升服务。
银联大数据面试题及参考答案

小鹏汽车

在智能电动汽车领域,大数据在车辆研发、自动驾驶技术优化、用户服务等方面应用广泛。

面试内容:既关注汽车行业知识又重视大数据技术能力,会询问自动驾驶数据处理、车辆性能优化数据分析等方面的经验,比如如何利用大数据提高自动驾驶算法准确性及对新能源汽车市场发展趋势的看法。

加班情况:作为快速发展的新能源汽车企业,新车研发和技术突破阶段加班频繁,但公司会通过团建等方式缓解压力。

薪酬福利:具有竞争力,有绩效奖金、项目奖金等。福利包括五险一金、补充商业保险、员工购车优惠、带薪年假等,且有完善的培训体系。

氛围文化:充满创新和进取精神,团队成员多元,鼓励提出新的想法和解决方案,推动技术创新和产品升级。

小鹏汽车大数据面试题及参考答案

唯品会

作为知名电商平台,大数据在商品推荐、供应链优化等方面作用重要。

面试内容:围绕电商业务和大数据技术,会问如何利用大数据分析消费者行为优化商品推荐算法,及电商供应链数据处理、库存管理数据分析等能力。

加班情况:促销活动如“618”“双 11”期间加班较多,但平时合理安排工作时间保障休息。

薪酬福利:待遇不错,有绩效奖金、年终奖金等。福利包括五险一金、带薪年假、节日礼品、健康体检等。

氛围文化:注重效率和创新,团队合作紧密,以提升用户购物体验为目标。唯品会大数据面试题及参考答案(3万字长文)

希音(SHEIN)

全球知名的跨境电商,大数据在商品选品、精准营销、供应链管理等方面核心作用突出。

面试内容:考察跨境电商行业理解和大数据技术应用能力,如利用大数据进行海外市场分析及优化商品选品策略,还有数据驱动营销活动策划、供应链数据分析等经验。

加班情况:由于业务发展快,加班情况较多,特别是业务拓展、新品上线等关键时期,但公司不断调整管理改善强度。

薪酬福利:具有竞争力,福利有五险一金、带薪年假、节日福利等,并提供丰富培训机会。

氛围文化:充满活力和国际化,员工多元,团队合作为实现业务增长而努力,鼓励创新和尝试新模式。

希音(Shein)大数据面试题及参考答案 ​

作者 east
深度学习 2月 8,2025

DeepSeek-R1论文中文翻译及通俗解释

最近火遍全网,功能媲美OpenAI等国外最强大模型的DeepSeek,

R1论文链接以放在下面,供大家学习参考。
论文链接:https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf

考虑到很多人英文阅读起来还是有点障碍,翻译成中文并附上通俗解释。

摘要

我们推出了第一代推理模型 DeepSeek-R1-Zero 和 DeepSeek-R1。DeepSeek-R1-Zero 是通过大规模强化学习(RL)训练出来的模型,它在训练时没有将监督微调(SFT)作为初步步骤,却展现出了卓越的推理能力。在强化学习的过程中,DeepSeek-R1-Zero 自然而然地产生了许多强大且有趣的推理行为。不过,它也面临一些问题,比如生成内容的可读性差、存在语言混合现象。为了解决这些问题并进一步提升推理性能,我们推出了 DeepSeek-R1,该模型在强化学习之前加入了多阶段训练和冷启动数据。DeepSeek-R1 在推理任务上的表现与 OpenAI-o1-1217 相当。为了支持研究社区,我们开源了 DeepSeek-R1-Zero、DeepSeek-R1,以及基于 Qwen 和 Llama 从 DeepSeek-R1 中提炼出来的六个稠密模型(15 亿、70 亿、80 亿、140 亿、320 亿、700 亿参数规模)。

通俗解释

这部分主要讲了团队搞出了两个超厉害的推理模型,叫 DeepSeek-R1-Zero 和 DeepSeek-R1。DeepSeek-R1-Zero 是靠大规模强化学习训练出来的,没经过监督微调,就能自己 “琢磨” 出好多厉害的推理方法。但它也有点小毛病,像写出来的东西不太好懂,还会把不同语言混在一起。所以团队又搞出了 DeepSeek-R1,这个模型训练的时候加了些 “冷启动数据”,还分好几个阶段训练,就解决了前面那些问题,在推理能力上和 OpenAI 的一个超厉害的模型(OpenAI-o1-1217 )差不多厉害。最后,为了让大家一起研究,团队把这些模型还有基于它们做出来的一些小模型都开源了,谁都能拿去用。

1. 引言

近年来,大语言模型(LLMs)经历了快速的迭代和发展(Anthropic, 2024; Google, 2024; OpenAI, 2024a),与通用人工智能(AGI)之间的差距逐渐缩小。
最近,后训练成为完整训练流程的重要组成部分。研究表明,后训练可以提高推理任务的准确性,使模型符合社会价值观,并适应用户偏好,同时与预训练相比,所需的计算资源相对较少。在推理能力方面,OpenAI 的 o1(OpenAI, 2024b)系列模型率先通过增加思维链推理过程的长度来实现推理时的扩展。这种方法在数学、编码和科学推理等各种推理任务中取得了显著的改进。然而,如何在测试时有效地进行扩展,仍然是研究界有待解决的问题。此前有多项研究探索了各种方法,包括基于过程的奖励模型(Lightman 等人,2023; Uesato 等人,2022; Wang 等人,2023)、强化学习(Kumar 等人,2024)以及蒙特卡洛树搜索和束搜索等搜索算法(Feng 等人,2024; Trinh 等人,2024; Xin 等人,2024)。但这些方法中,没有一种能在通用推理性能上与 OpenAI 的 o1 系列模型相媲美。
在本文中,我们迈出了利用纯强化学习(RL)提升语言模型推理能力的第一步。我们的目标是探索大语言模型在没有任何监督数据的情况下发展推理能力的潜力,重点关注它们如何通过纯强化学习过程实现自我进化。具体来说,我们以 DeepSeek-V3-Base 为基础模型,采用 GRPO(Shao 等人,2024)作为强化学习框架,以提高模型在推理任务中的性能。在训练过程中,DeepSeek-R1-Zero 自然地展现出许多强大且有趣的推理行为。经过数千次强化学习步骤后,DeepSeek-R1-Zero 在推理基准测试中表现卓越。例如,在 2024 年美国数学邀请赛(AIME 2024)上,其单次回答正确(pass@1)的得分从 15.6% 提升到了 71.0%,通过多数投票法,得分进一步提高到 86.7%,与 OpenAI-o1-0912 的性能相当。
然而,DeepSeek-R1-Zero 也面临着诸如可读性差和语言混合等挑战。为了解决这些问题并进一步提升推理性能,我们推出了 DeepSeek-R1,它结合了少量冷启动数据和多阶段训练流程。具体而言,我们首先收集数千条冷启动数据,对 DeepSeek-V3-Base 模型进行微调。之后,像训练 DeepSeek-R1-Zero 一样,进行面向推理的强化学习。在强化学习过程接近收敛时,我们通过对强化学习检查点进行拒绝采样,结合来自 DeepSeek-V3 在写作、事实性问答和自我认知等领域的监督数据,创建新的监督微调(SFT)数据,然后重新训练 DeepSeek-V3-Base 模型。用新数据微调后,该检查点再进行一轮强化学习,同时考虑所有场景的提示。经过这些步骤,我们得到了一个名为 DeepSeek-R1 的检查点,其性能与 OpenAI-o1-1217 相当。
我们进一步探索从 DeepSeek-R1 向较小的稠密模型进行知识蒸馏。以 Qwen2.532B(Qwen, 2024b)为基础模型,直接从 DeepSeek-R1 进行蒸馏的效果优于在其基础上应用强化学习。这表明,较大基础模型发现的推理模式对于提高推理能力至关重要。我们开源了基于 Qwen 和 Llama(Dubey 等人,2024)系列的蒸馏模型。值得注意的是,我们蒸馏得到的 140 亿参数模型大幅超越了当前最先进的开源模型 QwQ-32B-Preview(Qwen, 2024a),而蒸馏得到的 320 亿和 700 亿参数模型在稠密模型的推理基准测试中创下了新纪录。

1.1 研究贡献

  • 后训练:在基础模型上进行大规模强化学习:我们直接将强化学习应用于基础模型,而不依赖监督微调(SFT)作为初步步骤。这种方法使模型能够探索思维链(CoT)来解决复杂问题,从而开发出 DeepSeek-R1-Zero。DeepSeek-R1-Zero 展示了自我验证、反思和生成长思维链等能力,为研究界树立了重要的里程碑。值得注意的是,这是首次通过公开研究验证,大语言模型的推理能力可以纯粹通过强化学习来激发,而无需监督微调。这一突破为该领域未来的发展铺平了道路。
    我们介绍了开发 DeepSeek-R1 的流程。该流程包含两个强化学习阶段,旨在发现更好的推理模式并符合人类偏好,还包含两个监督微调阶段,为模型的推理和非推理能力奠定基础。我们相信这个流程将有助于行业开发出更优秀的模型。
  • 知识蒸馏:小模型也能有强大能力:我们证明了可以将大模型的推理模式蒸馏到小模型中,与小模型通过强化学习发现的推理模式相比,这样能带来更好的性能。开源的 DeepSeek-R1 及其应用程序编程接口(API)将有助于研究社区在未来蒸馏出更好的小模型。
    利用 DeepSeek-R1 生成的推理数据,我们对研究社区中广泛使用的几个稠密模型进行了微调。评估结果表明,蒸馏得到的较小稠密模型在基准测试中表现出色。DeepSeek-R1-Distill-Qwen-7B 在 2024 年美国数学邀请赛(AIME 2024)上的得分达到 55.5%,超过了 QwQ-32B-Preview。此外,DeepSeek-R1-Distill-Qwen-32B 在 AIME 2024 上的得分达到 72.6%,在 MATH-500 上的得分达到 94.3%,在 LiveCodeBench 上的得分达到 57.2% 。这些结果显著超越了以前的开源模型,与 o1-mini 相当。我们向社区开源了基于 Qwen2.5 和 Llama3 系列的 15 亿、70 亿、80 亿、140 亿、320 亿和 700 亿参数规模的蒸馏模型检查点。

1.2 评估结果总结

  • 推理任务:(1)DeepSeek-R1 在 2024 年美国数学邀请赛(AIME 2024)上的单次回答正确(Pass@1)得分达到 79.8%,略高于 OpenAI-o1-1217。在 MATH-500 测试中,它取得了令人瞩目的 97.3% 的高分,与 OpenAI-o1-1217 表现相当,且显著超越其他模型。(2)在与编码相关的任务中,DeepSeek-R1 在代码竞赛任务中展现出专家水平,在 Codeforces 平台上获得 2029 的 Elo 评级,超过了竞赛中 96.3% 的人类参与者。在与工程相关的任务中,DeepSeek-R1 的表现略优于 DeepSeek-V3,这对开发者在实际工作中会有所帮助。
  • 知识水平:在 MMLU、MMLU-Pro 和 GPQA Diamond 等基准测试中,DeepSeek-R1 取得了出色的成绩,在 MMLU 上得分为 90.8%,在 MMLU-Pro 上得分为 84.0%,在 GPQA Diamond 上得分为 71.5%,显著超越 DeepSeek-V3。虽然在这些基准测试中,其性能略低于 OpenAI-o1-1217,但 DeepSeek-R1 超越了其他闭源模型,展示了其在教育任务中的竞争优势。在事实性基准测试 SimpleQA 上,DeepSeek-R1 的表现优于 DeepSeek-V3,证明了它处理基于事实的查询的能力。在这个基准测试中,OpenAI-o1 也超越了 GPT-4o,呈现出类似的趋势。
  • 其他方面:DeepSeek-R1 在广泛的任务中也表现出色,包括创意写作、通用问答、编辑、总结等。它在 AlpacaEval 2.0 上的长度控制胜率达到 87.6%,在 ArenaHard 上的胜率达到 92.3%,展示了其智能处理非考试类查询的强大能力。此外,DeepSeek-R1 在需要长上下文理解的任务中表现卓越,在长上下文基准测试中大幅超越 DeepSeek-V3。

通俗解释

大语言模型这几年发展特别快,和通用人工智能的距离越来越近。后训练在提升模型能力上很有用,OpenAI 的 o1 系列模型通过增加推理步骤让模型在很多推理任务上表现变好,但怎么让模型在测试的时候也能这么厉害,大家还在研究。
这篇论文里,团队想用纯强化学习来提升模型的推理能力。他们用 DeepSeek-V3-Base 做基础模型,通过强化学习训练出了 DeepSeek-R1-Zero。这个模型训练的时候自己就琢磨出好多厉害的推理方法,在 AIME 2024 测试里成绩提高特别多。不过它也有问题,写出来的东西不好懂,还会把不同语言混在一起。
所以团队又搞出了 DeepSeek-R1,训练的时候先给模型一些 “冷启动数据”,再分阶段训练,最后这个模型的表现和 OpenAI-o1-1217 差不多。而且,团队还把 DeepSeek-R1 的推理能力 “教” 给了一些小模型,这些小模型在测试里成绩也很好,超过了很多以前的开源模型。
从测试结果来看,DeepSeek-R1 在推理任务上特别厉害,像数学和编码任务成绩都很好;在知识类测试里也不错,比 DeepSeek-V3 好很多;在其他任务,像写作、问答这些方面也表现很棒,理解长文章的能力也很强。

2. 方法

2.1 概述

以往的研究大多依赖大量的监督数据来提升模型性能。在本研究中,我们证明了即使不使用监督微调(SFT)作为冷启动,通过大规模强化学习(RL)也能显著提升模型的推理能力。此外,加入少量冷启动数据可以进一步提升模型性能。在接下来的章节中,我们将介绍:(1)DeepSeek-R1-Zero,它直接在基础模型上应用强化学习,不使用任何监督微调数据;(2)DeepSeek-R1,它从用数千个长思维链(CoT)示例微调后的检查点开始应用强化学习;(3)将 DeepSeek-R1 的推理能力蒸馏到小型稠密模型中。

2.2 DeepSeek-R1-Zero:基础模型上的强化学习

强化学习在推理任务中已显示出显著的有效性,我们之前的研究(Shao 等人,2024;Wang 等人,2023)已证实了这一点。然而,这些研究严重依赖监督数据,而收集监督数据非常耗时。在本节中,我们探索大语言模型在无任何监督数据的情况下发展推理能力的潜力,重点关注其通过纯强化学习过程的自我进化。我们先简要介绍我们的强化学习算法,然后展示一些令人振奋的结果,希望能为研究社区提供有价值的见解。

2.2.1 强化学习算法:组相对策略优化

为节省强化学习的训练成本,我们采用组相对策略优化(GRPO)(Shao 等人,2024)。该方法舍弃了通常与策略模型规模相同的价值网络,而是通过组得分来估计基线。具体来说,对于每个问题,

用户与助手进行对话。用户提出问题,助手进行解答。助手先在脑海中思考推理过程,然后为用户提供答案。推理过程和答案分别包含在<think></think>和<answer></answer>标签内,即<think>推理过程在此处</think><answer>答案在此处</answer>。用户:提示。助手:

用户助手
提示<think>推理过程在此处</think><answer>答案在此处</answer>

表 1 DeepSeek-R1-Zero 的模板。训练过程中,提示部分会被具体的推理问题替代。

2.2.2 奖励建模

奖励是训练信号的来源,它决定了强化学习的优化方向。为训练 DeepSeek-R1-Zero,我们采用基于规则的奖励系统,主要包含两种类型的奖励:

  • 准确率奖励:准确率奖励模型用于评估回答是否正确。例如,对于有确定答案的数学问题,要求模型以指定格式(如在方框内)给出最终答案,以便基于规则可靠地验证答案的正确性。同样,对于 LeetCode 问题,可以使用编译器根据预定义的测试用例生成反馈。
  • 格式奖励:除准确率奖励模型外,我们还采用格式奖励模型,强制模型将其思考过程置于<think>和</think>标签之间。
    在开发 DeepSeek-R1-Zero 时,我们没有应用结果或过程神经奖励模型,因为我们发现神经奖励模型在大规模强化学习过程中可能会遭受奖励作弊问题,并且重新训练奖励模型需要额外的训练资源,还会使整个训练流程变得复杂。

2.2.3 训练模板

为训练 DeepSeek-R1-Zero,我们首先设计了一个简单的模板,引导基础模型遵循我们指定的指令。如表 1 所示,该模板要求 DeepSeek-R1-Zero 首先生成推理过程,然后给出最终答案。我们有意将约束限制在这种结构格式上,避免任何特定内容的偏差,例如强制要求反思性推理或推崇特定的问题解决策略,以确保我们能准确观察模型在强化学习过程中的自然发展。

2.2.4 DeepSeek-R1-Zero 的性能、自我进化过程和顿悟时刻

  • DeepSeek-R1-Zero 的性能:图 2 展示了 DeepSeek-R1-Zero 在 2024 年美国数学邀请赛(AIME 2024)基准测试中,整个强化学习训练过程中的性能变化轨迹。如图所示,随着强化学习训练的推进,DeepSeek-R1-Zero 的性能稳步提升。值得注意的是,AIME 2024 上的平均单次回答正确(pass@1)得分显著提高,从最初的 15.6% 跃升至令人瞩目的 71.0%,达到了与 OpenAI-o1-0912 相当的性能水平。这一显著改进凸显了我们的强化学习算法随着时间推移优化模型性能的有效性。
    表 2 对 DeepSeek-R1-Zero 和 OpenAI 的 o1-0912 模型在各种推理相关基准测试中的表现进行了对比分析。结果显示,强化学习使 DeepSeek-R1-Zero 在无需任何监督微调数据的情况下获得了强大的推理能力。这是一项值得关注的成就,因为它强调了模型仅通过强化学习就能有效学习和泛化的能力。此外,通过多数投票法,DeepSeek-R1-Zero 的性能还可以进一步提升。例如,在 AIME 基准测试中采用多数投票法时,DeepSeek-R1-Zero 的性能从 71.0% 提升至 86.7%,超过了 OpenAI-o1-0912 的性能。DeepSeek-R1-Zero 在使用和不使用多数投票法的情况下都能取得如此有竞争力的性能,凸显了其强大的基础能力以及在推理任务中进一步提升的潜力。
  • DeepSeek-R1-Zero 的自我进化过程:DeepSeek-R1-Zero 的自我进化过程生动展示了强化学习如何驱动模型自主提升推理能力。通过直接从基础模型启动强化学习,我们可以在不受监督微调阶段影响的情况下,密切监测模型的发展。这种方法清晰呈现了模型随时间的演变,尤其是在处理复杂推理任务的能力方面。
    如图 3 所示,DeepSeek-R1-Zero 的思考时间在整个训练过程中持续改善。这种改善并非外部调整的结果,而是模型内部的自然发展。DeepSeek-R1-Zero 通过利用更长的测试时计算资源,自然而然地获得了解决日益复杂推理任务的能力。这种计算过程从生成数百到数千个推理令牌不等,使模型能够更深入地探索和优化其思维过程。
    这种自我进化最显著的特点之一是,随着测试时计算量的增加,模型会出现复杂的行为。例如,模型会自发地进行反思(重新审视和评估之前的步骤),并探索解决问题的替代方法。这些行为并非预先编程设定,而是模型与强化学习环境交互的结果。这种自发的发展显著增强了 DeepSeek-R1-Zero 的推理能力,使其能够更高效、准确地处理更具挑战性的任务。
  • DeepSeek-R1-Zero 的顿悟时刻:在训练 DeepSeek-R1-Zero 的过程中,观察到一个特别有趣的现象 ——“顿悟时刻”。如表 3 所示,这个时刻出现在模型的一个中间版本中。在此阶段,DeepSeek-R1-Zero 学会了通过重新评估初始方法,为一个问题分配更多思考时间。这种行为不仅证明了模型推理能力的不断提升,也是强化学习能够产生意想不到的复杂结果的生动例证。
    这个时刻不仅对模型来说是一个 “顿悟时刻”,对于观察其行为的研究人员而言也是如此。它凸显了强化学习的力量与魅力:我们并非直接教模型如何解决问题,而只是为其提供正确的激励,它就能自主开发出先进的问题解决策略。“顿悟时刻” 有力地提醒我们,强化学习具有解锁人工智能系统新智能水平的潜力,为未来开发更自主、自适应的模型铺平了道路。
  • DeepSeek-R1-Zero 的缺点:尽管 DeepSeek-R1-Zero 展现出强大的推理能力,并自主发展出了意想不到的强大推理行为,但它也面临一些问题。例如,DeepSeek-R1-Zero 存在可读性差和语言混合等挑战。为了使推理过程更具可读性并与开放社区共享,我们探索了 DeepSeek-R1,这是一种利用强化学习并结合对人类友好的冷启动数据的方法。

通俗解释

以前提升模型能力大多靠大量的监督数据,这篇论文则证明了用大规模强化学习,就算不用监督微调,也能提升模型推理能力,加点冷启动数据效果还会更好。接下来就介绍了三种方法,这里先讲 DeepSeek-R1-Zero。
强化学习在推理任务里本来就挺好用,但以前收集监督数据太费时间。这次用的 GRPO 算法能省点训练成本,它不用和策略模型一样大的价值网络,通过一组数据的得分来估算基线,然后优化策略模型。
训练的时候,奖励很重要。DeepSeek-R1-Zero 用的是基于规则的奖励系统,一方面看答案对不对,对了就给准确率奖励,像数学题按要求格式答对了、LeetCode 问题通过测试用例就给分;另一方面要求模型按规定格式写推理过程,符合格式就给格式奖励。因为神经奖励模型容易出问题,还费资源,所以没采用。
训练模板就是让模型按规定来,先写推理过程,再写答案,这样能看看模型自己在强化学习过程中是怎么发展的。
从结果来看,DeepSeek-R1-Zero 在 AIME 2024 测试里成绩越来越好,和 OpenAI-o1-0912 差不多,用多数投票法还能超过它。而且在训练过程中,它思考时间越来越长,自己就学会解决更难的问题,还能反思、找新方法,就像突然 “开窍” 了一样。不过它也有问题,写的东西不好懂,还会混着多种语言,所以就有了后面的 DeepSeek-R1 。

2.3 DeepSeek-R1:基于冷启动的强化学习

受 DeepSeek-R1-Zero 令人鼓舞的结果启发,自然产生了两个问题:1)通过引入少量高质量数据作为冷启动,能否进一步提高推理性能或加快收敛速度?2)如何训练一个既能够生成清晰、连贯的思维链(CoT),又具备强大通用能力的用户友好型模型?为了解决这些问题,我们设计了一个训练 DeepSeek-R1 的流程,该流程包含四个阶段,具体如下。

2.3.1 冷启动

与 DeepSeek-R1-Zero 不同,为避免从基础模型进行强化学习训练时早期冷启动阶段的不稳定性,对于 DeepSeek-R1,我们构建并收集了少量长思维链数据,对模型进行微调,以此作为初始的强化学习执行者。为收集此类数据,我们探索了多种方法:使用带有长思维链示例的少样本提示;直接促使模型生成带有反思和验证的详细答案;收集格式易读的 DeepSeek-R1-Zero 输出;以及通过人工标注进行后处理来优化结果。
在本研究中,我们收集了数千条冷启动数据,对 DeepSeek-V3-Base 进行微调,作为强化学习的起点。与 DeepSeek-R1-Zero 相比,冷启动数据具有以下优势:

  • 可读性:DeepSeek-R1-Zero 的一个关键局限在于其内容往往不便于阅读。生成的回答可能会混合多种语言,或者缺少用于突出答案的 Markdown 格式,不便于用户查看。相比之下,在为 DeepSeek-R1 创建冷启动数据时,我们设计了一种易读的模式,在每个回答的末尾添加总结,并过滤掉对读者不友好的回答。这里,我们将输出格式定义为 | 特殊标记 |<推理过程>| 特殊标记 |< 总结 >,其中推理过程是针对查询的思维链,总结用于概括推理结果。
  • 潜力:通过结合人类先验知识精心设计冷启动数据的模式,我们发现其性能优于 DeepSeek-R1-Zero。我们认为迭代训练对于推理模型而言是一种更好的方式。

2.3.2 面向推理的强化学习

在利用冷启动数据对 DeepSeek-V3-Base 进行微调后,我们采用与 DeepSeek-R1-Zero 相同的大规模强化学习训练过程。这个阶段专注于提升模型的推理能力,特别是在编码、数学、科学和逻辑推理等推理密集型任务中,这些任务通常具有明确的问题和清晰的解决方案。在训练过程中,我们发现思维链经常出现语言混合的情况,尤其是当强化学习提示涉及多种语言时。为缓解语言混合问题,我们在强化学习训练过程中引入了语言一致性奖励,该奖励通过计算思维链中目标语言词汇的比例来衡量。尽管消融实验表明,这种调整会导致模型性能略有下降,但该奖励符合人类偏好,使生成的内容更具可读性。最后,我们将推理任务的准确率与语言一致性奖励直接相加,形成最终的奖励。然后,对微调后的模型进行强化学习训练,直至其在推理任务上达到收敛。

2.3.3 拒绝采样与监督微调

当面向推理的强化学习收敛后,我们利用得到的检查点为下一轮收集监督微调(SFT)数据。与最初主要聚焦于推理的冷启动数据不同,这个阶段整合了来自其他领域的数据,以增强模型在写作、角色扮演和其他通用任务方面的能力。具体而言,我们按照以下方式生成数据并微调模型:

  • 推理数据:我们整理推理提示,并通过对上述强化学习训练得到的检查点进行拒绝采样,生成推理轨迹。在之前的阶段,我们仅纳入了可以使用基于规则的奖励进行评估的数据。然而在这个阶段,我们通过纳入更多数据来扩展数据集,其中部分数据使用生成式奖励模型,将真实答案和模型预测输入 DeepSeek-V3 进行判断。此外,由于模型输出有时较为混乱且难以阅读,我们过滤掉了包含混合语言的思维链、冗长的段落和代码块。对于每个提示,我们采样多个回答,仅保留正确的回答。总体而言,我们收集了约 60 万个与推理相关的训练样本。
  • 非推理数据:对于写作、事实性问答、自我认知和翻译等非推理数据,我们采用 DeepSeek-V3 的流程,并复用了 DeepSeek-V3 的部分监督微调数据集。对于某些非推理任务,在回答问题之前,我们通过提示促使 DeepSeek-V3 生成潜在的思维链。然而,对于诸如 “你好” 这类简单查询,我们则不提供思维链作为回应。最终,我们总共收集了约 20 万个与推理无关的训练样本。
    我们使用上述整理的约 80 万个样本的数据集,对 DeepSeek-V3-Base 进行了两个轮次的微调。

2.3.4 全场景强化学习

为了进一步使模型符合人类偏好,我们实施了第二个强化学习阶段,旨在提升模型的实用性和无害性,同时优化其推理能力。具体而言,我们结合奖励信号和多样化的提示分布来训练模型。对于推理数据,我们遵循 DeepSeek-R1-Zero 中概述的方法,利用基于规则的奖励来指导数学、代码和逻辑推理领域的学习过程。对于通用数据,我们借助奖励模型来捕捉复杂和微妙场景中的人类偏好。我们基于 DeepSeek-V3 的流程,采用类似的偏好对和训练提示分布。在评估实用性时,我们仅关注最终的总结,确保评估重点在于回答对用户的实用性和相关性,同时尽量减少对底层推理过程的干扰。在评估无害性时,我们评估模型的整个回答,包括推理过程和总结,以识别并减轻生成过程中可能出现的任何潜在风险、偏差或有害内容。最终,奖励信号和多样化数据分布的整合使我们能够训练出一个在推理方面表现出色,同时注重实用性和无害性的模型。

通俗解释

DeepSeek-R1-Zero 表现不错,但是大家还想让模型更好,就有了两个新问题:用点高质量数据做冷启动,能不能让模型推理能力更强、训练更快?能不能训练出既会清晰推理,又有很多通用能力,对用户很友好的模型?所以就设计了 DeepSeek-R1 的训练流程,有四个阶段。
第一个阶段是冷启动。DeepSeek-R1-Zero 从基础模型直接训练,前期不太稳定。DeepSeek-R1 就先收集一些长思维链数据,微调模型。收集数据的方法有好几种,像用带长思维链的例子提示模型、让模型自己生成详细答案再优化等。冷启动数据有两个好处,一是更可读,以前模型回答的内容不好懂,现在设计了新格式,回答完还有总结;二是性能更好,结合了人的经验设计的数据,训练效果更好。
第二个阶段是面向推理的强化学习。用冷启动数据微调完模型后,就用和训练 DeepSeek-R1-Zero 一样的强化学习方法训练。这个阶段主要提升模型在一些推理任务上的能力。训练时发现思维链会混语言,就加了个语言一致性奖励,虽然对性能有点影响,但是生成的内容更符合人的习惯,更好懂。把准确率和这个奖励加起来作为最终奖励,一直训练到模型在推理任务上表现稳定。
第三个阶段是拒绝采样与监督微调。前面强化学习训练稳定后,就用得到的模型收集新数据来微调。这次的数据不只是推理的,还有写作、问答这些其他领域的数据。推理数据通过拒绝采样得到,还扩展了数据集,去掉不好的内容;非推理数据用 DeepSeek-V3 的流程收集,简单问题就不用思维链回答。最后用这些收集到的 80 万个样本的数据,微调模型两轮。
最后一个阶段是全场景强化学习。为了让模型更符合人的喜好,又进行了一次强化学习训练。对推理数据和以前一样用基于规则的奖励训练;对通用数据,用奖励模型来符合人的偏好。评估的时候,实用性只看总结有没有用、相不相关,无害性则检查整个回答有没有问题。这样训练出来的模型,推理厉害,还好用、安全。

2.4 知识蒸馏:赋予小模型推理能力

为了使更高效的小模型也具备像 DeepSeek-R1 那样的推理能力,我们使用为 DeepSeek-R1 整理的 80 万个样本,直接对 Qwen(Qwen, 2024b)和 Llama(AI@Meta, 2024)等开源模型进行微调,具体细节见 2.3.3 节。我们的研究结果表明,这种简单的知识蒸馏方法能够显著提升小模型的推理能力。这里使用的基础模型包括 Qwen2.5-Math-1.5B、Qwen2.5-Math-7B、Qwen2.5-14B、Qwen2.5-32B、Llama-3.1-8B 和 Llama-3.3-70B-Instruct。我们选择 Llama-3.3,是因为其推理能力略优于 Llama-3.1。
对于蒸馏后的模型,我们仅进行监督微调,不包含强化学习阶段,尽管加入强化学习可以大幅提升模型性能。我们在此的主要目的是展示知识蒸馏技术的有效性,将强化学习阶段的探索留给更广泛的研究社区。

通俗解释

团队想让小模型也能像 DeepSeek-R1 一样会推理,就用 DeepSeek-R1 整理的 80 万个样本去微调 Qwen、Llama 这些开源模型。结果发现,这样简单的操作就能让小模型推理能力变强。用的基础模型有不同参数规模的,像 15 亿、70 亿参数的等,选 Llama-3.3 是因为它推理能力相对好一点。
蒸馏后的小模型只做了监督微调,没做强化学习,虽然做强化学习能让模型性能更好,但团队这次主要是想看看蒸馏方法好不好用,强化学习就留给其他研究人员去探索了。

3. 实验

3.1 DeepSeek-R1 评估

基准测试(指标)Claude-3.5-Sonnet-1022GPT-4o-0513DeepSeek V3OpenAI o1-miniOpenAI o1-1217DeepSeek R1
架构混合专家(MoE)混合专家(MoE)
激活参数数量370 亿370 亿
参数总数6710 亿6710 亿
英语MMLU(单次准确率)88.387.288.585.291.890.8
MMLU-Redux(精确匹配率)88.988.089.186.792.9
MMLU-Pro(精确匹配率)78.072.675.980.384.0
DROP(3 次提示 F1 值)88.383.791.683.990.292.2
IF-Eval(严格提示)86.584.386.184.883.3
GPQA Diamond(单次准确率)65.049.959.160.075.771.5
SimpleQA(正确率)28.438.224.97.047.030.1
FRAMES(准确率)72.580.573.376.982.5
AlpacaEval2.0(长度控制胜率)52.051.170.057.887.6
ArenaHard(GPT-4-1106 评判)85.280.485.592.092.3
代码LiveCodeBench(思维链单次准确率)38.932.936.253.863.465.9
Codeforces(百分比排名)20.323.658.793.496.696.3
Codeforces(评级)7177591134182020612029
SWE Verified(问题解决率)50.838.842.041.648.949.2
Aider-Polyglot(准确率)45.316.049.632.961.753.3
数学AIME 2024(单次准确率)16.09.339.263.679.279.8
MATH-500(单次准确率)78.374.690.290.096.497.3
CNMO 2024(单次准确率)13.110.843.267.678.8
中文CLUEWSC(精确匹配率)85.487.990.989.992.8
C-Eval(精确匹配率)76.776.086.568.991.8
C-SimpleQA(正确率)55.458.768.040.363.7

表 4 DeepSeek-R1 与其他代表性模型的比较
在 MMLU、MMLU-Pro 和 GPQA Diamond 等面向教育的知识基准测试中,DeepSeek-R1 相较于 DeepSeek-V3 展现出更优的性能。这种提升主要归因于在 STEM 相关问题上准确率的提高,这得益于大规模强化学习。此外,DeepSeek-R1 在 FRAMES(一个依赖长上下文的问答任务)上表现出色,展示了其强大的文档分析能力。这凸显了推理模型在人工智能驱动的搜索和数据分析任务中的潜力。在事实性基准测试 SimpleQA 上,DeepSeek-R1 的表现优于 DeepSeek-V3,证明了它处理基于事实的查询的能力。在该基准测试中,OpenAI-o1 优于 GPT-4o,DeepSeek-R1 也呈现出类似的超越趋势。不过,DeepSeek-R1 在中文 SimpleQA 基准测试上的表现比 DeepSeek-V3 差,这主要是因为在经过安全性强化学习后,它倾向于拒绝回答某些查询。如果不进行安全性强化学习,DeepSeek-R1 在该测试上的准确率能超过 70%。
DeepSeek-R1 在 IF-Eval(一个用于评估模型遵循格式指令能力的基准测试)上也取得了令人瞩目的成绩。这些改进可归因于在监督微调(SFT)和强化学习训练的最后阶段纳入了指令遵循数据。此外,在 AlpacaEval2.0 和 ArenaHard 上,DeepSeek-R1 表现卓越,这表明它在写作任务和开放域问答方面具有优势。它大幅超越 DeepSeek-V3 的表现,突出了大规模强化学习的泛化优势,不仅提升了推理能力,还改善了模型在不同领域的性能。而且,DeepSeek-R1 生成的总结长度简洁,在 ArenaHard 上平均为 689 个词元,在 AlpacaEval 2.0 上平均为 2218 个字符。这表明 DeepSeek-R1 在基于 GPT 的评估中避免了引入长度偏差,进一步巩固了其在多个任务上的稳健性。
在数学任务上,DeepSeek-R1 的表现与 OpenAI-o1-1217 相当,大幅超越其他模型。在编码算法任务(如 LiveCodeBench 和 Codeforces)中也呈现出类似趋势,以推理为核心的模型在这些基准测试中占据主导地位。在面向工程的编码任务上,OpenAI-o1-1217 在 Aider 测试中表现优于 DeepSeek-R1,但在 SWE Verified 测试中二者性能相当。我们认为,随着相关强化学习训练数据量的增加,DeepSeek-R1 的工程性能将在后续版本中得到提升。

通俗解释

研究人员对 DeepSeek-R1 进行了各种测试,和好多厉害的模型对比。从表格里能看到,在知识类测试里,像 MMLU 这些,DeepSeek-R1 比 DeepSeek-V3 考得好,特别是在 STEM 相关的问题上,因为大规模强化学习让它更会做这类题。在处理长文章问答的 FRAMES 测试里,它也表现不错,说明分析文档能力强。在 SimpleQA 这个测试里,它比 DeepSeek-V3 厉害,能更好地回答事实类问题,和 OpenAI-o1 比 GPT-4o 表现好是一个道理。不过在中文 SimpleQA 测试里,它比 DeepSeek-V3 差,是因为做了安全性强化学习后,有些问题它不愿意回答,如果没这个限制,准确率能更高。
在测试模型按格式回答问题能力的 IF-Eval 测试里,DeepSeek-R1 成绩很好,这是因为训练后期加了相关的数据。在写作和开放域问答的测试(AlpacaEval2.0 和 ArenaHard)里,它表现也很棒,比 DeepSeek-V3 强很多,说明大规模强化学习让它在好多领域都更厉害。而且它生成的总结不长,在评估的时候不会因为长度问题影响结果,很稳定。
在数学任务和编码算法任务测试里,DeepSeek-R1 和 OpenAI-o1-1217 水平差不多,比其他模型好很多。在工程编码任务上,OpenAI-o1-1217 在 Aider 测试里比它好一点,但在 SWE Verified 测试里二者差不多。以后随着训练数据变多,DeepSeek-R1 在工程方面的能力还能提升。

3.2 蒸馏模型评估

模型AIME 2024MATH-500 单次准确率GPQA Diamond 单次准确率LiveCodeBench 单次准确率CodeForces 评级
单次准确率64 次采样多数投票准确率
GPT-4o-05139.313.474.649.932.9759
Claude-3.5-Sonnet-102216.026.778.365.038.9717
OpenAI-o1-mini63.680.090.060.053.81820
QwQ-32B-Preview50.060.090.654.541.91316
DeepSeek-R1-Distill-Qwen-1.5B28.952.783.933.816.9954
DeepSeek-R1-Distill-Qwen-7B55.583.392.849.137.61189
DeepSeek-R1-Distill-Qwen-14B69.780.093.959.153.11481
DeepSeek-R1-Distill-Qwen-32B72.683.394.362.157.21691
DeepSeek-R1-Distill-Llama-8B50.480.089.149.039.61205
DeepSeek-R1-Distill-Llama-70B70.086.794.565.257.51633

表 5 DeepSeek-R1 蒸馏模型与其他可比模型在推理相关基准测试中的比较
如表 5 所示,仅仅通过蒸馏 DeepSeek-R1 的输出,高效的 DeepSeek-R1-7B(即 DeepSeek-R1-Distill-Qwen-7B,以下简称类似)就能在所有方面超越像 GPT-4o-0513 这样的非推理模型。DeepSeek-R1-14B 在所有评估指标上都超过了 QwQ-32B-Preview,而 DeepSeek-R1-32B 和 DeepSeek-R1-70B 在大多数基准测试中显著超越 o1-mini。这些结果展示了知识蒸馏的强大潜力。此外,我们发现对这些蒸馏模型应用强化学习会带来进一步的显著提升。我们认为这值得进一步探索,因此在此仅展示简单监督微调蒸馏模型的结果。

通俗解释

研究人员还测试了从 DeepSeek-R1 蒸馏出来的小模型。从表格数据能看出,这些小模型表现很不错。就拿 DeepSeek-R1-Distill-Qwen-7B 来说,它在各个测试里都比 GPT-4o-0513 考得好。DeepSeek-R1-14B 比 QwQ-32B-Preview 厉害,DeepSeek-R1-32B 和 DeepSeek-R1-70B 在大部分测试里比 o1-mini 还好。这说明把大模型的能力蒸馏到小模型里这个方法很有用。而且如果再给这些蒸馏后的小模型做强化学习,它们还能变得更厉害,不过这次研究人员没展示这部分结果,以后可以继续研究。

4. 讨论

4.1 知识蒸馏与强化学习

在 3.2 节中可以看到,通过对 DeepSeek-R1 进行知识蒸馏,小模型能取得令人瞩目的成绩。然而,仍有一个问题:模型不经过知识蒸馏,通过本文中讨论的大规模强化学习训练,能否达到类似的性能?
为回答这个问题,我们使用数学、代码和 STEM 数据,对 Qwen-32B-Base 进行了超过 10,000 步的大规模强化学习训练,得到了 DeepSeek-R1-Zero-Qwen-32B。实验结果如表 6 所示,经过大规模强化学习训练的 320 亿参数基础模型,其性能与 QwQ-32B-Preview 相当。然而,从 DeepSeek-R1 蒸馏得到的 DeepSeek-R1-Distill-Qwen-32B,在所有基准测试中的表现都显著优于 DeepSeek-R1-Zero-Qwen-32B。
因此,我们可以得出两个结论:第一,将更强的模型知识蒸馏到较小模型中能产生优异的效果,而较小模型依靠本文提到的大规模强化学习则需要巨大的计算资源,甚至可能无法达到知识蒸馏的性能。第二,虽然知识蒸馏策略既经济又有效,但要突破智能的边界,可能仍需要更强大的基础模型和大规模强化学习。

模型AIME 2024MATH-500 单次准确率GPQA Diamond 单次准确率LiveCodeBench 单次准确率
单次准确率64 次采样多数投票准确率
QwQ-32B-Preview50.060.090.654.541.9
DeepSeek-R1-Zero-Qwen-32B47.060.091.655.040.2
DeepSeek-R1-Distill-Qwen-32B72.683.394.362.157.2

表 6 知识蒸馏模型与强化学习模型在推理相关基准测试中的比较

通俗解释

前面看到知识蒸馏让小模型成绩很好,大家就想知道,小模型不蒸馏,直接用大规模强化学习训练,能不能有同样好的表现呢?于是研究人员就用 Qwen-32B-Base 这个模型,用数学、代码等数据进行大规模强化学习训练,训练了 10000 多步,得到了 DeepSeek-R1-Zero-Qwen-32B 这个模型。
对比发现,这个经过强化学习训练的模型,和 QwQ-32B-Preview 表现差不多。但是从 DeepSeek-R1 蒸馏出来的 DeepSeek-R1-Distill-Qwen-32B,在各项测试里都比 DeepSeek-R1-Zero-Qwen-32B 好很多。
这就说明,把大模型的知识 “传” 给小模型的知识蒸馏方法效果很好,小模型要是想用大规模强化学习达到同样效果,不仅特别费计算资源,可能还做不到。虽然知识蒸馏又省钱又好用,但想要让模型更聪明,可能还是得靠更厉害的大模型和大规模强化学习。

4.2 失败尝试

在开发 DeepSeek-R1 的早期阶段,我们也经历了失败和挫折。在此分享这些失败经验以供参考,但这并不意味着这些方法无法用于开发有效的推理模型。

  • 过程奖励模型(PRM):过程奖励模型是一种引导模型寻找更好推理任务解决方法的合理途径(Lightman 等人,2023;Uesato 等人,2022;Wang 等人,2023)。然而在实际应用中,PRM 存在三个主要局限性,可能会阻碍其最终成功。第一,在一般推理中,明确定义精细的推理步骤具有挑战性。第二,判断当前中间步骤是否正确是一项艰巨的任务。使用模型进行自动标注可能无法得到令人满意的结果,而人工标注不利于大规模应用。第三,一旦引入基于模型的 PRM,不可避免地会导致奖励作弊(Gao 等人,2022),重新训练奖励模型需要额外的训练资源,并且会使整个训练流程变得复杂。总之,虽然 PRM 在对模型生成的前 N 个响应进行重新排序或辅助引导搜索方面(Snell 等人,2024)表现出良好的能力,但在我们的实验中,与大规模强化学习过程中引入的额外计算开销相比,其优势有限。
  • 蒙特卡洛树搜索(MCTS):受 AlphaGo(Silver 等人,2017b)和 AlphaZero(Silver 等人,2017a)的启发,我们探索使用蒙特卡洛树搜索(MCTS)来提高测试时计算的可扩展性。这种方法将答案分解为较小的部分,使模型能够系统地探索解决方案空间。为实现这一点,我们促使模型生成多个与搜索所需的特定推理步骤相对应的标签。在训练过程中,我们首先使用收集到的提示,通过由预训练价值模型引导的 MCTS 来寻找答案。随后,我们使用得到的问答对来训练策略模型和价值模型,迭代优化这个过程。

然而,在扩大训练规模时,这种方法遇到了几个挑战。第一,与国际象棋不同,在国际象棋中搜索空间相对明确,而令牌生成的搜索空间呈指数级增大。为解决这个问题,我们为每个节点设置了最大扩展限制,但这可能导致模型陷入局部最优解。第二,价值模型直接影响生成的质量,因为它引导搜索过程的每一步。训练一个精细的价值模型本身就很困难,这使得模型难以通过迭代得到改进。虽然 AlphaGo 的核心成功在于训练价值模型以逐步提升性能,但由于令牌生成的复杂性,在我们的设置中难以复制这一原理。
总之,虽然 MCTS 与预训练价值模型结合可以在推理时提高性能,但通过自我搜索迭代提升模型性能仍然是一个巨大的挑战。

通俗解释

在研究 DeepSeek-R1 的时候,团队也试过一些方法但没成功。
有一种叫过程奖励模型(PRM)的方法,本来想着用它能引导模型更好地推理。但实际用的时候发现有问题:一是在推理过程中,很难把每一步都规定得很清楚;二是判断中间步骤对不对很难,用模型自动标注不准,人工标注又没办法大规模做;三是用了这个模型容易出现奖励作弊的情况,重新训练奖励模型又费资源又让训练过程变复杂。虽然它在给模型的回答排序、引导搜索这些方面有点用,但总体来说,在大规模强化学习里,它带来的麻烦比好处多。
还有蒙特卡洛树搜索(MCTS)方法,是从 AlphaGo 这些成功的例子里得到的启发,想用它让模型在测试的时候计算能力更强。这个方法就是把答案拆成小部分,让模型慢慢找解决方案,训练的时候用预训练的价值模型帮忙找答案,再用这些答案训练模型。
但是扩大训练规模的时候就不行了。一方面,和国际象棋比起来,模型生成内容的搜索范围大太多了,限制搜索节点又容易让模型卡在局部最优解里;另一方面,价值模型对生成结果影响很大,但是很难训练好,所以模型很难通过不断训练变得更好。虽然 MCTS 和预训练价值模型一起用,在推理的时候有点用,但想靠它让模型一直进步太难了。

5. 结论、局限性与未来工作

在本研究中,我们分享了通过强化学习提升模型推理能力的历程。DeepSeek-R1-Zero 代表了一种不依赖冷启动数据的纯强化学习方法,在各种任务中都取得了优异的性能。DeepSeek-R1 则更强大,它利用冷启动数据和迭代强化学习微调。最终,DeepSeek-R1 在一系列任务上的表现与 OpenAI-o1-1217 相当。
我们进一步探索了将推理能力蒸馏到小型稠密模型中。以 DeepSeek-R1 为教师模型生成 80 万个训练样本,对几个小型稠密模型进行微调。结果很有前景:DeepSeek-R1-Distill-Qwen-1.5B 在数学基准测试中表现超过 GPT-4o 和 Claude-3.5-Sonnet,在 AIME 测试中得分为 28.9%,在 MATH 测试中得分为 83.9%。其他稠密模型也取得了令人瞩目的成绩,显著超越了基于相同基础检查点的其他指令微调模型。
未来,我们计划在以下几个方向对 DeepSeek-R1 进行研究:

  • 通用能力:目前,DeepSeek-R1 在函数调用、多轮对话、复杂角色扮演和 JSON 输出等任务上的能力不如 DeepSeek-V3。未来,我们计划探索如何利用长思维链来提升这些领域的任务表现。
  • 语言混合:DeepSeek-R1 目前针对中文和英文进行了优化,在处理其他语言的查询时可能会出现语言混合问题。例如,即使查询使用的是非中文或英文的其他语言,DeepSeek-R1 也可能会用英文进行推理和回答。我们旨在在未来的更新中解决这一局限性。
  • 提示工程:在评估 DeepSeek-R1 时,我们发现它对提示很敏感。少样本提示始终会降低其性能。因此,我们建议用户直接描述问题,并使用零样本设置指定输出格式,以获得最佳结果。
  • 软件工程任务:由于评估时间长,影响了强化学习过程的效率,大规模强化学习在软件工程任务中尚未得到广泛应用。因此,DeepSeek-R1 在软件工程基准测试上相比 DeepSeek-V3 并没有显著改进。未来版本将通过对软件工程数据实施拒绝采样,或在强化学习过程中纳入异步评估来提高效率,从而解决这一问题。

通俗解释

这篇研究主要是讲怎么用强化学习让模型更会推理。DeepSeek-R1-Zero 是直接用强化学习训练的,不用冷启动数据,在很多任务里表现都不错。DeepSeek-R1 更厉害,用了冷启动数据,还反复用强化学习微调,最后和 OpenAI 很厉害的 o1-1217 模型表现差不多。
团队还把 DeepSeek-R1 的推理能力教给了小模型,用它生成的 80 万个样本去训练小模型,结果小模型成绩很好,比一些以前的模型考得都好。
不过,DeepSeek-R1 也有不足的地方,以后团队打算从这几个方面继续研究改进。在通用能力方面,它在函数调用这些任务上不如 DeepSeek-V3,以后看看能不能用长思维链让它在这些任务里表现更好。在语言方面,它对中文和英文优化得比较好,处理其他语言容易混,之后要解决这个问题。在提示方面,它对提示很敏感,少样本提示会让它发挥不好,所以建议用户直接描述问题、用零样本设置。在软件工程任务方面,因为评估时间长,大规模强化学习用得少,它在这方面进步不大,以后会用拒绝采样、异步评估这些方法来提高效率。


作者 east
面试 2月 7,2025

从几千份大数据面经吐血整理:大厂大数据高频八股文面试题

这是从大厂,特别是互联网大厂几百份面试题中挑选各个知识点高频,又有一定难度的面试题,包含了大量每次面试经常问的面试题,吃透这份面试题,可以覆盖大部分八股文面试题。

请详细说一说 Java 中的四种引用:强引用、软引用、弱引用、虚引用

java 类加载机制

Java 的抽象类和接口有什么区别和联系

介绍一下 Java 的反射

GC 算法有哪些

请说明进程与线程的区别

请说明栈和堆的区别,以及它们具体存放的东西

红黑树和二叉搜索树,二叉树之间的区别

hashmap 的底层原理

Redis 有哪些常用的数据结构和使用场景

Redis 数据结构的底层结构

描述一下链表和数组之间的区别

常见的排序算法,时间复杂度,空间复杂度

红黑树和二叉搜索树,二叉树之间的区别

Java 线程创建的几种方式

Hadoop 的序列化和 Java 的序列化的区别

Hadoop 的 Combiner 的作用,什么情况下不能用 Combiner

hadoop ha 当一个 namenode 挂掉。会有数据丢失吗。如果有,有什么解决方法

介绍下 HDFS,说下 HDFS 优缺点,以及使用场景

简单介绍一下 HDFS 架构及其读写流程

HDFS 的常见数据格式,列式存储格式和行存储格式异同点,列式存储优点有哪些

Hadoop的checkpoint流程

Hadoop的默认块大小是多少?为什么要设置这么大?

Hadoop常见的压缩算法?

Hadoop作业提交到YARN的流程?

HDFS的块默认大小,64M和128M是在哪个版本更换的?怎么修改默认块大小?

MapReduce为什么一定要有环型缓冲区

MapReduce数据倾斜产生的原因及其解决方案

MapReduce Shuffle为什么要将数据写入环形缓冲区

YARN的设计思路是什么

说下为什么要使用Hive?Hive的优缺点?Hive的作用是什么?

Hive内部表和外部表的区别?

Hive的三种自定义函数是什么?实现步骤与流程?它们之间的区别?作用是什么?

Hive的cluster by、sort by、distribute by、order by区别?

Hive分区和分桶的区别及如何优化

Hive 的 union 和 union all 的区别

Hive 的 join 操作原理,left join、right join、inner join、outer join 的异同

Hive 的开窗函数有哪些

Hive row_number,rank,dense_rank 的区别

迪卡尔积会产生什么问题?

迪卡尔积会产生数据倾斜吗?

介绍下Flume采集数据的原理?底层实现?

Hadoop的Checkpoint流程?

Kafka怎么保证数据不丢失,不重复?

Kafka的offset存在哪?

Flink 的四大基石都有哪些?

Kafka 怎么保证消费顺序正确

watermark 的作用是啥?如何保证数据不丢失?

请介绍一下 Kafka 选举流程。

请介绍 Kafka 的功能和高吞吐的原因。

HBase 中的二级索引

在删除 HBase 中的一个数据的时候,它什么时候真正的进行删除呢?当你进行删除操作,它是立马就把数据删除掉了吗?

列式数据库的适用场景和优势?列式存储的特点?

HBase 为什么随机查询很快?

HBase RowKey 设计原则

HBase 的热点问题

Spark 和 Hadoop 区别

Spark 的工作原理是什么?

Spark 的工作流程是什么?

Spark on standalone 模型、YARN 架构模型

什么情况下会产生Spark Shuffle?

Spark数据倾斜问题,如何定位,解决方案

Spark join在什么情况下会变成窄依赖?

Spark的batchsize,怎么解决小文件合并问题?

Spark参数(性能)调优

介绍一下Spark怎么基于内存计算的

reduceByKey和groupByKey的区别和作用?

使用reduceByKey出现数据倾斜怎么办?

Spark为什么比Hadoop速度快?

Spark 的 RDD 是什么?具体解释下弹性是怎么实现的?

Spark Streaming的双流join的过程,怎么做的?

Spark SQL读取文件,内存不够使用,如何处理?

Sparkstreaming和Flink的区别

Checkpoint产生了很多快照,怎么进行处理呢?

SparkStreaming和StructuredStreaming的区别

Flink架构

Flink的四大基石都有哪些?

watermark的作用是啥?如何保证数据不丢失?

Flink的窗口了解哪些,都有什么区别,有哪几种?如何定义?

Flink的Checkpoint底层如何实现的?savepoint和checkpoint有什么区别?

Flink的ExactlyOnce语义怎么保证?

Flink和Spark的区别?什么情况下使用Flink?有什么优点?

Flink backPressure反压机制,指标监控你是怎么做的?如何处理背(反)压?

Flink解决数据延迟的问题

数据仓库分层(层级划分),每层做什么?分层的好处?

星型模型和雪花模型的区别?应用场景?优劣对比

增量表、全量表和拉链表

数据仓库怎么设计表,怎么建模

增量表和全量表优缺点?

拉链表概念?缓慢变化维概念?

数据库事务的隔离级别?解决了什么问题?默认事务隔离级别?

为什么要有三大范式,建数据库时一定要遵循吗?

数据库第一范式、第二范式和第三范式的作用

说说事务的 ACID 特性

mysql 索引失效的原因?

mysql 索引的数据结构为什么使用 B + 树?

SQL 调优怎么做的?

说说三次握手和四次挥手,为什么不能两次握手和三次挥手

TDP 和 UDP 的区别

HTTP 有哪些状态码?

关注公众号【大模型全栈程序员】回复“大数据八股文”获取详细参考答案

作者 east
doris 2月 7,2025

Doris更新某一列完整教程

通过临时表来更新
例如有下面的表结构

ods_t_iot (
pid varchar(255) NOT NULL,
ptime bigint NOT NULL,
pvalue decimal(38,9) NOT NULL,
ds varchar(30) NULL
) ENGINE=OLAP
UNIQUE KEY(pid, ptime, pvalue, ds)
需要把ds这一列更新为2025-02-07

  1. 创建一个新表并导入数据
    由于不能直接使用 UPDATE,一种常见的方法是创建一个新表,然后通过批量插入的方式将数据导入,并修改 ds 列的值。下面是详细步骤:

步骤 1: 创建一个新表
首先,我们需要创建一个新的表,结构与原表一致,唯一的区别是我们会把 ds 列的默认值设置为 ‘2025-02-07’,并确保与原表的列顺序、类型保持一致。

CREATE TABLE ods_t_iot_new like ods_t_iot;
步骤 2: 使用 INSERT INTO SELECT 语句从原表导入数据
接下来,我们将原表的数据导入到新表中,同时确保 ds 列的值设置为 ‘2025-02-07’。可以使用以下 SQL:

INSERT INTO ods_t_iot_new (pid, ptime, pvalue, ds) SELECT pid, ptime, pvalue, IFNULL(ds, ‘2025-02-07’) AS ds FROM ods_t_iot;
在这里,IFNULL(ds, ‘2025-02-07’) 会将原表中 ds 列为 NULL 的数据替换为 ‘2025-02-07’。

步骤 3: 删除原表并重命名新表
导入数据完成后,我们可以删除原表并将新表重命名为原表名。这样,所有数据都已经更新,ds 列也被设置为 ‘2025-02-07’。

DROP TABLE ods_t_iot;

ALTER TABLE ods_t_iot_new RENAME ods_t_iot;

作者 east
大数据开发, 面试 2月 3,2025

二本生的破局:从迷茫到上岸知名互联网大数据岗,我是这样做的

​

大学时的迷茫,直到如今回想起来,依然觉得有点“懵懂”。我本科就读于一所普通的二本院校,专业是计算机相关。对于未来的职业方向,我一直没有一个明确的目标。身边的师兄师姐们给出了很多建议。Java开发的岗位早已是“烂大街”的状态,几乎人人都能进入,但也难以脱颖而出。C++的就业方向则相对小众,竞争相对较小,但是行业需求并不大。大数据开发虽然岗位不多,但薪资可观,且未来的增长潜力巨大——这让我决心全力投入到大数据的学习和实践中。

刷题:编程能力的磨砺之路

提升编程能力,绝对是每个技术开发者必须经历的过程。对于我来说,刷题成为了提升编程能力的“必经之路”。无论是面试中的笔试,还是实际的编码工作,扎实的编程能力总是能起到决定性的作用。通过LeetCode,我挑战了200+道题。最初,很多题目都让我头大,甚至看半天也没有任何思路,感觉几乎要放弃。但我始终坚持每一道题,仔细分析每种解题方法,总结出最优的解法。

解决不了的问题,我会去寻找答案,去研究大神们是如何分析并解决问题的,理解他们的思路之后,我自己再亲手实现一遍。这个过程不仅是对算法的磨练,更是对思维方式的训练。

除了LeetCode,我还选择了《剑指 Offer》这本书。这本书的题目紧扣面试核心,尤其适合那些准备大数据或Java开发岗位的应聘者。书中不仅有面试中常见的题目,还特别注重对思路的培养。虽然有些题目一开始并不容易通过,但在面试现场,面试官更看重的是你的思考过程和解决方案,而不是你是否一次性通过了所有测试用例。

特别是大厂高频手撕面试题,更是要准备熟悉:

从上千份大厂面经呕心沥血整理:大厂高频手撕面试题(数据结构和算法篇 ,Java实现亲试可跑)


数据库:SQL技能是大数据开发的根基

SQL是大数据开发者必须掌握的一项技能,尤其是在与数据库打交道的过程中,它是操作数据的核心工具。对我来说,SQL不仅仅是日常工作中处理数据的工具,它更是提高自己业务理解和解决问题的“钥匙”。

我在学习SQL时,花了大量时间深入理解了它的高级用法,特别是窗口函数、子查询等复杂查询方法。为了更加深入地理解SQL的应用,我做了大量的练习,包括针对具体业务场景的SQL题目,如留存分析、在线时长统计、漏斗分析、连续登录天数计算等。这些练习不仅提升了我的SQL能力,还帮助我理解了如何通过SQL解决实际工作中的问题。面试中,我几乎没有遇到过SQL方面的难题,面试官通常会对我解决问题的方式给予高度评价。

大厂面试手撕SQL面试题(Hive实现:样例数据、详细思路、亲试可行的运行截图)_hive sql经典面试题-CSDN博客


理论学习:扎实的知识体系是进阶的基石

尽管编程和SQL能力非常重要,但大数据开发所涉及的理论知识同样不容忽视。这些理论知识不仅能帮助你解决实际问题,更能让你站在更高的角度去思考和分析问题。为了在大数据开发领域立足,我专注于构建一个完整的知识体系,包括数据仓库理论、操作系统原理、计算机网络、Java基础等方面的知识。

数据仓库与分层理论:
为了深入了解大数据在企业中的实际应用,我精读了《维度建模工具箱》和《大数据之路:阿里巴巴大数据实践》这两本书。《维度建模工具箱》详细介绍了如何进行数据建模,特别是维度建模,这对构建灵活且高效的数据仓库架构至关重要。而《大数据之路:阿里巴巴大数据实践》则通过阿里巴巴的真实案例,帮助我理解了大数据的应用场景以及发展趋势。

操作系统与计算机网络:
作为计算机专业的基础课程,操作系统和计算机网络对于大数据开发的深入理解同样重要。我花了两周时间复习了这些基础课程,结合项目中的实际应用加深理解。例如,在操作系统的进程管理与内存管理的复习过程中,我结合了大数据处理中的并发控制、资源分配等内容;在学习计算机网络的TCP/IP协议时,我思考这些知识如何在Hadoop等大数据组件的网络通信中得以应用。

Java编程与多线程:
Java是大数据开发中最常用的编程语言之一,我花了一个月时间复习Java的基础、源码、多线程以及JVM的相关内容。通过深入分析Java的类库和源码,我理解了Java的底层实现。多线程和JVM的内容相对复杂,但我通过阅读经典书籍并结合实际案例进行了深入学习,并最终在面试中得心应手。

MySQL优化:
MySQL作为常用的关系型数据库,优化MySQL的性能也是大数据开发者的必修课。我读了两遍《高性能MySQL》,这本书涵盖了MySQL的性能优化、索引优化、存储引擎等核心知识。在实际项目中,通过对MySQL的优化,我提升了数据存取效率,减少了响应时间,确保了数据库在大数据场景下的高效运行。


大数据组件:从基础到深入,掌握核心技术

在学习了编程语言和理论知识之后,我将重点放在了大数据开发的核心技术上。对于一个大数据开发者来说,掌握相关的大数据组件和框架是进入行业的必要条件。

Hadoop:
Hadoop作为大数据处理的基础框架,我通过反复研读《Hadoop权威指南》,深入了解了Hadoop的架构、HDFS(分布式文件系统)、MapReduce(分布式计算框架)和YARN(资源管理器)。我不仅仅停留在理论层面,还通过搭建Hadoop集群,进行了一些实际操作,积累了大量的实践经验。

Hive:
Hive是基于Hadoop的SQL查询工具,我不仅学习了HiveQL的基本语法,还深入研究了Hive的性能调优和配置优化。在项目中,我通过实践学会了如何使用Hive进行数据仓库建设和数据分析,同时优化了查询性能,提高了数据处理效率。

Spark与其他工具:
虽然Spark、Flink、Kafka等大数据工具的学习我并没有深入到实际项目中,但我确保了自己对这些工具的基本概念、应用场景和技术原理有足够的了解。对于每个工具的学习,我都花时间去了解它们的功能、优势以及如何在特定场景下应用。


精美简历:突出重点,简洁明了

简历是进入面试的第一步,而对于我来说,如何让简历“脱颖而出”是一项不容忽视的挑战。为了让面试官快速抓住我的核心竞争力,我在简历中只列出了自己真正掌握的技术,如Hadoop、Hive、Spark等。

在描述项目经验时,我尽量详细描述自己在项目中的职责、解决的关键问题和取得的成绩。例如,在数据仓库建设项目中,我详细阐述了自己负责的模块设计、遇到的难点以及如何克服这些问题;在报表开发中,我展示了如何优化查询流程、提高数据处理效率。通过这些真实的项目经验,我的简历更具说服力。


面试准备:知己知彼,百战不殆

除了理论学习与技能提升,面试技巧的磨练同样不可忽视。我查阅了大量大数据开发岗位的面试经验和面试题,整理成文档,并进行逐一分析。通过这些面经,我不仅了解了面试官最关心的技术点,还学习了如何在面试中展示自己的优势。

面试过程中,我始终保持自信,尽量展示出我的技术深度与广度。同时,我也通过模拟面试,提升自己的表达能力和应变能力。

这里汇集了上百家中大厂的大数据面经:

大数据最全面试题-Offer直通车


面试过程:从等待到收获

投递简历后,我并没有期待快速的反馈。前期的简历投递并没有让我立刻迎来面试机会,但我没有气馁。在不断优化简历、提升技术实力后,面试机会开始逐渐增多。经过几轮严格的笔试和面试,我最终成功拿到了某知名互联网企业的大数据开发岗位的Offer,薪资在同行中领先。

大数据大厂校招网申入口最全集合和2025年校园招聘时间线(持续更新)

这段求职历程不仅让我收获了职位,也让我深刻体会到,只有通过持续的学习和实践,才能在激烈的技术竞争中站稳脚跟。 ​

作者 east

关注公众号“大模型全栈程序员”回复“小程序”获取1000个小程序打包源码。回复”chatgpt”获取免注册可用chatgpt。回复“大数据”获取多本大数据电子书

标签

AIGC AI创作 bert chatgpt github GPT-3 gpt3 GTP-3 hive mysql O2O tensorflow UI控件 不含后台 交流 共享经济 出行 图像 地图定位 外卖 多媒体 娱乐 小程序 布局 带后台完整项目 开源项目 搜索 支付 效率 教育 日历 机器学习 深度学习 物流 用户系统 电商 画图 画布(canvas) 社交 签到 联网 读书 资讯 阅读 预订

官方QQ群

小程序开发群:74052405

大数据开发群: 952493060

近期文章

  • 详解Python当中的pip常用命令
  • AUTOSAR如何在多个供应商交付的配置中避免ARXML不兼容?
  • C++thread pool(线程池)设计应关注哪些扩展性问题?
  • 各类MCAL(Microcontroller Abstraction Layer)如何与AUTOSAR工具链解耦?
  • 如何设计AUTOSAR中的“域控制器”以支持未来扩展?
  • C++ 中避免悬挂引用的企业策略有哪些?
  • 嵌入式电机:如何在低速和高负载状态下保持FOC(Field-Oriented Control)算法的电流控制稳定?
  • C++如何在插件式架构中使用反射实现模块隔离?
  • C++如何追踪内存泄漏(valgrind/ASan等)并定位到业务代码?
  • C++大型系统中如何组织头文件和依赖树?

文章归档

  • 2025年6月
  • 2025年5月
  • 2025年4月
  • 2025年3月
  • 2025年2月
  • 2025年1月
  • 2024年12月
  • 2024年11月
  • 2024年10月
  • 2024年9月
  • 2024年8月
  • 2024年7月
  • 2024年6月
  • 2024年5月
  • 2024年4月
  • 2024年3月
  • 2023年11月
  • 2023年10月
  • 2023年9月
  • 2023年8月
  • 2023年7月
  • 2023年6月
  • 2023年5月
  • 2023年4月
  • 2023年3月
  • 2023年1月
  • 2022年11月
  • 2022年10月
  • 2022年9月
  • 2022年8月
  • 2022年7月
  • 2022年6月
  • 2022年5月
  • 2022年4月
  • 2022年3月
  • 2022年2月
  • 2022年1月
  • 2021年12月
  • 2021年11月
  • 2021年9月
  • 2021年8月
  • 2021年7月
  • 2021年6月
  • 2021年5月
  • 2021年4月
  • 2021年3月
  • 2021年2月
  • 2021年1月
  • 2020年12月
  • 2020年11月
  • 2020年10月
  • 2020年9月
  • 2020年8月
  • 2020年7月
  • 2020年6月
  • 2020年5月
  • 2020年4月
  • 2020年3月
  • 2020年2月
  • 2020年1月
  • 2019年7月
  • 2019年6月
  • 2019年5月
  • 2019年4月
  • 2019年3月
  • 2019年2月
  • 2019年1月
  • 2018年12月
  • 2018年7月
  • 2018年6月

分类目录

  • Android (73)
  • bug清单 (79)
  • C++ (34)
  • Fuchsia (15)
  • php (4)
  • python (43)
  • sklearn (1)
  • 云计算 (20)
  • 人工智能 (61)
    • chatgpt (21)
      • 提示词 (6)
    • Keras (1)
    • Tensorflow (3)
    • 大模型 (1)
    • 智能体 (4)
    • 深度学习 (14)
  • 储能 (44)
  • 前端 (4)
  • 大数据开发 (488)
    • CDH (6)
    • datax (4)
    • doris (30)
    • Elasticsearch (15)
    • Flink (78)
    • flume (7)
    • Hadoop (19)
    • Hbase (23)
    • Hive (40)
    • Impala (2)
    • Java (71)
    • Kafka (10)
    • neo4j (5)
    • shardingsphere (6)
    • solr (5)
    • Spark (99)
    • spring (11)
    • 数据仓库 (9)
    • 数据挖掘 (7)
    • 海豚调度器 (10)
    • 运维 (34)
      • Docker (3)
  • 小游戏代码 (1)
  • 小程序代码 (139)
    • O2O (16)
    • UI控件 (5)
    • 互联网类 (23)
    • 企业类 (6)
    • 地图定位 (9)
    • 多媒体 (6)
    • 工具类 (25)
    • 电商类 (22)
    • 社交 (7)
    • 行业软件 (7)
    • 资讯读书 (11)
  • 嵌入式 (70)
    • autosar (63)
    • RTOS (1)
    • 总线 (1)
  • 开发博客 (16)
    • Harmony (9)
  • 技术架构 (6)
  • 数据库 (32)
    • mongodb (1)
    • mysql (13)
    • pgsql (2)
    • redis (1)
    • tdengine (4)
  • 未分类 (6)
  • 程序员网赚 (20)
    • 广告联盟 (3)
    • 私域流量 (5)
    • 自媒体 (5)
  • 量化投资 (4)
  • 面试 (14)

功能

  • 登录
  • 文章RSS
  • 评论RSS
  • WordPress.org

All Rights Reserved by Gitweixin.本站收集网友上传代码, 如有侵犯版权,请发邮件联系yiyuyos@gmail.com删除.