简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » MIT天才刚毕业就被前OpenAI CTO抢走 年薪$50万…

MIT天才刚毕业就被前OpenAI CTO抢走 年薪$50万…

文章来源: 新智元 于 2026-01-14 13:39:20 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数

本文转载自:新智元

MIT天才博士一毕业,火速加盟OpenAI前CTO初创!

最近,肖光烜(Guangxuan Xiao)在社交媒体官宣,刚刚完成了MIT博士学位。

下一步,他将加入Thinking Machines,专注于大模型预训练的工作。

评论区下方,英伟达科学家、xAI研究员、UCSD等一众大佬,为他本人送上了祝贺。

清华双学位学霸,MIT博士开挂人生

打开他的个人主页,多元而充实的经历便映入眼帘。

肖光烜本科毕业于清华大学,拿到了双学位,主修的是计算机科学,金融学是第二学位。

在此期间,他获得了清华大学综合优秀奖学金(2019)、全国大学生数学建模竞赛(CUMCM)一等奖(2020)、国家奖学金(2020)、清华大学「未来学者」奖学金(2021)等多项奖项。

他曾于2020–2021年作为访问生(Visiting Student),前往斯坦福大学计算机系开展科研工作。

2022年,肖光烜加入MIT攻读博士学位,导师为韩松(Song Han)教授。

个人研究方向聚焦于:深度学习的高效算法与系统,尤其是大规模基础模型(Foundation Model)。

他于2022年9月至2026年1月,在MIT EECS担任全职研究助理(Research Assistant)。

读博期间,肖光烜曾多次进入全球顶级科技大厂从事前沿研究实习,具备了丰富的一线工业研发的经验。

论文地址:https://arxiv.org/pdf/2309.17453

2024年2-5月期间,他作为英伟达实习生,研究方向是为长上下文大语言模型推理加速。

他和团队提出了DuoAttention,结合检索与流式注意力头,实现高效推理。

论文地址:https://research.nvidia.com/labs/eai/publication/duoattention/

随后,他又参与了多项核心研究项目,其中包括:

XAttention:基于反对角评分的块稀疏注意力机制

StreamingVLM:面向无限视频流的实时理解模型

FlashMoBA:混合块注意力(Mixture of Block Attention)的高效优化

值得一提的是,肖光烜在研究之外,还有丰富的兴趣爱好,比如足球、乒乓球、围棋、钢琴。

他曾担任所在院系足球队的队长兼先锋,贝多芬的作品是个人最爱。

一篇博士论文,破解LLM三大难题

比起耀眼的履历,肖光烜的博士论文本身更值得深入研析与拆解。

不得不承认,如今大模型已经无所不能,但它们依然太贵了。

显存爆炸、推理太慢、长上下文直接OOM(内存溢出),这是几乎所有LLM工程团队每天都在面对的现实。

Efficient Algorithms and Systems for Large Language Models这篇论文,给出了一个罕见的、从工程到理论、从算法到架构的完整答案。

论文中, 他们提出了SmoothQuant,解决了一个长期困扰工业界的问题——激活值异常(activation outliers)。

SmoothQuant通过一个巧妙的数学等价变换,把量化难点从「激活」转移到「权重」。

结果,它实现了首个在十亿级模型上W8A8无损量化,无需重新训练,显存更小、推理更快。

针对超长序列的处理,作者在StreamingLLM中发现了「注意力汇点」(attention sink)现象——

即使没有任何语义,初始token会被后续token持续关注。这些token的作用不是「理解」,而是数值稳定。

结果,实现了常数内存的流式推理,模型上下文长度从数千token扩展到百万级。

更进一步,他们又把这一思想推广到多模态,StreamingVLM可以在保持时间一致性的同时处理长达数小时的视频内容。

对于超长上下文场景,团队又提出一个互补方案,分别针对不同的性能瓶颈。

KVCache太大,采用DuoAttention

注意力头本身就有分工:少数负责「全局检索」,多数只看「最近上下文」。

DuoAttention用混合策略,大幅降低显存,却几乎不掉性能。

预填充(Prefill)太慢,采用XAttention

利用反对角线评分机制,仅识别、计算必要的注意力块,从而实现显著的加速效果。

论文的最后,并没有止步于「优化现有模型」,通过对MoBA(块混合注意力) 的信噪比分析,作者证明了:

理论上,block越小越好。

但现实是,GPU不答应,于是有了FlashMoBA,一种定制化的CUDA内核,使小块架构在实践中可行,并实现了最高可达9倍的速度提升。

这篇论文的价值在于,构建了一整套高效大模型的完整框架,既回应了当下的现实挑战,也为下一代计算高效、普惠可及的AGI奠定了基础。

平均350万年薪,碾压OpenAI

最后来到一个大家比较感兴趣的话题——薪资。

去年,硅谷人才争夺战激烈,BI一篇独家挖到了Thinking Machines(TML)给员工们开出的薪资——

基础年薪高达50万美元(约350万元)。

据BI获取的招聘数据,TML向两名技术员工支付了45万美元的基础年薪,另一名员工的年薪则高达50万美元。

第四名员工被列为「联合创始人/机器学习专家」,其年薪同样为45万美元。

这些薪酬数据,来自2025年第一季度,早于Murati以100亿美元的估值,成功完成20亿美元的种子轮融资。

总体来看,TML为这四名技术员工提供的平均年薪达到462,500美元。

相较之下,TML明显高于业内更为成熟LLM公司——

OpenAI在相关申报文件中列出的29名技术员工,平均年薪为292,115美元。

其中最高薪资为53万美元,最低为20万美元。

Anthropic向14名技术员工支付的平均年薪为387,500美元,薪资区间在30万至69万美元之间。

虽然比起Meta疯狂的超1亿美元薪酬还差得远,但这一水平也在硅谷数一数二。

果然,21世纪最贵的还是人才。

  • 功效卓著,回头客众多!美国专利【骨精华】消除关节痛//骨质疏松;【心血通+益脑灵】强心护脑。
查看评论(19)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2026 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

带回家睡!美国大兵"强制性侵"冲绳未成年少女,最终判决出炉
爱泼斯坦案新视频:女孩提供跪式服务 穿水手服爬行
阴谋论成真!游艇“吃人事件”肢解儿童 这些大咖参与
伊朗愿交出浓缩铀,关闭核设施!官员:美伊6日伊斯坦堡会谈
乔布斯之子投身风投,募资2亿美元抗癌




24小时讨论排行

川普再掀风暴 想将大选投票国家化 夺取州权引争议
德媒记者结束6年中国生活感叹:这个政权稳如磐石
川普惊世玩笑:加拿大变51州 格陵兰第52州 委内瑞拉…
ICE清早突袭华人家庭旅馆 抓走8名华人 疑被举报
从川粉变川黑 美前众议员葛林:MAGA全是谎言
中国禁电动车“隐藏式门把”!开全球先河
震撼!美军“光束融化”实测成功 无限弹药 无人机克星
为何特朗普加征关税未导致2025年美国通胀飙升?
NASA登月火箭升空彩排燃料泄漏 发射计划延至3月
高晓松抖音直播 满屏全是“滚”字 尴尬下播
前妻回应“比尔·盖茨与俄女孩发生性关系并隐瞒性病”
中国抵制没效!日本食品出口飙破1.7兆日圆创纪录
年售超1亿只 Costco“神鸡”出事了!消费者集体诉讼
印度停购俄油"川普关税50%→18%",贸易协议内容曝光
爱泼斯坦文件中“吃人”传闻是怎么来的?是真的吗?
97岁新加坡富商要娶女秘书 次子求判父亲“心智不全”
文学城新闻
切换到网页版

MIT天才刚毕业就被前OpenAI CTO抢走 年薪$50万…

新智元 2026-01-14 13:39:20

本文转载自:新智元

MIT天才博士一毕业,火速加盟OpenAI前CTO初创!

最近,肖光烜(Guangxuan Xiao)在社交媒体官宣,刚刚完成了MIT博士学位。

下一步,他将加入Thinking Machines,专注于大模型预训练的工作。

评论区下方,英伟达科学家、xAI研究员、UCSD等一众大佬,为他本人送上了祝贺。

清华双学位学霸,MIT博士开挂人生

打开他的个人主页,多元而充实的经历便映入眼帘。

肖光烜本科毕业于清华大学,拿到了双学位,主修的是计算机科学,金融学是第二学位。

在此期间,他获得了清华大学综合优秀奖学金(2019)、全国大学生数学建模竞赛(CUMCM)一等奖(2020)、国家奖学金(2020)、清华大学「未来学者」奖学金(2021)等多项奖项。

他曾于2020–2021年作为访问生(Visiting Student),前往斯坦福大学计算机系开展科研工作。

2022年,肖光烜加入MIT攻读博士学位,导师为韩松(Song Han)教授。

个人研究方向聚焦于:深度学习的高效算法与系统,尤其是大规模基础模型(Foundation Model)。

他于2022年9月至2026年1月,在MIT EECS担任全职研究助理(Research Assistant)。

读博期间,肖光烜曾多次进入全球顶级科技大厂从事前沿研究实习,具备了丰富的一线工业研发的经验。

论文地址:https://arxiv.org/pdf/2309.17453

2024年2-5月期间,他作为英伟达实习生,研究方向是为长上下文大语言模型推理加速。

他和团队提出了DuoAttention,结合检索与流式注意力头,实现高效推理。

论文地址:https://research.nvidia.com/labs/eai/publication/duoattention/

随后,他又参与了多项核心研究项目,其中包括:

XAttention:基于反对角评分的块稀疏注意力机制

StreamingVLM:面向无限视频流的实时理解模型

FlashMoBA:混合块注意力(Mixture of Block Attention)的高效优化

值得一提的是,肖光烜在研究之外,还有丰富的兴趣爱好,比如足球、乒乓球、围棋、钢琴。

他曾担任所在院系足球队的队长兼先锋,贝多芬的作品是个人最爱。

一篇博士论文,破解LLM三大难题

比起耀眼的履历,肖光烜的博士论文本身更值得深入研析与拆解。

不得不承认,如今大模型已经无所不能,但它们依然太贵了。

显存爆炸、推理太慢、长上下文直接OOM(内存溢出),这是几乎所有LLM工程团队每天都在面对的现实。

Efficient Algorithms and Systems for Large Language Models这篇论文,给出了一个罕见的、从工程到理论、从算法到架构的完整答案。

论文中, 他们提出了SmoothQuant,解决了一个长期困扰工业界的问题——激活值异常(activation outliers)。

SmoothQuant通过一个巧妙的数学等价变换,把量化难点从「激活」转移到「权重」。

结果,它实现了首个在十亿级模型上W8A8无损量化,无需重新训练,显存更小、推理更快。

针对超长序列的处理,作者在StreamingLLM中发现了「注意力汇点」(attention sink)现象——

即使没有任何语义,初始token会被后续token持续关注。这些token的作用不是「理解」,而是数值稳定。

结果,实现了常数内存的流式推理,模型上下文长度从数千token扩展到百万级。

更进一步,他们又把这一思想推广到多模态,StreamingVLM可以在保持时间一致性的同时处理长达数小时的视频内容。

对于超长上下文场景,团队又提出一个互补方案,分别针对不同的性能瓶颈。

KVCache太大,采用DuoAttention

注意力头本身就有分工:少数负责「全局检索」,多数只看「最近上下文」。

DuoAttention用混合策略,大幅降低显存,却几乎不掉性能。

预填充(Prefill)太慢,采用XAttention

利用反对角线评分机制,仅识别、计算必要的注意力块,从而实现显著的加速效果。

论文的最后,并没有止步于「优化现有模型」,通过对MoBA(块混合注意力) 的信噪比分析,作者证明了:

理论上,block越小越好。

但现实是,GPU不答应,于是有了FlashMoBA,一种定制化的CUDA内核,使小块架构在实践中可行,并实现了最高可达9倍的速度提升。

这篇论文的价值在于,构建了一整套高效大模型的完整框架,既回应了当下的现实挑战,也为下一代计算高效、普惠可及的AGI奠定了基础。

平均350万年薪,碾压OpenAI

最后来到一个大家比较感兴趣的话题——薪资。

去年,硅谷人才争夺战激烈,BI一篇独家挖到了Thinking Machines(TML)给员工们开出的薪资——

基础年薪高达50万美元(约350万元)。

据BI获取的招聘数据,TML向两名技术员工支付了45万美元的基础年薪,另一名员工的年薪则高达50万美元。

第四名员工被列为「联合创始人/机器学习专家」,其年薪同样为45万美元。

这些薪酬数据,来自2025年第一季度,早于Murati以100亿美元的估值,成功完成20亿美元的种子轮融资。

总体来看,TML为这四名技术员工提供的平均年薪达到462,500美元。

相较之下,TML明显高于业内更为成熟LLM公司——

OpenAI在相关申报文件中列出的29名技术员工,平均年薪为292,115美元。

其中最高薪资为53万美元,最低为20万美元。

Anthropic向14名技术员工支付的平均年薪为387,500美元,薪资区间在30万至69万美元之间。

虽然比起Meta疯狂的超1亿美元薪酬还差得远,但这一水平也在硅谷数一数二。

果然,21世纪最贵的还是人才。