首款产品 Tinker,大幅降低大模型微调门槛,要重新发明一个OpenAI

Thinking Machines Lab 发布首款产品 Tinker,大幅降低大模型微调门槛

北京,2025年10月2日 —— 由前 OpenAI 高管 Mira Murati、翁荔(Lilian Weng)与陈丹琦联合创立的 Thinking Machines Lab,今日正式发布其首款产品——Tinker,一款面向研究人员的语言模型微调 API 工具,旨在让模型微调“像改 Python 代码一样简单”。

打破壁垒:微调不再高不可攀

Tinker 的推出标志着 Thinking Machines Lab 正式摘掉“0 产品 0 收入估值 840 亿”的标签。联合创始人翁荔表示:“GPU 价格昂贵,基础设施搭建复杂,这让很多研究人员难以接触前沿模型。Tinker 是我们提升研究生产力的第一步。”

与传统“上传数据、我们帮你训练”的黑箱模式不同,Tinker 让研究人员保留对数据、损失函数与算法的完全控制权,同时自动处理分布式训练、前后向传播、错误恢复等底层细节。用户只需修改一行代码,即可从小模型切换至大模型,支持 Qwen3 与 Llama3 系列。

开源+灵活:研究社区的“新玩具”

Tinker 提供底层训练接口如 forward_backward 与 sample,并采用 LoRA 技术实现多任务共享 GPU,显著降低实验成本。除云托管服务外,团队还开源了 Tinker Cookbook,涵盖多种后训练方法实现,供社区自由使用。

微软研究员在代码审查中发现,Tinker 并未采用 DeepSeek 提出的 GRPO 方法,而是使用经典 REINFORCE 算法配合优势函数,简化了梯度更新流程。其更新策略可概括为:

新参数 = 原参数 + 学习率 × 优势值 × 对数概率的梯度

业内反响:抽象与可控的平衡点

AI 基础设施公司 Anyscale 的 CEO Robert Nishihara 表示,Tinker 在“抽象化与可调性之间取得了卓越平衡”。普林斯顿、斯坦福、伯克利与 Redwood Research 等顶尖研究团队已成为首批用户,并基于 Tinker 完成多项实验。

AI 研究者 Andrej Karpathy 公开评价称:“Tinker 很酷。它让微调不再是‘换风格’,而是缩小任务范围的有效手段。尤其在训练样本充足时,微调小模型往往优于构建复杂 prompt。”

“重新发明一个 OpenAI”

Tinker 的发布只是开始。据多家媒体报道,Thinking Machines Lab 正在尝试“重新发明一个 OpenAI”——重建那个“尚未官僚化、公开分享成果、给研究者自由”的 OpenAI。

与此同时,OpenAI 则似乎正走向另一条路。近日,其 ChatGPT 应用代码中被发现正在测试“社交模式”,包括群聊通知、头像与昵称设置等功能,暗示其或将打造“AI 抖音”式社交平台。

关于 Thinking Machines Lab

Thinking Machines Lab 成立于 2024 年,由 Mira Murati、Lilian Weng 与陈丹琦联合创立,致力于降低 AI 研究门槛,推动前沿模型民主化。公司目前估值 84 亿美元,总部位于旧金山。

展开阅读全文

更新时间:2025-10-13

标签:科技   门槛   大幅   模型   产品   研究人员   代码   梯度   研究者   普林斯顿   底层   斯坦福   社交   抽象

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top