直到现在,这家公司的0个产品和0款型号的赞赏为
发布时间:2025-10-16 10:50
Xin Zhiyuan报告编辑:Dinghui如此多[Xin Zhiyuan简介]微调的大型模型不再是某些人的专利! Thinking Machines Lab推出了其第一个产品“ Tinker”,该产品专为语言模型的微调设计。这使开发人员可以完全摆脱基础体系结构的障碍,并通过简单的Python代码专注于算法和数据更改。 Thinking Machines Lab终于发布了其第一个产品Tinker!这不是模型或应用程序,而是专为语言模型进行微调设计的API。翻译后,Tinker允许几乎每个人都可以轻松安排自己的模型!对于研究人员和开发人员而言,Tinker天生就是为了解决一个主要的疾病点:如果我们想实验和自定义SOTA模型,我们经常对复杂的分布式NA培训基础设施感到兴奋。 Tinker的解决方案是,您仅专注于算法和数据,并且它们管理所有令人困惑的背景作品。不仅是T,从小型模型转变为庞然大物非常简单,您只需要更改Python代码中的字符串即可。该产品由OpenAI的前CTO创建,实际上是一件。正如首席执行官穆拉蒂(Murati)所说:“将切割工具带给研究人员,为编写实验和培训管道提供清晰的抽象接口,并处理共享培训的复杂性。它为现代研究,模型定制和开发可靠的基准表现提供了可能性。”作为回应,大老板卡帕西还在推特上发了推文,并赞扬了修补匠,他押注了维修模型NG模型的先前范式:这意味着即使是像您和您这样的普通用户,我也可以在模型级别进行干预,而不是仅仅保持输入水平并更改一些镜头!与“上载数据并在您的LLM上发布培训”的更常见的范式相比,卡帕西认为,修补匠是培训中“细分”复杂性的更聪明的方法。卡帕西认为微调是更好的训练后范式。某些镜头提示(也就是说,填写propt中的许多示例)在上下文的长度,即时设计和上述推理上都有许多限制。但是,在许多情况下,修复较小的模型并使用执行专业任务的模型可以实现更好或更稳定的性能,并且识别速度更快,更少。从理论上讲,思维机器实验室的第一个产品不仅针对开放的资源模型,而且还针对代表“权力”!例如,在过去,没有卡的模型,例如671b的Deptseek,没有卡。小型型号,例如2B和7B型号,初始性能不容易使用。在Tinker出现后,我们都有能力根据我们的需求和想法来安排特殊模型。每个人都可以“微调” Tinker模型只需要使用非常简单的Python代码即可完成“ Idea Expression”。作为停止服务-Host Th在实验室机器实验室的内部集群和培训基础架构中,它管理了所有繁琐的任务,例如任务调度,资源分配和失败的恢复。用户不必担心基础架构管理,并且可能立即开始大型或小型计算活动。 Tinker的主要功能包括:提供本机Python操作,例如forward_backward和示例,允许用户开发自定义的微调或增强研究(RL)算法。支持从小到大的各种开放式重量模型,包括QWEN-235B-A22B等混合体系结构。基于洛拉的基于综合方法的基于洛拉的方法使许多培训活动能够共享一系列计算资源,从而优化了成本效益。提供一个开放资源,支持一个名为Tinker Cookbook的库,其中包含实施NG,有许多培训方法。思维机器实验室使用Lora技术,该技术提供相同的便便l将资源计算为许多培训活动以降低成本。 Tinker API提供了基本的原始操作,例如forward_backward和样本,可用于实现最常见的训练后方法。通过修补匠可以固定所有尺寸的开放式模型,包括像QWEN-235B-A22B这样的大型混合模型。从小型模型转变为大型模型,您只需要将字符串更改为Python代码,并且操作非常简单。 Tinker目前正在支持QWEN系列和Llama系列中的模型。尽管该模型可能是色调的,但需要在现场处理许多细节以取得完美的结果。因此,他们发布了一个名为Tinker Cookbook的开放库来源,该库包含基于Tinker API运行的代码,该代码实现了各种高级培训技术。目前,Tinker处于免费的私人试用阶段,并在接下来的几周内推出了基于使用的定价模型。如果您想使用修补程序,您需要申请以加入用户白名单。应用地址为:https://form.typeform.com/to/jh2xnwig开发人员 - centric training apitinker不是另一个拖放界面或黑匣子精致的服务调整。取而代之的是,它提供了一种基础但易于使用的API,使研究人员可以正确控制损失功能,训练循环和数据流,并通过标准代码NG Python进行数据流。实际的培训工作负载运行到思维机的阶梯式基础架构,这使得可以快速分布的实施和删除GPU群集管理问题。莱斯特的学生的计算机科学专业学生加利福尼亚大学伯克西·泰勒·格里格斯(Burkesi Tyler Griggs)在API测试之后写道:学习服务的刺激性研究的许多服务都是专注于业务的,并且不允许用户取代培训逻辑。使用Tinker,您不记得计算资源,只关注“摆弄”气氛,算法和数据。普林斯顿和斯坦福大学D使用。在公开发布之前,Tinker在许多研究实验室中都使用。早期采用者包括来自伯克利,普林斯顿,斯坦福大学和红木研究的团队,每个IIN都将API应用于独特的模型培训问题:普林斯顿的Goedel Team使用了证明定理,它们的性能与MAN-POMETER可比的整个参数(MAN-PARMETER MAN-PARE-POMETER MANE-TUNE(SFT)模型,例如GOEDEL-PROVER V2,只有20%的数据。他们在Tinker中训练的模型在MiniF2F基准测试中达到了88.1%的成功率,自我纠正后达到了90.4%,超过了较大的封闭源模型。斯坦福大学的Rotskoff实验室使用Tinker训练化学识别模型。在基于Llama 70b模型的钢筋研究研究之后,IUPAC将化学配方转换为化学配方的准确性从15%跃升至50%。研究人员说,如果没有强大的基础设施支持,过去的增加就不会是周到的。 SK伯克利(Berkeley)的Teamyrl运行了一个自定义的多力度学习循环,涉及异步的非政策训练和多轮使用工具和修补匠的灵活性,这使得它成为可能。 Redwood Research使用Tinker在AI控制活动中的QWEN3-32B模型中进行增强培训。研究员埃里克·甘(Eric Gan)说,没有修补匠,他可能不会启动该项目,并指出扩展多节点训练是一个主要障碍。这些情况完美证明了修补弹性的灵活性 - 无论是经典的微调还是涵盖不同领域的高度实验性增强管道,它都提供了支持。参考:https://thinkingmachines.ai/blog/announcing-dinker/ 特别声明:上面的内容(包括照片或视频Kuanyway)已由“ NetEase” SelfMedia平台的用户上传和发布。该平台仅提供信息存储服务。 注意:上面的内容(包括照片和视频)已上传并由NetASE HAO用户发布,该用户是一个社交媒体平台,仅提供信息存储服务。