• 最新
UC伯克利新作颠覆认知:LLM靠「自信爆表」学会推理?无需外部奖励超进化_模型_确定性_代码生成

UC伯克利的华人团队发现,LLM居然跟人一样!靠自信来训练AI后,数学、编程性能提升惊人。就在刚刚,UC伯克利CS博士后Xuandong Zhao,分享出来自己「今年参与的最鼓舞人心的工作」。他和同事们发现,在没有外部奖励的情况下,...

从零开始200行python代码实现LLM_

大语言模型(LLM)很火,讨论的文章铺天盖地,但对于没有机器学习背景的人来说,看多了只是粗浅了解了一堆概念,疑惑只增不减。本文尝试从零开始,用python实现一个极简但完整的大语言模型,在过程中把各种概念“具象化”,让...

惊现狠人手搓Agent心经!LLM的Tool Use逻辑曝光!简单到爆炸:仅9行代码!网友直呼:难以相信!难点是LLM...

这是因为本身大模型也存在自身的能力边界,比如 Zeyliger 就对“LLM 正确修改代码文本”的能力存疑,并没有他想象中那么好。“看到它在处理 `sed` 的一行命令时频频出错,反而让我重新感叹:可视化编辑器(而非命令行)真的是...

开源AI开发生态大洗牌:低代码平台逆袭,传统LLM框架日渐式微

通过对这些项目的分析,蚂蚁开源认为,现在的开源生态中存在着三个主导的技术赛道—模型训练框架、高效推理引擎和低代码应用开发框架。在 训练 上,PyTorch在全景图中的所有项目中影响力位列第一;在 推理 上,高效推理引擎...

200行python代码实现从Bigram模型到LLM_

上一篇文 章《从零开始200行python代码实现LLM》,实现了一 个“诗词生成器”,从一个基于“概率统计”的实现开始,最后使用pytorch,实现了一个经典的Bigram模型。在Bigram模型里,每一个字只和前一个字有关,尽管是这样,...

江苏齐同浩渺申请基于因果推理和LLM的代码质量优化方法专利,实现代码质量优化并节约工程师时间精力|...

金融界2025年5月9日消息,国家知识产权局信息显示,江苏齐同浩渺信息科技有限公司申请一项名为“基于因果推理和LLM的代码质量优化方法、装置及存储介质”的专利,公开号CN119938061A,申请日期为2025年4月。专利摘要显示,本...

LLM的“记忆外挂”来了!Supermemory新API:一行代码让LLM记忆“无限+省钱90%”上下文|应用程序|chat|命令...

LLM的“记忆外挂”来了!Supermemory新API:一行代码让LLM记忆“无限+省钱90%”,代码,上下文,应用程序,chat,命令提示符,supermemory

首次解释LLM如何推理反思,西北大学谷歌新框架:引入贝叶斯自适应强化学习,数学推理全面提升

它的核心思想是将LLM的反思性探索转化为贝叶斯自适应强化学习问题来处理,通过引入对环境不确定性的建模,让模型在推理过程中自适应地进行探索。简单来说,BARL不再局限于传统RL的...最后,研究人员已经放出了训练代码和论文。...

LLM加RL遭质疑:故意用错奖励,数学基准也显著提升,AI圈炸了

看到这一点非常酷:如果一个模型擅长代码推理(代码准确率>语言准确率),RLVR 的增益主要来自于从语言到代码推理的转换;如果一个模型不擅长代码推理(代码准确率 在成功引导模型推理策略的奖励上平均计算,对整体性能增益的...

ACL2025|传统符号语言传递知识太低效?探索LLM高效参数迁移可行性

其中在天然存在的较大 LLM 和较小 LLM 对之间展开,将参数知识作为媒介。最近,中国科学院自动化所提出对 Parametric Knowledge Transfer(PKT,参数知识迁移)的全面分析。一句话总结:跨规模大模型之间的表现相似和参数结构...

相关阅读