分类: AI

98 篇文章

thumbnail
让 LLM 拥有“可治理的记忆”:MemOS:A Memory OS for AI System 论文解读
随着大语言模型(LLM)能力的持续扩展,研究者和开发者逐渐意识到,若要真正迈向通用人工智能(AGI),模型不仅需要强大的语言生成能力,更应具备**长期一致性、知识演化能力与用户个性化适配能力**。因此,越来越多的系统开始尝试将 LLM 作为智能体(Agent)进行封装,并探索其在多轮对话、长期任务、知识积累等真实场景中的表现。 然而,当前主流大语言…
thumbnail
大模型真的能做推荐系统吗?ARAG论文给了我一个颠覆性的答案
前两天刷微博无意间刷到了一位老师转发的关于大模型做推荐系统的论文,这是 Walmart AI 团队近期发布的一篇论文:《ARAG: Agentic Retrieval-Augmented Generation for Personalized Recommendation》。老实说,在看这篇论文之前,我一直觉得大模型做推荐系统跟传统推荐系统是不值得…
每周AI论文速递(250505-250509)
## Perception, Reason, Think, and Plan: A Survey on Large Multimodal Reasoning Models [感知、推理、思考与规划:大模型多模态推理研究综述](https://arxiv.org/abs/2505.04921) 推理是智能的核心能力,决定了系统在决策、结论推导及跨领域…
每周AI论文速递(250428-250502)
## Towards Understanding Camera Motions in Any Video [理解任意视频中的摄像机运动](https://arxiv.org/abs/2504.15376) 我们提出了CameraBench,这是一个用于评估和提升摄像机运动理解能力的大规模数据集与基准。CameraBench包含约3,000个多样化的…
每周AI论文速递(250421-250425)
## Kuwain 1.5B: An Arabic SLM via Language Injection [Kuwain 1.5B:通过语言注入(Language Injection)构建的阿拉伯语小型语言模型(Small Language Model)](https://arxiv.org/abs/2504.15120) 增强现有模型的新知识能力…
每周AI论文速递(250414-250418)
## InternVL3: Exploring Advanced Training and Test-Time Recipes for Open-Source Multimodal Models [InternVL3:探索开源多模态模型的先进训练与测试阶段方案](https://arxiv.org/abs/2504.10479) 我们推出Inter…
thumbnail
Tool Calling、 MCP、A2A一文透析
这两年随着大模型的能力的飞速发展,我们可以依赖大模型做很多更加复杂的任务,为了完成这些任务,我们经常需要依赖于外部环境提供的能力,为了整合这些能力,涌现了多种扩展技术,目前很常用的就是工具/函数调用(Tool/Function Calling)和模型上下文协议(MCP, Model Context Protocol),此外就是最近才发布不久的Age…
每周AI论文速递(250310-250314)
Feature-Level Insights into Artificial Text Detection with Sparse Autoencoders 使用稀疏自编码器进行生成文本检测的特征级洞察 随着先进的大语言模型的兴起,生成文本检测变得越来越重要。尽管有许多努力,但没有单一算法在不同类型的未见文本上表现一致,或保证对新的大语言模型的有效…
每周AI论文速递(250303-250307)
Predictive Data Selection: The Data That Predicts Is the Data That Teaches 预测性数据选择:预测的数据即教学的数据 语言模型的预训练需要在广泛的语料库上进行训练,其中数据质量起着关键作用。在这项工作中,我们的目标是直接估计预训练期间数据的贡献,并以高效的方式选择预训练数据。具…
每周AI论文速递(250217-250221)
Large Language Diffusion Models 大语言扩散模型 自回归模型 (ARMs) 被广泛认为是大语言模型 (LLMs) 的基础。我们通过引入 LLaDA 来质疑这一观点,LLaDA 是一种在预训练和监督微调 (SFT) 范式下从头开始训练的扩散模型。LLaDA 通过前向数据掩码过程和反向过程来建模数据分布,参数化由一个普通的…