Skip to content

AI 速递 2026-03-26

生成时间:2026/3/26 09:14:51(UTC: 2026-03-26T01:14:51.105Z)

数据来源:Trendshift · GitHub Trending

⭐ 39,355 · Python

字节跳动开源的超级智能体框架,支持自主研究、编码和内容创作。该项目原生集成了沙盒环境、记忆系统、工具调用和子智能体路由机制,非常适合工程团队作为处理长耗时、多步骤复杂任务的 Agent 架构选型参考。

⭐ 43,700 · Python

仅需2小时即可从零训练一个 64M 参数量的小型 GPT 模型。这为 AI 基础设施工程师提供了一个极佳的轻量级模型训练范例,非常适合用于快速验证训练流水线、测试推理引擎优化策略或进行端侧部署实验。

⭐ 24,427 · TypeScript

专为 Claude 打造的领先智能体编排平台,支持多智能体集群部署和工作流协调。其原生集成了 RAG 能力与 Claude Code,为构建企业级分布式智能体系统提供了开箱即用的 TypeScript 架构方案。

⭐ 4,763 · Python

一个能跨平台(Reddit、X、YouTube等)进行主题研究并生成事实总结的 AI 智能体技能库。它展示了如何将多源异构数据的检索与大模型的信息整合能力结合,为构建具备全网信息搜集能力的 RAG 智能体提供了优秀的工程实现。

OpenResearcher:用于长周期深度研究轨迹合成的完全开源流水线

Section titled “OpenResearcher:用于长周期深度研究轨迹合成的完全开源流水线”

👍 69 · arXiv

提出了一种可复现的数据收集流水线,解决了训练深度研究智能体时依赖专有 API 导致成本高昂和不稳定的问题。这为工程团队在内部低成本构建和微调具备多步推理、工具调用能力的 Agent 提供了重要的数据合成参考。

SpecEyes:通过投机感知与规划加速智能体多模态大语言模型

Section titled “SpecEyes:通过投机感知与规划加速智能体多模态大语言模型”

👍 42 · arXiv

针对多模态智能体在感知、推理和工具调用循环中产生的严重延迟问题,提出了一种投机执行机制。该研究直接击中了当前 Agent 系统并发能力差、响应慢的工程痛点,为优化多模态 Agent 的推理架构和降低系统级延迟提供了新思路。

从静态模板到动态运行时图:LLM 智能体工作流优化综述

Section titled “从静态模板到动态运行时图:LLM 智能体工作流优化综述”

👍 41 · arXiv

系统性地回顾了将 LLM 调用、检索、工具使用和代码执行构建为可执行工作流的方法,并将其统一为智能体计算图(ACGs)。这篇综述对正在进行 Agent 编排框架选型和底层架构设计的工程师具有极高的指导价值。

关注关键区域:面向高效视觉语言模型的高分辨率裁剪检索

Section titled “关注关键区域:面向高效视觉语言模型的高分辨率裁剪检索”

👍 74 · arXiv

提出了一种按需空间处理框架,解决了视觉语言模型在处理高分辨率图像时面临的精度与计算成本权衡问题。对于需要处理复杂视觉输入(如网页截图、长文档)的多模态 Agent 开发者来说,该方法能有效降低推理成本并提升小文本识别率。

  • OpenClaw v2026.3.24:新增了对 OpenAI API 格式(/v1/models/v1/embeddings)的全面兼容,并支持显式覆盖模型以提升 RAG 兼容性。工具调用接口现在支持动态展示当前智能体实际可用的工具,大幅提升了调试体验。 Release 链接

  • Ollama v0.18.3:引入了跨对话共享 KV Cache 的关键特性(针对具有相同前缀的请求),极大提升了多轮对话和批量处理的推理效率。同时修复了桌面端绑定地址的加载卡死问题,并更新了与 Claude Code 的集成文档。 Release 链接

  • CrewAI 1.12.0:引入了 Qdrant Edge 存储后端以增强记忆系统,并实现了原生的层级记忆隔离(root_scope)。此外,新增了智能体技能(Agent Skills)机制,并原生支持了 OpenRouter、DeepSeek、vLLM 等兼容 OpenAI 接口的模型提供商。 Release 链接

  • Continue v1.3.34-vscode:强化了系统提示词工具的安全性,并将 toolOverrides 绑定到系统消息路径中。同时修复了终端链接端口解析错误,并统一了底层 AbortError 的检测逻辑,提升了插件的稳定性。 Release 链接
  1. LiteLLM 1.82.8 版本遭遇供应链攻击,包含恶意凭证窃取代码 流行的 LLM 网关工具 LiteLLM 的特定版本被植入了隐藏的恶意脚本,用于窃取开发者凭证。这提醒所有 AI 基础设施工程师在更新底层依赖时务必加强安全审计和环境隔离。 阅读原文

  2. 应对百万 Token 上下文:Ulysses 序列并行训练解析 Hugging Face 深入探讨了如何利用 Ulysses 序列并行技术来训练支持超长上下文的模型。文章为解决大模型训练中的显存瓶颈和跨节点通信开销提供了硬核的工程实践指南。 阅读原文

  3. Cursor 正式支持自托管云端智能体 Cursor 现允许企业在自己的网络环境中完全本地化运行代码和工具执行。这为对数据隐私、代码资产和合规性要求极高的工程团队扫清了引入高级 AI 编程助手的障碍。 阅读原文

  4. Google 发布 TurboQuant AI 内存压缩算法 该算法承诺将 AI 模型的“工作记忆”压缩高达 6 倍,目前引发了技术社区的广泛关注。虽然仍处于实验室阶段,但未来有望大幅降低大模型推理的显存占用和硬件部署门槛。 阅读原文

  5. ServiceNow 联合 Hugging Face 发布语音智能体评估新框架(EVA) 随着多模态 Agent 的爆发,如何客观评估语音交互的延迟、准确性和自然度成为难题。该框架为开发者提供了一套标准化的测试基准和工具链,填补了语音 Agent 评测领域的空白。 阅读原文

  6. 美国议员提议全面暂停新建数据中心 由于 AI 发展带来的巨大能源消耗,部分美国议员提出在通过全面的 AI 监管法案前停止新数据中心建设。这一政策动向可能会对未来的 AI 算力基础设施扩张和云服务成本产生深远影响。 阅读原文