七脉神剑的秘密

七脉神剑-日常学习笔记
日常学习的笔记稿与记录稿
aigc-agent

Multi-Agent 架构使用判断框架

Multi-Agent 架构使用判断框架 Anthropic 的核心立场 大多数团队不需要 Multi-Agent 系统。在单个 Agent 上反复改进 prompt,效果可匹配花数月搭建的复杂多 Agent 架构,且代价更低。普通 Agent 消耗约 4 倍于聊天的 token,而 Multi-Agent 系统消耗约 15 倍,额外开销来自跨 Agent 的上下文复制、协调消息和结果汇总,因此需任务价值足够高才能覆盖开销。 该使用 Multi-Agent 的场景 上下文污染 不同子任务积累的信息互相干扰导致推理质…

2026年3月22日 0条评论 2点热度 0人点赞 阅读全文
aigc-agent

agent 上下文工程记录

上下文工程的本质 大模型推理时的信息来源仅包括参数知识(训练阶段获得,推理阶段不可改)和上下文窗口内容。上下文工程本质是构建大模型的工作记忆,决定其决策时能看到的信息,进而影响行为质量。 与 Prompt Engineering 的区别 Prompt Engineering:关注措辞、格式、few-shot 示例等 “怎么说” 的问题。 上下文工程:关注每轮推理时上下文窗口中 “看到什么”,包括信息的选择、结构排列。 核心差异:Agent 是多轮推理循环(典型任务平均调用 50 次工具),上下文信息不断累积,存在 …

2026年3月22日 0条评论 4点热度 0人点赞 阅读全文
aigc-agent

mannu和openclaw的核心竞争力是什么?

行业现象:“套壳” 产品的意外成功 AI 行业存在 “做模型的看不起做应用的,做应用的看不起套壳的” 的鄙视链,但 2026 年出现两个纯套壳产品的成功案例:一个被 Meta 以 20 亿美元收购(Menace),另一个两周内获得 17 万 GitHub Stars(OpenClaw),引发行业对 “套壳” 认知的反思。 案例介绍:两款典型 “套壳” 产品 Menace:2025 年 3 月发布,24 小时内成为国内 AI 领域讨论度最高产品,邀请码被炒至数万元。核心模型能力来自 Claude,通过调用 29 种工…

2026年3月22日 0条评论 2点热度 0人点赞 阅读全文
aigc-agent

AGENT 落地为什么是编程agent?的核心矛盾:灵活性 vs 确定性

AGENT 的核心矛盾:灵活性 vs 确定性 灵活性来源:模型自主决策,但天然带有不确定性,无法 100% 预测下一步行动。 确定性来源:人定规则,但规则写死会丧失灵活性,无法应对未覆盖情况。 关系:两者是跷跷板关系,无法同时最大化,多数 agent 项目失败源于未明确平衡点。 编程 agent 成功的关键要素 试错成本极低 代码生成结果可通过执行即时验证,错误信息可被 agent 捕获并自主修正,反馈循环为毫秒级,无需人工判断。 对比企业业务场景(如取消订单、发送邮件),试错成本极高,错误可能导致事故,无法通过多…

2026年3月22日 0条评论 3点热度 0人点赞 阅读全文
aigc-agent

Agent 评测方法论

Agent 评测方法论 Agent 迭代中的问题 常见问题:迭代后 Agent 出现 “降智” 现象,表现为能力退化或极端情况处理失败 核心痛点:缺乏量化评测,导致迭代依赖直觉,问题发现滞后(如用户投诉后才察觉),陷入被动救火循环 Agent 评测的核心逻辑 核心目标:将模糊的 Agent 表现转化为可信赖、可量化的数字评测 与传统大模型评测的差异:Agent 涉及多轮交互(调用工具、修改状态、调整策略),单轮测试失效,中间环节错误易导致任务失败 Agent 评测的核心概念 Task(测试用例):包含输入和成功标准…

2026年3月15日 0条评论 55点热度 0人点赞 阅读全文
aigc-agent

Agent从理论到落地:记忆机制的设计

Agent 记忆机制设计 ChatGPT 记忆机制的逆向发现 通过对话实验逆向得出 ChatGPT 的记忆系统未使用向量数据库、RAG、embedding 召回及相似度匹配,而是采用 4 层纯结构化设计。尽管 ChatGPT 是对话产品而非 Agent,但其 memory 设计思路回答了 Agent 记忆系统的核心问题:何时该用检索,何时不该。 不用向量数据库的核心原因 精确调用需求:向量检索是模糊匹配,无法确保关键事实类信息的精准命中。例如用户预算等需精确读取的信息,结构化存储可直接查对应字段,避免歧义。 时间处…

2026年3月15日 0条评论 42点热度 0人点赞 阅读全文
aigc-agent

agent从理论到落地:MCP 与 Skill 的区别及关系理解

MCP 与 Skill 的区别及关系 MCP 与 Skill 的核心区别 Skill 定义能力:是一组预定义的指令和处理逻辑,告诉 AI 怎么做事,如按规范生成数据分析报告(先区域拆分、算同比环比、按模板输出),与数据来源无关 MCP 定义连接:是标准化开放协议,解决 agent 与外部系统(数据库、网盘、代码仓库等)的通信问题,负责打通通道,支持 agent 实时读取、操作外部资源,且持续在线 类比:Skill 类似菜谱(记录做菜步骤),MCP 类似通向菜市场的路(食材通道),二者缺一不可 为何 Skill 中加…

2026年3月15日 0条评论 39点热度 0人点赞 阅读全文
aigc-agent

Agent 从理论到落地:大模型 Function Calling 底层原理与实现

Function Calling 的底层机制 Function Calling 没有引入新的推理机制,底层与生成普通文本一致,均基于上下文的 next token prediction。模型通过训练学会在特定情况下将输出从自然语言切换为结构化 JSON 格式,而非存在独立的决策模块。关键在于模型通过大量样本学习输出模式,而非 “读懂”“判断” 或 “决定”。 Function Calling 的训练阶段 分为监督微调(SFT)和强化学习两个阶段。SFT 阶段:训练数据包含大量工具调用完整对话链(系统提示工具信息→用…

2026年3月15日 0条评论 37点热度 0人点赞 阅读全文
aigc-agent

大模型从理论到落地:Agent Skills 概念介绍

Agent Skills 概念介绍 Agent Skills(技能)是让 AI 像新员工一样被培训而非编程的概念。它本质是一个文件夹,包含核心的 skill MD 文件、配套脚本、资源和示例,如同为新员工准备的入职培训班,所有需学习的内容整齐存放其中。 三层渐进式加载机制 该机制的核心是渐进式披露:Level 1 仅加载 100 个 TOKEN,相当于只看目录;Level 2 读取完整的技能说明书;Level 3 则按需加载额外资源。这种按需加载方式可告别上下文爆炸,即使复杂技能包也能轻松驾驭,类似查字典时按需查阅…

2026年3月15日 0条评论 36点热度 0人点赞 阅读全文
aigc-agent

Agent从理论到落地二:理解好上下文

上下文工程的定义 传统提示词工程关注如何写指令,而上下文工程更进一步,策划哪些信息该进入模型视野,是从写作者到编辑的升级。 Agent 性能下降的核心问题 随着 Agent 运行时间变长,上下文信息量呈指数级爆炸(从几百 token 到几万甚至几十万),这是制约复杂任务的最大瓶颈,根源在于上下文管理失控。 上下文腐败的表现 输入变长导致模型性能下降,且以意外方式崩溃。 模型对信息位置极其敏感:关键信息在开头或结尾表现好,在中间时性能断崖式下降(类似读厚书只记开头结尾)。 连续处理相似任务时陷入模式固化:学习到的是无…

2026年3月15日 0条评论 117点热度 0人点赞 阅读全文
12345…25
最新文档分类
  • AI-study
  • aigc-agent
  • B端产品
  • 产品工具篇
  • 产品生命周期
  • 好好学习
  • 技术积累
  • 日常攻略
  • 行业信息
  • 随笔记录
最新 热点 随机
最新 热点 随机
Multi-Agent 架构使用判断框架 agent 上下文工程记录 mannu和openclaw的核心竞争力是什么? AGENT 落地为什么是编程agent?的核心矛盾:灵活性 vs 确定性 Agent 评测方法论 Agent从理论到落地:记忆机制的设计
OpenClaw 工作原理与架构解析AI比我们快LangGraph 多智能体场景选择与底层运行机制大模型的意图识别的思考和做法参考Anthropic 研究报告深入解读:AI 对劳动力市场的影响Agent从理论到落地:Agent 上下文管理
互联网 VS 国企 慕容复为什么会失败?谋略、手腕、胸怀? 开源waf部署与安装 关于"口碑与人性的思考" 中级进阶:In/Outpainting 产品经理更应该懂得新木桶理论
标签聚合
大模型智能体 技术架构 产品经理 图像压缩 向量存储 自动化工具 AI技术对比 智能决策 大模型应用 AI框架 RAG技术 智能体分级

COPYRIGHT © 2026 75live.com. ALL RIGHTS RESERVED.

Theme Kratos Made By Seaton Jiang