hello-agents第二章习题 #404
Unanswered
tongyi00
asked this question in
💬 Exercises & Q&A
Replies: 4 comments 4 replies
-
|
这个太难了 |
Beta Was this translation helpful? Give feedback.
2 replies
-
|
遇到调用不了MCP工具的问题,把 |
Beta Was this translation helpful? Give feedback.
1 reply
-
|
@第五章 |
Beta Was this translation helpful? Give feedback.
1 reply
-
|
请问,如何让agent使用skills或mcp,这些功能呢 |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Uh oh!
There was an error while loading. Please reload this page.
-
1.1、充分性论断:智能可以被符号系统捕获和复现,因此实现了符号操作的物理系统都可以产生智能行为。必要性论断:具有智能的系统一定是符号操作的提现
1.2、a.现实世界过于复杂,只靠编写规则无法完全复现(知识获取瓶颈);b.常识问题在符号系统下除非被编码,否则无法推理;c.现实世界是模糊、动态的,符号系统无法高效判断;d.符号系统无法产生真实的语义理解;e.规则完全靠人类编写,不具有学习能力
1.3、不符合,大模型虽然是在token的基础上得到结果,也就是实现符号操作,但本质上还是神经网络+概率的结果
2.1、过于死板,不够灵活,无法处理不确定性问题。医学知识非常庞大,专家系统的扩展过于困难。法律问题
2.2、使用知识库+RAG+LLM,知识库作为医学知识,使用RAG进行检索,LLM结合患者数据和医学知识进行推理。或者使用某类的医学知识对LLM进行微调后专门处理某类的医学知识也可以。比如外科就用外科的微调模型,儿科就用儿科的微调模型。
2.3、税务系统、恶意流量监测等规定比较严格的领域
3.4、在特定领域知识范围内的对话包含语言范围、意图、规则的各种不确定,组合起来会使状态空间和规则呈数据指数爆炸级增长
4.1、GRASP 智能体失效会使抓握动作停止,上层智能体无法完成任务。优势:任务并行、效率高,容错率高,单个智能体出错不会导致整个系统错误。劣势:复杂度大大提高、成本增加、单个智能体故障影响其他智能体
4.2、关联:分布式控制、子agent组合。区别:心智系统的智能来源于人工设计或预训练模型,现代多智能体系统的智能来源于LLM。心智系统的模块可以互相学习,现代多智能体依赖于预训练LLM与少量学习。
4.3、不完全不适用,复杂智能由多个agent协作产生、涌现智能、分布式控制仍然适用,大语言模型时代可以说是心智智能的升级版
5.1、每一盘棋都是一次试错,在棋局中通过自我对弈进行强化学习,根据棋局结果进行打分,大量棋局不断试错更新策略。
5.2、序贯决策问题每次动作都会影响未来的状态和最终结果,而强化学习专注的是长期收益,通过回溯机制可以动态更新策略,当前的每一个动作都有可能赢得最终的结果。监督学习需要的是确定的数据,明确的输出,而强化学习的数据通过不断的交互产生,输出奖励。
5.3、强化学习提升了模型的试错能力,通过奖励机制模型可以不断调整策略,同时大模型的输出是序列化的,强化学习在这个过程中可以优化生成序列
6.1、模型通过预训练可以从文本中隐式学习知识,不再需要手动构建规则,并且知识是可扩展的,语料越多模型知识越多。
6.2、问题:信息错误、偏见、时效性。缓解:挑选高质量数据,经常更新数据
6.3、有可能出现纯自我进化的模型
7.1、构建专家系统结合逻辑推理。问题:知识获取困难、逻辑太复杂会导致组合爆炸、无法进行模糊处理。
7.2、代码解析器和深度学习构建。
7.3、核心为LLM推理,代码解析器解析代码,LLM和工具进行bug检测、优化建议,结合用户反馈形成循环。
7.4、手工编码规则构成知识->数据标注+模型训练->预训练+ReAct
Beta Was this translation helpful? Give feedback.
All reactions