Episode Details
Back to Episodes
【第566期】大语言模型多智能体系统的心理理论与内部信念评估
Description
Seventy3:借助NotebookLM的能力进行论文解读,专注人工智能、大模型、机器人算法、crypto方向,让大家跟着AI一起进步。
如果你想要解读自己的论文,获得更多曝光度。请联系小助手微信:seventy3_podcast 加群。合作邮箱:zhiwudazhanjiangshi#gmail.com
今天的主题是:
Evaluating Theory of Mind and Internal Beliefs in LLM-Based Multi-Agent Systems
Summary
由于基于大语言模型(LLM)的多智能体系统(MAS)在自然语言理解、推理和规划方面的进步,增强了其协作解决问题的潜力,因而正日益受到关注。心理理论(ToM)和信念-欲望-意图(BDI)模型的研究有望进一步提升此类系统中智能体的交互与决策能力。
然而,由于 LLM 在多智能体环境中的表现极不稳定,在动态世界中实现协作智能依然困难重重。简单地添加诸如 ToM 和内部信念等认知机制并不能自动提高协调性。这些机制之间的相互作用,特别是与形式逻辑验证相关的部分,在不同的 LLM 中仍有待深入探索。
本研究探讨了:包括符号求解器和心理理论在内的内部信念机制如何影响基于 LLM 的多智能体系统中的协作决策,以及这些组件的相互作用如何影响系统准确性?
我们提出了一种集成 ToM、BDI 式内部信念和用于逻辑验证的符号求解器的新型多智能体架构。我们在资源分配问题上利用各种 LLM 对该架构进行了评估,发现 LLM 能力、认知机制与性能之间存在复杂的相互作用。通过提出一种结合了 ToM、内部信念和符号求解器的新型多智能体系统,并评估其在不同 LLM 设置下的表现,本工作为增强多智能体系统的协作智能做出了贡献。
原文链接:https://arxiv.org/abs/2603.00142