从ReAct的论文中(参考1),可以看到,单纯用COT,也会存在一些问题,靠COT也无法很好的回答问题,如下图所示:

在这里插入图片描述
从图中可见,虽然COT能给出推理过程,但最终结论也是错误的。

原因如下:

  1. LLM本身不可能知道所有知识;
  2. COT是黑盒的,因为模型使用自己的内部表征来产生思想,而不以外部世界为基础,这限制了它的反应性推理或更新知识的能力;
  3. 需要多个假设或大量的来回交流互动,这种方式会消耗大量计算资源。

这可能导致诸如事实幻觉和推理过程中的错误传播等问题。所以作者测评后,给出的结论是“Hallucination is a serious problem for CoT”。

作者提出ReAct框架,来解决这些问题,ReAct的核心构成部分如下:

  1. 思维链(Chain of Thought):此组件负责将一个庞大且复杂的任务细分为多个逻辑上的思维步骤;
  2. 推理(Reasoning):该组件专注于对输入的数据进行深入分析并处理,从而制定出有效的决策方案;
  3. 行动(Action):此组件承担执行具体任务的角色,如进行搜索、运行代码或执行其他自定义的操作;
  4. 观察(Observation):该组件负责监控环境的变化并收集反馈数据,为后续的推理和行动提供必要的依据和参考。

参考

  1. https://arxiv.org/pdf/2210.03629
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐