各位来宾,各位同事,大家好! 今天,我们齐聚一堂,探讨一个在当前AI时代极具前瞻性和实践意义的话题——“思考的优化”(Optimization of Thought)。随着大型语言模型(LLM)驱动的Agent日益普及,它们在执行复杂任务时展现出的强大能力令人惊叹。然而,这种能力并非没有代价。Agent的每一次“思考”、每一次工具调用、每一次与LLM的交互,都伴随着计算资源的消耗、API调用的延迟,以及最直观的——Token的开销。 在Agent的世界里,一次推理过程可能涉及多个步骤、多条路径。它像是在一个迷宫中寻找出路,有些路宽敞平坦,直达目标;有些路则蜿蜒曲折,耗时耗力。我们的目标,就是利用工程化的手段,找到Agent推理路径中的“黄金路径”——那条最短、最省Token,同时又能高效达成目标的路径。 而LangGraph,作为LangChain家族中的一员,为我们构建这种复杂、有状态的Agent提供了强大的框架。它将Agent的行为建模为状态机,让复杂的决策流变得可管理、可观测。今天,我将向大家展示如何将LangGraph与经典的图算法结合,系统性地实现Agent思考路径的优化。 …
继续阅读“探讨 ‘Optimization of Thought’:利用 LangGraph 寻找 Agent 推理路径中最短、最省 Token 的‘黄金路径’”