我做了一个简洁但很灵活的 Python LLM agent workflow 库,欢迎试用

查看 5|回复 0
作者:shijizhi   
学习 Agent 过程中做了个很小的 Python workflow 库,想请大家给些反馈
最近在学习 Agent 相关的东西,用过 LangChain 、CrewAI 一段时间,但个人不是很适应它们的代码风格,
所以自己摸索着设计了一个很小的 Python 库:PicoFlow
目标是尽量用接近普通 async Python 的方式来表达 agent 的执行流程,而不是引入图结构或较重的框架抽象。
项目地址:
https://github.com/the-picoflow/picoflow
基本用法
每个步骤就是一个 async 函数,然后直接组合:
from picoflow import flow, llm, create_agent
LLM_URL = "llm+openai://api.openai.com/v1/chat/completions?model=gpt-4.1-mini&api_key_env=OPENAI_API_KEY"
@flow
async def mem(ctx):
    return ctx.add_memory("user", ctx.input)
agent = create_agent(
    mem >> llm("Answer in one sentence: {input}", llm_adapter=LLM_URL)
)
print(agent.get_output("What is PicoFlow?", trace=True))
底层就是 async function 的组合,ctx 是显式传递的共享上下文。
整体概念比较少,尽量保持接近普通函数组合的思路。
目前还处在早期阶段,欢迎大家试用,帮我提提意见。
谢谢大家!
您需要登录后才可以回帖 登录 | 立即注册

返回顶部