@renmu 不会,LLM 会要求调用查天气的,然后 app 调用后作为 prompt 再给 LLM 推理;如果 LLM 给出的 toolcall 的参数不全,就看工具本身返回什么了,一般挂了的话 app 要自己处理,然后再给 LLM 的; APP 在这个过程中的作用很关键,是一个桥接,LLM 不会直接 call MCP server 的
@SayHelloHi 「 AI 如何使用 K 线组件,它咋知道 K 线组件要的数据类型」 很简单,这可以是 System prompt 的一部分。 ChatGPT 不只是一个模型,而是 GPT5 模型 + 一套强大的 Agent/MCP 在 ChatGPT 上对话能做的事情和功能比直接用 API 调 GPT5 模型要多得多。API 调的就只是 LLM 模型本身而已。