求助万能的 v2,想用强大模型进行 10 万+次调用目前的最合适的方案是什么?

查看 27|回复 2
作者:LeeReamond   
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析,
目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。
粗略估算了一下大概是需要 3000M 的输入+2000M 的输出这样的数量级
因为是分析自然语言,希望模型的性能非常高,想用顶尖大模型( claude/gpt/gemini 等等),感觉 glm5.1 和 deepseekV4pro 似乎是这个基线的守门员?低于这个性能水平的不考虑
用 deepseekv4 的价格粗略算了一下,似乎如果按照目前价格调用的话(官网 2.5 折)要花个大两万块钱才能解决.
不知道 v 友们知不知道更便宜一点的调用方法?
因为模型本身用的比较少,不熟悉各家的 coding plan,这东西是给 agent 用的,我用来做通用任务会有提示词之类的限制吗?

大模型, 调用, 方案

sddyzm   
10 万+次调用是有相当巨量信息的一篇论文了
LeeReamond
OP
  
@sddyzm 其中主要是对描述性数据的结构化解析
您需要登录后才可以回帖 登录 | 立即注册

返回顶部