1. 数据库文献检索(通常是大量,超过 1W 篇论文检索结果);
2. 基于设定的规则排除不适用的 paper ,通常会包括好几轮筛选,比如第一轮只看 tittle ,第二轮精读 Abstract ,第三轮通读全文。该过程工作量很大而且存在误判的可能;
3. 针对筛选的论文,根据特定规则评估相关研究的可信度和偏移程度。这一步通常很主观,所以需要引入多人交叉验证;
4. 提取与 Topic 相关数据,进行分析(工作量极大)
5. 数据分析;
6. 论文撰写。
我们注意到,上述的很多工作实际上是 AGI 模型所擅长的,包括数据检索、内容总结和评估、数据提取、初稿撰写等。
因此,我们就很自然的想到有可能求助 AGI 模型搭建一个通用(半通用?)的研究范式来解决这一问题。
奈何对 AI 方面了解确实不多,不知道论坛的大佬们是否有什么好的建议和意见,甚至是否有可能线上讨论下?
谢谢!