问题:
股票、期货、ETF 等市场的每个标的,都有配套的一些 分析数据(预估达到 500G )
由于按时间作为唯一键存储,导致同一时间只有一条数据,所以表数量激增:
5000 个标的 * 每个标的约有 50 个特征 = 250,000 张普通表
用 DBeaver 查看近万表就已经很卡了,所以在开工前,请教各位大佬,25 万张表时,是否性能会比较差?是否应该提前分库?
或者将微秒时间戳叠加( 0-999 能存 1000 个标的),放在一张普通表里?
25 万张是保守估计,后面可能会有更多奇奇怪怪的想法,去试验一下就会新增 5000+ 张表……之前我都是用 MySQL/Mongo 这种 DB ,面对这个量,有点害怕