关于数据量越来越多的处理机制的思考和探索

问答  收藏
6 / 299

随着用户长时间的积累,数据量越来越多,造成页面卡顿,查询缓慢等等,工作流执行数量限制等

处理机制如下:

1.【能否建立数据缓存区】, 支持条件设置数据缓存区,将一个老旧数据进入缓存区,查询时优先查询非缓存区,当非缓存区查询没有结果在查询缓存区,【缓存区即数据隔离,不做任何处理,简单说该部分大量的数据基本很固定,很少会被编辑和写入,也只是少量写入】

方案一:数据最多的那个表建立一个副本,和原表一模一样,将老旧数据迁入副本,查询时优先查询非副本,写工作流时自行避开或者写分支
方案二:单机部署改成集群部署。做数据归档,操作有点复杂,如果数据归档失败,能否恢复,不然被客户投诉起诉,咋整
方案三:请陆老师发表获奖感言

2.【万能之法】甲方金主每隔一段时间加服务器硬盘,NAS 服务器,花钱解决,简单粗暴。

3.【专业术语】冷热备份。客户听不懂就对了。

4.【佛系维持现状】按照当前索引等,索引只能解决查询问题,无法解决存储问题,数据只会越来越多,