8
700W 数据的表,如何做分页查询,速度不低于 1s
source link: https://www.v2ex.com/t/789448
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
mysql ,700W 数据的表,如何做分页查询,速度不低于 1s
第 1 条附言 · 39 分钟前
我傻比了
是查询时间 低于 1s
是查询时间 低于 1s
13 条回复 • 2021-07-14 15:57:31 +08:00
dzdh 3 小时 41 分钟前
pk 有序 uuid 或自增 id
列表限死 100 页
复杂筛选过滤条件(时间区间+订单号+商品名称模糊搜索+...+)上 ES 或者 FTS
哪个产品说要看第 101 页的就地拍死
列表限死 100 页
复杂筛选过滤条件(时间区间+订单号+商品名称模糊搜索+...+)上 ES 或者 FTS
哪个产品说要看第 101 页的就地拍死
encro 1 小时 44 分钟前
有一个老业务,阿里云 RDS2 核 4G 有一个表,2 亿数据条数据(主要业务非日志),一直没空改,大概页面平均相应时间 200MS 内吧。
首先你得查询索引数据分散,分页查询才会快,否则文件排序肯定慢。
比如一个论坛总共 100 万帖子,但是某个版块帖子有几万条,分页时文件排序和 COUNT 就会慢;
如果是一个电商网站,订单记录虽然有 1000 万,但是一个用户也就不到一千条记录,分页时排序和 COUNT 都很快。
如果时第一种场景,楼上有答案:1,不要 count ; 2,不然看超过 1000 页的。百度贴吧都是这样的。
首先你得查询索引数据分散,分页查询才会快,否则文件排序肯定慢。
比如一个论坛总共 100 万帖子,但是某个版块帖子有几万条,分页时文件排序和 COUNT 就会慢;
如果是一个电商网站,订单记录虽然有 1000 万,但是一个用户也就不到一千条记录,分页时排序和 COUNT 都很快。
如果时第一种场景,楼上有答案:1,不要 count ; 2,不然看超过 1000 页的。百度贴吧都是这样的。
Recommend
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK