mysql效率提升之limit这个狗东西
时间:2023年10月07日
/来源:网络
/编辑:佚名
mysql里面,limit效率不高,特别是我几大百万数据,limit 100000, 50,这样写,查询更是慢死,刚开始还挺快,后面服务器cup直接给我拉满!
我还以为是服务器被入侵了,于是找问题啊,找了几天,结果发现是这个狗东西,可把我气死了!
于是查询了一下limit的原理,emmm,改!必须改!
于是最开始的代码为:
SELECT * FROM phome_ecms_news ORDER BY id DESC LIMIT 1275480,20;
改成了,这样:
SELECT * FROM phome_ecms_news WHERE id>1275480 ORDER BY id DESC LIMIT 20;
我这里简单说一下LIMIT的原理。这里以LIMIT N,M为基础:LIMIT首先要找查N+M行,然后从N行处,取M行。那么这样的SQL对一次查询1275500一个操作应该是一个昂贵的开销。对于LIMIT这类的优化,第一个目标就是让N变的尽可能的小或是不用。
我还以为是服务器被入侵了,于是找问题啊,找了几天,结果发现是这个狗东西,可把我气死了!
于是查询了一下limit的原理,emmm,改!必须改!
于是最开始的代码为:
SELECT * FROM phome_ecms_news ORDER BY id DESC LIMIT 1275480,20;
改成了,这样:
SELECT * FROM phome_ecms_news WHERE id>1275480 ORDER BY id DESC LIMIT 20;
我这里简单说一下LIMIT的原理。这里以LIMIT N,M为基础:LIMIT首先要找查N+M行,然后从N行处,取M行。那么这样的SQL对一次查询1275500一个操作应该是一个昂贵的开销。对于LIMIT这类的优化,第一个目标就是让N变的尽可能的小或是不用。
新闻资讯 更多
- 【建站知识】查询nginx日志状态码大于400的请求并打印整行04-03
- 【建站知识】Python中的logger和handler到底是个什么?04-03
- 【建站知识】python3拉勾网爬虫之(您操作太频繁,请稍后访问)04-03
- 【建站知识】xpath 获取meta里的keywords及description的方法04-03
- 【建站知识】python向上取整以50为界04-03
- 【建站知识】scrapy xpath遇见乱码解决04-03
- 【建站知识】scrapy爬取后中文乱码,解决word转为html 时cp1252编码问题04-03
- 【建站知识】scrapy采集—爬取中文乱码,gb2312转为utf-804-03