设为首页 收藏本站
查看: 1238|回复: 0

[经验分享] MYSQL分页limit速度太慢优化方法

[复制链接]

尚未签到

发表于 2018-10-10 06:18:11 | 显示全部楼层 |阅读模式
  当一个表数据有几百万的数据时,分页的时候成了问题
  如 select * from table limit 0,10 这个没有问题 当 limit 200000,10 的时候数据读取就很慢,可以按照一下方法解决
  最近一个网站的服务器评论被人刷死,导致mysql数据库异常发生too many open connections
  引发的SQL语句:
SELECT a.uid, a.veil, a.content, a.datetimes, a.audit, b.user_name, b.uc_id  
FROM news_talkabout a
  
LEFT JOIN users_info b ON a.uid = b.id
  
WHERE infoid =11087
  
ORDER BY a.id DESC
  
LIMIT 451350 , 30
  丢在phpmyadmin里执行一下,是很慢。
  让人思考是什么因素:
SELECT a.uid, a.veil, a.content, a.datetimes, a.audit, b.user_name, b.uc_id  
FROM news_talkabout a
  
LEFT JOIN users_info b ON a.uid = b.id
  
WHERE infoid =11087
  
ORDER BY a.id DESC
  
LIMIT 0 , 30
  第一页会很快
  PERCONA PERFORMANCE CONFERENCE 2009上,来自雅虎的几位工程师带来了一篇"EfficientPagination Using MySQL"的报告
  limit10000,20的意思扫描满足条件的10020行,扔掉前面的10000行,返回最后的20行,问题就在这里。
  LIMIT 451350 , 30 扫描了45万多行,怪不得慢的数据库都堵死了。
  但是
  limit 30 这样的语句仅仅扫描30行。
  那么如果我们之前记录了最大ID,就可以在这里做文章
  举个例子
  日常分页SQL语句

  select>  扫描100020行
  如果记录了上次的最大ID

  select>  扫描20行。
  总数据有500万左右

  以下例子 当时候 select * from wl_tagindex where byname='f' order by>  优化后:
  select * from (

  select>
  where byname='f' order by>  ) a
  left join wl_tagindex b on a.id=b.id
  执行时间为 0.11s 速度明显提升
  这里需要说明的是 我这里用到的字段是 byname ,id 需要把这两个字段做复合索引,否则的话效果提升不明显
  总结
  当一个数据库表过于庞大,LIMIT offset, length中的offset值过大,则SQL查询语句会非常缓慢,你需增加order by,并且order by字段需要建立索引。
  如果使用子查询去优化LIMIT的话,则子查询必须是连续的,某种意义来讲,子查询不应该有where条件,where会过滤数据,使数据失去连续性。
  如果你查询的记录比较大,并且数据传输量比较大,比如包含了text类型的field,则可以通过建立子查询。

  SELECT>  如果limit语句的offset较大,你可以通过传递pk键值来减小offset = 0,这个主键最好是int类型并且auto_increment
  SELECT * FROM users WHERE uid > 456891 ORDER BY uid LIMIT 0, 10;
  这条语句,大意如下:
  SELECT * FROM users WHERE uid >=  (SELECT uid FROM users ORDER BY uid limit 895682, 1) limit 0, 10;
  如果limit的offset值过大,用户也会翻页疲劳,你可以设置一个offset最大的,超过了可以另行处理,一般连续翻页过大,用户体验很差,则应该提供更优的用户体验给用户。
  limit 分页优化方法
  1.子查询优化法
  先找出第一条数据,然后大于等于这条数据的id就是要获取的数据
  缺点:数据必须是连续的,可以说不能有where条件,where条件会筛选数据,导致数据失去连续性
  实验下:
mysql> set profiling=1;  
Query OK, 0 rows affected (0.00 sec)
  
mysql> select count(*) from Member;
  
+----------+
  
| count(*) |
  
+----------+
  
|   169566 |
  
+----------+
  
1 row in set (0.00 sec)
  
mysql> pager grep !~-
  
PAGER set to 'grep !~-'
  
mysql> select * from Member limit 10, 100;
  
100 rows in set (0.00 sec)
  
mysql> select * from Member where MemberID >= (select MemberID from Member limit 10,1) limit 100;
  
100 rows in set (0.00 sec)
  
mysql> select * from Member limit 1000, 100;
  
100 rows in set (0.01 sec)
  
mysql> select * from Member where MemberID >= (select MemberID from Member limit 1000,1) limit 100;
  
100 rows in set (0.00 sec)
  
mysql> select * from Member limit 100000, 100;
  
100 rows in set (0.10 sec)
  
mysql> select * from Member where MemberID >= (select MemberID from Member limit 100000,1) limit 100;
  
100 rows in set (0.02 sec)
  
mysql> nopager
  
PAGER set to stdout
  

  
mysql> show profilesG
  
*************************** 1. row ***************************
  
Query_ID: 1
  
Duration: 0.00003300
  
   Query: select count(*) from Member
  
*************************** 2. row ***************************
  
Query_ID: 2
  
Duration: 0.00167000
  
   Query: select * from Member limit 10, 100
  
*************************** 3. row ***************************
  
Query_ID: 3
  
Duration: 0.00112400
  
   Query: select * from Member where MemberID >= (select MemberID from Member limit 10,1) limit 100
  
*************************** 4. row ***************************
  
Query_ID: 4
  
Duration: 0.00263200
  
   Query: select * from Member limit 1000, 100
  
*************************** 5. row ***************************
  
Query_ID: 5
  
Duration: 0.00134000
  
   Query: select * from Member where MemberID >= (select MemberID from Member limit 1000,1) limit 100
  
*************************** 6. row ***************************
  
Query_ID: 6
  
Duration: 0.09956700
  
   Query: select * from Member limit 100000, 100
  
*************************** 7. row ***************************
  
Query_ID: 7
  
Duration: 0.02447700
  
   Query: select * from Member where MemberID >= (select MemberID from Member limit 100000,1) limit 100
  从结果中可以得知,当偏移1000以上使用子查询法可以有效的提高性能。
  2.倒排表优化法
  倒排表法类似建立索引,用一张表来维护页数,然后通过高效的连接得到数据
  缺点:只适合数据数固定的情况,数据不能删除,维护页表困难
  3.反向查找优化法
  当偏移超过一半记录数的时候,先用排序,这样偏移就反转了
  缺点:order by优化比较麻烦,要增加索引,索引影响数据的修改效率,并且要知道总记录数
  ,偏移大于数据的一半
  引用
  limit偏移算法:
  正向查找: (当前页 - 1) * 页长度
  反向查找: 总记录 - 当前页 * 页长度
  做下实验,看看性能如何
  总记录数:1,628,775
  每页记录数: 40
  总页数:1,628,775 / 40 = 40720
  中间页数:40720 / 2 = 20360
  第21000页
  正向查找SQL:
SELECT * FROM `abc` WHERE `BatchID` = 123 LIMIT 839960, 40  时间:1.8696 秒
  反向查找sql:
SELECT * FROM `abc` WHERE `BatchID` = 123 ORDER BY InputDate DESC LIMIT 788775, 40  时间:1.8336 秒
  第30000页
  正向查找SQL:
1.SELECT * FROM `abc` WHERE `BatchID` = 123 LIMIT 1199960, 40  
SELECT * FROM `abc` WHERE `BatchID` = 123 LIMIT 1199960, 40
  (更多内容,点击此处打开原文)



运维网声明 1、欢迎大家加入本站运维交流群:群②:261659950 群⑤:202807635 群⑦870801961 群⑧679858003
2、本站所有主题由该帖子作者发表,该帖子作者与运维网享有帖子相关版权
3、所有作品的著作权均归原作者享有,请您和我们一样尊重他人的著作权等合法权益。如果您对作品感到满意,请购买正版
4、禁止制作、复制、发布和传播具有反动、淫秽、色情、暴力、凶杀等内容的信息,一经发现立即删除。若您因此触犯法律,一切后果自负,我们对此不承担任何责任
5、所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其内容的准确性、可靠性、正当性、安全性、合法性等负责,亦不承担任何法律责任
6、所有作品仅供您个人学习、研究或欣赏,不得用于商业或者其他用途,否则,一切后果均由您自己承担,我们对此不承担任何法律责任
7、如涉及侵犯版权等问题,请您及时通知我们,我们将立即采取措施予以解决
8、联系人Email:admin@iyunv.com 网址:www.yunweiku.com

所有资源均系网友上传或者通过网络收集,我们仅提供一个展示、介绍、观摩学习的平台,我们不对其承担任何法律责任,如涉及侵犯版权等问题,请您及时通知我们,我们将立即处理,联系人Email:kefu@iyunv.com,QQ:1061981298 本贴地址:https://www.yunweiku.com/thread-619660-1-1.html 上篇帖子: mysql兼mariadb安装过程详解 下篇帖子: 九爷 带你玩转mysql引擎Mylsam
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

扫码加入运维网微信交流群X

扫码加入运维网微信交流群

扫描二维码加入运维网微信交流群,最新一手资源尽在官方微信交流群!快快加入我们吧...

扫描微信二维码查看详情

客服E-mail:kefu@iyunv.com 客服QQ:1061981298


QQ群⑦:运维网交流群⑦ QQ群⑧:运维网交流群⑧ k8s群:运维网kubernetes交流群


提醒:禁止发布任何违反国家法律、法规的言论与图片等内容;本站内容均来自个人观点与网络等信息,非本站认同之观点.


本站大部分资源是网友从网上搜集分享而来,其版权均归原作者及其网站所有,我们尊重他人的合法权益,如有内容侵犯您的合法权益,请及时与我们联系进行核实删除!



合作伙伴: 青云cloud

快速回复 返回顶部 返回列表