av一区二区在线观看_亚洲男人的天堂网站_日韩亚洲视频_在线成人免费_欧美日韩精品免费观看视频_久草视

您的位置:首頁技術文章
文章詳情頁

mysql中l(wèi)ongtext存在大量數據時,會導致查詢很慢?

瀏覽:143日期:2022-06-16 18:07:22

問題描述

一個表,1.5w條數據,字段: id,name,content,last_update_timeid,自定義主鍵name,varchar類型content是longtext類型,last_update_time為datetime類型,不為空

content當中是文本和代碼等,平均長度在20k+。

case1: select id, name from t order by last_update_time limit 10000, 10

當content當中有大量的文本時,case1的效率極慢。

及時給 last_update_time 加上btree索引, 效率有提升,但是依然慢

把content一列刪掉,效率很高。毫秒級別。

使用explain:有content時結果:

mysql> explain select id, name, last_update_time from t order by last_update_time desc limit 11120, 11;+----+-------------+-----------+-------+---------------+----------------------+---------+------+-------+-------+| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |+----+-------------+-----------+-------+---------------+----------------------+---------+------+-------+-------+| 1 | SIMPLE | t | index | NULL | idx_last_update_time | 8 | NULL | 11131 | NULL |+----+-------------+-----------+-------+---------------+----------------------+---------+------+-------+-------+

無content列的結果:

+----+-------------+----------------+------+---------------+------+---------+------+-------+----------------+| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |+----+-------------+----------------+------+---------------+------+---------+------+-------+----------------+| 1 | SIMPLE | t2 | ALL | NULL | NULL | NULL | NULL | 15544 | Using filesort |+----+-------------+----------------+------+---------------+------+---------+------+-------+----------------+1 row in set (0.00 sec)

請大神請教,是什么問題?該怎么優(yōu)化?

問題解答

回答1:

無content的時候,查詢走的是idx_last_update_time,我猜測這個索引中包含了id,name字段,因此僅通過索引就可以獲取到所需的數據,因此速度很快。有content的時候,因為有l(wèi)imit 10000的語句,且無法從索引中獲取content字段的內容,因此采用的全表掃描的方法。建議改寫sql語句,讓數據庫的執(zhí)行計劃更充分使用索引,假設id是主鍵:

select id, name, content from twhere id in ( select id from t order by last_update_time limit 10000, 10)回答2:

content當中是文本和代碼等,平均長度在20k+。

這種應該建立全文索引(FUNLLTEXT INDEX)吧。簡單的索引不適合這種超長文本的字段。

回答3:

我覺得,主要跟你的分頁查詢的方式有關,limit 10000,10 這個意思是掃描滿足條件的10010條數據,扔掉前面的10000行,返回最后的10行,在加上你的表中有個,非常大的字段,這樣必然增加數據庫查詢的i/o時間,查詢優(yōu)化你可以參照 @邢愛明 的SELECT id,title,content FROM items WHERE id IN (SELECT id FROM items ORDER BY last_update_time limit 10000, 10); 還有一種優(yōu)化方式:你可以記錄最后的last_update_time 每次最后的值。然后查詢可以這樣寫:SELECT * FROM items WHERE last_update_time > '最后記錄的值' order by last_update_time limit 0,10;

這兩種方式你可以執(zhí)行看看那個效率高,希望對你有幫助。。

主站蜘蛛池模板: 亚洲97 | 2一3sex性hd| 99这里只有精品视频 | 一区二区三区精品视频 | 一区二区视频在线 | 福利网址 | 久久久这里都是精品 | 午夜电影网| 国产视频h | 亚洲一区二区三区四区五区中文 | 91久久国产综合久久 | 18性欧美 | 中文成人无字幕乱码精品 | 国产精品亚洲一区二区三区在线 | 午夜影院在线观看免费 | 青青草av网站 | 日韩在线观看视频一区 | 欧美aⅴ | 国产精品毛片无码 | 99精品亚洲国产精品久久不卡 | 免费av在线网站 | 成人在线视频网址 | 国产一区二区 | 日韩在线一区二区三区 | 国产成人精品视频在线观看 | 日本超碰 | 日韩在线视频免费观看 | 欧美精品一区二区在线观看 | 亚洲免费视频网站 | 免费的黄色片子 | 国产一级片91| 久久久久高清 | 九九综合 | 久久精品国产免费高清 | 成人在线播放 | 国产精品美女久久久 | 成人国产在线视频 | 欧美在线综合 | 日韩欧美二区 | 日日夜夜天天综合 | 日韩精品一区在线 |