MySQL
2023-05-21 11:31:15 0 举报
AI智能生成
MYSQL
作者其他创作
大纲/内容
基础
概念
关系型数据库
SQL分类
DDL/DML/DQL/DCL
常用SQL技巧
SQL执行顺序
正则表达式使用
MySQL常用函数
数字函数
字符串函数
日期函数
聚合函数
约束
主键
非空
唯一
外键
多表设计 & 查询
笛卡尔积
内连接查
外连接查询
左外连接
右外连接
全外连接【现在Mysql不支持这种语法】
子查询
自关联查询
视图
视图是一种虚拟存在的数据表,作用是将一些比较复杂的查询语句的结果,封装到一个虚拟表中。后期再有相同复杂查询时,直接查询这张虚拟表即可
好处
<ul><li><b>- 简单:</b>对于使用视图的用户不需要关心表的结构、关联条件和筛选条件。因为这张虚拟表中保存的就是已经过滤好条件的结果集</li><li><b>- 安全:</b> 视图可以设置权限 , 致使访问视图的用户只能访问他们被允许查询的结果集</li><li><b>- 数据独立:</b> 一旦视图的结构确定了,可以屏蔽表结构变化对用户的影响,源表增加列对视图没有影响;源表修改列名,则可以通过修改视图来解决,不会造成对访问者的影响</li></ul>
使用
创建
查询
修改
删除
存储过程 & 函数
存储过程和函数是<b>事先编译并存储在数据库中的一段SQL语句的集合</b>
好处
提高代码的<b>复用性</b>
<b>减少数据在数据库和服务器之间的传输减轻服务器的压力,提高处理数据的效率</b>
减少代码层面的业务逻辑
<b>减少sql语句编译的次数(</b>sql被执行需要被编译成机器码<b>)</b>
存储过程和函数的区别
函数有返回值
存储过程没有返回值( `参数的out其实也相当于是返回数据了`)
调用方式
<ul><li>存储过程 : <b>call 存储过程名(参数)</b></li><li>存储函数: <b> select 存储函数名 (参数)</b></li></ul>
触发器
概述
使用
示例
架构原理
体系架构
<b>客户端连接</b>
支持接口:支持的客户端连接,例如C、Java、PHP等语言来连接MySQL数据库
<b>第一层:网络连接层</b>
连接池:管理、缓冲用户的连接,线程处理等需要缓存的需求。
<b>第二层:核心服务层</b>
<ul><li>管理服务和工具:系统的管理和控制工具,例如备份恢复、复制、集群等</li><li>SQL接口:接受SQL命令,并且返回查询结果。</li><li>查询解析器:验证和解析SQL命令,例如过滤条件、语法结构等。 </li><li>查询优化器:在执行查询之前,使用默认的一套优化机制进行优化sql语句</li><li>缓存:如果缓存当中有想查询的数据,则直接将缓存中的数据返回。没有的话再重新查询</li></ul>
<b>第三层:存储引擎层</b>
插件式存储引擎
<b>第四层:系统文件层</b>
运行机制
<b>① 建立连接</b>
过客户端/服务器通信协议与MySQL建立连接。MySQL 客户端与服务端的通信方式是 <b><font color="#e74f4c">半双工</font></b>
线程状态
<font color="#ed9745">show processlist;</font> //查看用户正在运行的线程信息,root用户能查看所有线程,其他用户只能看自 己的 <br><font color="#ed9745">show full processlist;`</font> 查看更详细的信息
<b>② 查询缓存</b>
启了查询缓存且在查询缓存过程中查询到<b>完全相同的SQL语句</b>
开启查询缓存,以下SQL也不能缓存
查询语句使用SQL_NO_CACHE
查询的结果大于query_cache_limit设置
查询中有一些不确定的参数,比如now()
<font color="#000000">查询缓存配置</font>
<font color="#ed9745">show variables like '%query_cache%';`</font> //查看查询缓存是否启用,空间大小,限制等 <b>默认 1M</b>
<font color="#ed9745">show status like 'Qcache%';`</font> //查看更详细的缓存参数,可用缓存空间,缓存块,缓存多少等
查询缓存在5.7默认关闭、在8.0被废除了。
<b>③ 解析器(Parser)</b>
将客户端发送的SQL进行语法解析,生成"解析树
词法分析器步骤
1、词法分析<br>2、语法分析<br>3、语义分析<br>4、构造执行树<br>5、生成执行计划<br>6、计划的执行
SQL语句的分析分为词法分析与语法分析,mysql的词法分析由<b>MySQLLex[MySQL自己实现的]完成</b>,语法分析由<b>Bison生成</b>
生成的语法树
<b>④ 查询优化器(Optimizer)</b>
根据“解析树”生成最优的执行计划,MySQL使用很多优化策略生成最优的执行计划,可以分为两类:<b>静态优化(编译时优化)、动态优化(运行时优化)</b>
<b>⑤ 查询执行引擎负责执行 SQL 语句</b>
存储引擎
概念
<font color="#b71c1c"><b>MySQL数据库使用不同的机制存取表文件, 机制的差别在于不同的存储方式、索引技巧、锁定水平以及广泛的不同的功能和能力</b></font>
<font color="#ed9745">show engines</font>
<font color="#ed9745">show variables like '%storage_engine%' </font>; 查看Mysql数据库默认的存储引擎
常用的索引引擎
InnoDB
<b>支持事务 ,占用磁盘空间大 ,支持并发控制</b>。表结构保存在<font color="#b71c1c">`.frm`</font>文件中,如果是<font color="#b71c1c"><b>共享表空间</b></font>,数据和索引保存在 `innodb_data_home_dir` 和 `innodb_data_file_path`定义的表空间中,可以是多个文件。如果是<font color="#b71c1c"><b>独立表空间</b></font>存储,每个表的数据和索引单独保存在<font color="#b71c1c">` .ibd </font>`中。
聚簇索引+非聚簇索引
支持表锁、行锁
<font color="#e74f4c">从 MySQL5.0开始默认限制是256TB</font>
MyISAM
<b>访问快,不支持事务和外键</b>。表结构保存在<font color="#b71c1c">.`frm`</font>文件中,表数据保存在`<font color="#b71c1c">.MYD`</font>文件中,索引保存在`<font color="#b71c1c">.MYI`</font>文件中。
非聚簇索引
表锁
InndDB存储结构
图示
5.7
将 Undo日志表空间从共享表空间 ibdata 文件中分离出来,可以在安装 MySQL 时由用 户自行指定文件大小和数量。
增加了 <b><font color="#b71c1c">temporary 临时表空间</font></b>,里面存储着临时表或临时查询结果集的数据
<font color="#b71c1c"><b>Buffer Pool 大小可以动态修改</b></font>,无需重启数据库实例。
8.0
将InnoDB表的<b>数据字典和Undo都从共享表空间ibdata中彻底分离出来了</b>,以前需要 ibdata中数据字典与独立表空间ibd文件中数据字典一致才行,8.0版本就不需要了。
temporary 临时表空间也可以配置多个物理文件,而且均为 InnoDB 存储引擎并能创建 索引,这样加快了处理的速度。
用户可以像 Oracle 数据库那样设置一些表空间,每个表空间对应多个物理文件,每个表空间可以给多个表使用,但一个表只能存储在一个表空间中。
将<font color="#b71c1c"><b>Doublewrite Buffer</b></font>从共享表空间ibdata中也分离出来了。
内存结构(Buffer Pool缓冲池)
Buffer Pool
预读机制
线性预读
随机预读
查询预读算法的有效性
<b>Page管理机制</b>
类型
free page
空闲page,未被使用
clean page
被使用page,数据没有被修改过
dirty page
脏页,被使用page,数据被修改过,页中数据和磁盘的数据产生了不 一致
链表结构
free list
表示空闲缓冲区,管理free page
flush list
lru list
<b>改进型LRU算法</b>
midPoint
cold_block_time
减少热页在链表移动
缓冲页的哈希处理
预热(持久化)
<b>多实例多分块</b>
Buffer Pool 分块
Buffer Pool 分块(chunk)是mysql 5.7.5之后的特性,该特性是指<b>一个buffer pool实例是由多个块组成,每个块的块内空间是连续的,块与块之间是离散的</b>
在<font color="#e74f4c"> mysql 5.7.5</font>之前,<b>为buffer pool申请内存空间是整个buffer pool 实例都是连续的</b>
<font color="#e74f4c"><b>buffer pool分块是为了方便用户可以在mysql运行期间能够调整buffer pool的大小(`innodb_buffer_pool_size`)</b></font>。假设,整个buffer pool都是连续的,如果用户增大buffer pool的大小,系统必须分配一个比原来 buffer pool 更大的连续空间,再将原来buffer pool的数据拷贝到新空间,这个CPU时间开销无疑是巨大的。但是使用了 <b>分块存储</b>的方式,当想要增大 buffer pool 的大小时,系统只需多申请一个块或者多个块的空间,并将这些块链入这个buffer pool实例中即可
一个块的大小由参数`<font color="#ed9745">innodb_buffer_pool_chunk_size</font>`控制,默认一个chunk为<b>128M</b>
<b>配置参数</b>
<b>查看Buffer Pool的状态信息</b><br>
<font color="#ed9745"><b>SHOW ENGINE INNODB STATUS</b></font>
<font color="#314aa4"><b>Innodb的缓冲池 & 查询缓存</b></font>
前者属于存储引擎层,后者属于服务层,前者是缓存已经读取过的页,后者是缓存查询语句和查询结果的映射关系,后者想要命中缓存必须要做到下一次用相同的sql语句查询
Change Buffer
<b>在进行DML操作时,系统不会直接将变更刷新到磁盘中,而是会先将变更的页写入到缓冲区,经过一系列策略同步到磁盘。</b><br><br>此时分为两种情况:<br><ol><li><b>当更改的页存在于 Buffer Pool 的 lru 链表</b>,则直接在缓冲池中修改这个页,这个页会变成脏页,链入到 flush list中,但并不马上刷盘;此时不涉及 change buffer 操作。</li><li><b>当更改的页不存在于 Buffer Pool 的 lru 链表</b>,就要先从磁盘读取要修改的数据页到Buffer Pool后再修改(数据不可能在磁盘中直接更改,肯定要读到内存,在内存中修改)。但<b>为了避免修改操作引发的磁盘读IO</b>,系统会将DML操作记录到 change buffer中,并不马上刷盘。等下次对这些修改的页进行查询时,由于lru链表不存在该页,会从磁盘读取(磁盘页是更改前的数据),为了避免读到脏数据,该磁盘页会和 change buffer中的更改合并后才链入到 lru链表。如果未来一段时间都不会查询到这个修改了的页,也会有 <font color="#e74f4c">insert buffer thread </font><b>定时将change buffer 的数据合并到磁盘页中</b>。</li></ol>
ChangeBuffer占用BufferPool空间,<b>默认占25%,最大允许占50%</b>,可以根据读写业务量来 进行调整。参数<font color="#ed9745">innodb_change_buffer_max_size;</font> ( <font color="#ed9745">show variables like '%innodb_change_buffer_max_size%'</font> 、 <font color="#ed9745">select @@innodb_change_buffer_max_size</font>)
<b><font color="#314aa4">写缓冲区,仅适用于非唯一普通索引页</font></b><br>
如果在索引设置唯一性,在进行修改时,<b>InnoDB必须要做唯一性校验</b>,因此必须查询磁盘, 做一次IO操作。会直接将记录查询到BufferPool中,然后在缓冲池修改,不会在 ChangeBuffer操作
网上解释
Adaptive Hash Index 自适应哈希索引
<b>用于优化对BP数据的查询</b>。InnoDB存储引擎会监控对表索引的查找,如果观察到建立<b>哈希索引</b>可以带来速度的提升,则建立哈希索引,所以 称之为自适应Hash索引。<font color="#e74f4c">InnoDB存储引擎会自动根据访问的频率和模式来为某些页建立哈希索引</font>
具体细节查看该文档
<b><font color="#314aa4">InnoDB支不支持哈希索引?</font></b>
Buffer Log日志缓冲
记录InnoDB <font color="#b71c1c"><b>Redo和Undo</b></font>日志,LogBuffer空间满了,会自动写入磁盘。可以通过将`<font color="#b71c1c"><b>innodb_log_buffer_size</b></font>参数调大,减少磁盘IO频率,默认<font color="#b71c1c"><b>16M</b></font>
刷盘机制
<font color="#ed9745">innodb_flush_log_at_trx_commit </font>参数控制日志刷新行为,默认为1<br><br><ul><li>0 : 每隔1秒写日志文件和刷盘操作(<font color="#e74f4c"><b>写日志文件LogBuffer-->OS cache[操作系统缓存</b></font>],<font color="#e74f4c"><b>刷盘OS cache-->磁盘文件</b></font>),最多丢失1秒数据</li><li>1: 事务提交,立刻写日志文件和刷盘,数据不丢失,但是会频繁IO操作</li><li>2: 事务提交,立刻写日志文件,每隔1秒钟进行刷盘操作</li></ul>
<b><font color="#314aa4">锁信息</font></b>
磁盘结构
系统表空间(System Tablespace)
<b>`Mysql 5.6版本`</b>默认所有InnoDB的所有表数据会放在一个<font color="#e74f4c">系统表空间<b> (ibdata1)</b></font><br>`<b>5.7版本`之后</b>,每个表的数据默认单独放到一个<font color="#e74f4c">独立表空间</font>内。但<font color="#e74f4c">每张表的独立表空间只存放数据页、索引页和写缓冲BitMap页</font>,其他信息如回滚页、插入缓冲索引页、二次写缓冲仍放在系统表空间。所以即使每个表的数据单独放到自己的独立表空间,系统表空间也会不断增大。
<b>一个表空间最大存放 2(32) -1 页,每个页16KB,最大存储64TB数据</b><br>
<b><font color="#314aa4">为什么一个表空间只能存储2(32)-1 个页?</font></b>
<b>innboDB页结构中有一个页号值,是4字节</b>
双写缓冲区(Doublewrite Buffer)
数据字典(InnoDB Data Dictionary)
<b>innoDB数据字典由内部系统表组成,这些表包含用于查找表、索引和表字段等对象的元数据</b>。元数据物理上位于InnoDB系统表空间中。由于历史原因,数据字典元数据在一定程度上 与InnoDB表元数据文件(.frm文件)中存储的信息重叠。
独立表空间(File-Per-Table Tablespaces)
撤销表空间(Undo Tablespace)
<b>撤销表空间由一个或多个包含Undo日志文件组成</b>。<b>在MySQL 5.7版本之前Undo占用的 是System Tablespace共享区,从5.7开始将Undo从System Tablespace分离了出来</b>。 InnoDB使用的undo表空间由<font color="#ed9745">innodb_undo_tablespaces</font>配置选项控制,<font color="#e74f4c">默认为0。参数值为0表示使用系统表空间ibdata1;大于0表示使用undo表空间undo_001、 undo_002等。</font>
临时表空间(Temporay Tablespace)
通用表空间(General Tablespace)
通用表空间为通过<font color="#e74f4c">create tablespace</font>语法创建的共享表空间。通用表空间可以创建于 mysql数据目录外的其他表空间,其可以容纳多张表,且其支持所有的行格式
重做日志(Redo Log)
撤销日志(Undo Logs)
<font color="#314aa4"><b>innoDB引擎的三大特性</b></font>
BufferPool
Adaptive Hash Index 自适应哈希索引
Doublewrite Buffer 双写缓冲区
InnoDB数据文件
文件存储类型
Tablespace
表空间,用于存储多个<font color="#e74f4c">`ibd`</font>数据文件,用于存储表的记录和索引。一个文件包含多个段
<ul><li><b>Mysql 5.6</b>版本默认所有InnoDB的所有表数据会放在一个<font color="#e74f4c">系统表空间 ibdata1</font>。</li><li><b>5.7版本之后</b>,<font color="#e74f4c">每个表的数据默认单独放到一个独立表空间内</font>。但每张表的独立表空间只存放数据页、索引页和写缓冲BitMap页,其他信息如回滚页、插入缓冲索引页、二次写缓冲仍放在系统表空间。所以<b>即使每个表的数据单独放到自己的独立表空间,系统表空间也会不断增大</b></li></ul>
Segment
<font color="#e74f4c">Segment表现的是一个逻辑概念,并不对应表空间中的连续物理区域,可以看做是区、页的附加标注信息</font>
用于管理多个Extent,分为<b>数据段(Leaf node segment)</b>【B+树的叶子节点页】、<b>索引段(Non-leaf node segment)</b>【B+树的非叶子节点页】、<b>回滚段(Rollback segment)</b>。<br><font color="#e74f4c"><b>一个表至少会有1个数据段和1个索引段。每多创建一个索引,会多两个segment(即数据段和索引段)</b></font><br>
<b>段申请空闲内存空间时会按一个区申请(1 extend = 64 pages,1extend大小为1M)。但是innodb的一个表初始大小为96K,而不是1M,因为每个段一开始不会直接申请一个区,而是先用若干个碎片页存放数据,用完这些也才按1个区64个连续页来申请。</b>
区组
当数据的增多区的数量会越来越多,为看方便管理区,所以引入的区组的概念,`<font color="#b71c1c"><b>每个区组管理256个区(即256MB)</b></font>`。区组的首个区的前四页和其他的区不同。
<b>第一个组的最开始的4个页 的类型是固定的:</b>用来登记整个表空间的一些整体属性以及本组所有的区被称为<font color="#e74f4c">FSP_HDR</font>,也就是extent 0 ~ extent 255这256个区,整个表空间只有一个FSP_HDR<br><b>其余各组最开始的2个页面的类型是固定的</b>,一个<font color="#e74f4c">XDES类型</font>,用来登记本组256个区的属性,FSP_HDR类型的页面其实和XDES类型的页面的作用类似,只不过FSP_HDR类型的页面还会额外存储一些表空间的属性。<br>
Extent
包含64个连续的页,大小为`<font color="#b71c1c"><b>1M`</b></font>。当表空间不足,需要分配新的页资源,直接分配一个区。<br>
<b><font color="#314aa4">需要要以区为什么分配单位?</font></b>
<b>一次性分配多个页,使用页的分布在尽可能的在逻辑和物理保持顺序(可以在范围查询时使用到顺序IO),避免随机IO</b><br>
Page
页,用于存储多个Row行记录,大小为<font color="#a23735">16K</font>。包含很多种页类型,比如<b>数据页,undo页,系统页,事务数据页,大的BLOB对象页</b>。
<font color="#e74f4c">数据页是指B+树的叶子节点页,索引页是指B+树非叶子节点页</font>
结构
Row
行,包含了记录的字段值,<b>事务ID(Trx id)、滚动指针(Roll pointer)、字段指针(Field pointers)等信息</b>
File文件格式(File-Format)
<b>Antelope:</b> 先前未命名的,最原始的InnoDB文件格式,它支持两种行格式:<b>COMPACT和 REDUNDANT</b>,<font color="#e74f4c">MySQL 5.6及其以前版本默认格式为Antelope</font>
<b>Barracuda: </b>新的文件格式。它支持InnoDB的所有行格式,包括新的行格式:<b>COMPRESSED 和 DYNAMIC,</b><font color="#e74f4c">5.7版本默认格式</font><b> </b>
索引页(数据页)格式
<b>User Records</b>
我们的记录按照主键从小到大的顺序形成了一个单链表,记录被删除,则从这个链表上摘除。
<b>Page Directory</b>
Page Directory主要是<b>解决记录链表的查找问题</b>
一个数据页中查找指定主键值的记录的过程分为两步:<br><ul><li>通过二分法确定该记录所在的槽,并找到该槽所在分组中主键值最小的那条记录。</li><li>通过记录的next_record属性遍历该槽所在的组中的各个记录。</li></ul>
<b>Page Header</b>
页结构的第二部分,这个部分占用固定的<b>56个字节</b>,专门存储各种状态信息。<br>InnoDB为了能得到一个数据页中存储的记录的状态信息,比如本页中已经存储了多少条记录,第一条记录的地址是什么,页目录中存储了多少个槽等等
<b>File Header</b>
<ul><li><b>File Header针对各种类型的页都通用,也就是说不同类型的页都会以File Header作为第一个组成部分</b>,它描述了一些针对各种页都通用的一些信息,比方说页的类型,这个页的编号是多少,它的上一个页、下一个页是谁,页的校验和等等,这个部分占用固定的38个字节。</li><li>同时通过上一个页、下一个页建立一个双向链表把许许多多的页就串联起来,而无需这些页在物理上真正连着。但是并不是所有类型的页都有上一个和下一个页的属性,数据页是有这两个属性的,所以<font color="#e74f4c"><b>所有的数据页其实是一个双向链表</b></font>。</li></ul>
<b>File Trailer</b>
InnoDB存储引擎会把数据存储到磁盘上,但是磁盘速度太慢,需要以页为单位把【<b>页 16KB,磁盘读写 4KB</b>】数据加载到内存中处理,如果该页中的数据在内存中被修改了,那么在修改后的某个时间需要把数据同步到磁盘中。但是在同步了一半的时候中断电了咋办?
为了检测一个<b>页是否完整(也就是在同步的时候有没有发生只同步一半的尴尬情况)</b>,InnoDB每个页的尾部都加了一个File Trailer部分,这个部分由8个字节组成
<b>前4个字节代表页的校验和:</b> 这个部分是和File Header中的校验和相对应的。每当一个页面在内存中修改了,在同步之前就要把它的校验和算出来,因为File Header在页面的前边,所以校验和会被首先同步到磁盘,当完全写完时,校验和也会被写到页的尾部,如果完全同步成功,则页的首部和尾部的校验和应该是一致的。如果写了一半儿断电了,那么在File Header中的校验和就代表着已经修改过的页,而在File Trailer中的校验和代表着原先的页,二者不同则意味着同步中间出了错。
<b>后4个字节: </b>代表页面被最后修改时对应的日志序列位置(LSN),这个也和校验页的完整性有关。
file Trailer与File Header类似,都是所有类型的页通用的
Row行格式
<ul><li><font color="#e74f4c">DB_ROW_ID 不一定有</font></li></ul>
参数描述补充:
<b><font color="#314aa4">溢出页</font></b>
<font color="#314aa4"><b>为什么要有NULL值列表?</b></font>
<b> 节省空间</b>
线程模型
IO Thread
Purge Thread
事务提交之后,其使用的undo日志将不再需要,因此需要Purge Thread回收已经分配的undo 页
默认 4
<font color="#ed9745">`show variables like '%innodb_purge_threads%';`</font>
Page Cleaner Thread
<b>脏数据刷新到磁盘,脏数据刷盘后相应的redo log也就可以覆盖</b>,即可以同步数据,又能达到redo log循环使用的目的。会调用write thread线程处理
默认 8
<font color="#ed9745">show variables like '%innodb_page_cleaners%</font><br>
Master Thread
<font color="#e74f4c">Master thread是InnoDB的主线程,负责调度其他各线程,优先级最高</font>。作用是<b>将缓冲池中的数据异步刷新到磁盘</b> ,保证数据的一致性。包含:脏页的刷盘(page cleaner thread)、undo页回收(purge thread)、redo日志刷盘(log thread)、合并写缓冲等。内部有两个主处理,分别 是每隔1秒和10秒处理
<b>每1秒的操作</b><br>
<ul><li>刷新日志缓冲区,刷到磁盘</li><li>合并写缓冲区数据,根据IO读写压力来决定是否操作</li><li>刷新脏页数据到磁盘,根据<b>脏页比例达到75%</b>才操作(<font color="#ed9745">`innodb_max_dirty_pages_pct`, `innodb_io_capacity`</font>)</li></ul>
<b>每10秒的操作</b>
<ul><li>刷新脏页数据到磁盘 </li><li>合并写缓冲区数据 </li><li>刷新日志缓冲区 </li><li><font color="#e74f4c">删除无用的undo页</font></li></ul>
UndoLog
介绍
事务Id
分配时机
<ul><li><b>只读事务:</b>在只读事务中不可以对普通的表(其他事务也能访问到的表)进行增、删、改操作,但可以对用户临时表做增、删、改操作。对于只读事务来说,只有在它第一次对某个用户创建的临时表执行增、删、改操作时才会为这个事务分配一个事务id,否则的话是不分配事务id的。</li><li><b>读写事务:</b>对于读写事务来说,只有在它第一次对某个表(包括用户创建的临时表)执行增、删、改操作时才会为这个事务分配一个事务id,否则的话也是不分配事务id的</li></ul>
事务id生成机制
服务器会在内存中维护一个<b>全局变量</b>,每当需要为某个事务分配一个事务id时,就会把该变量的值当作事务id分配给该事务,并且把该变量自增1。<br>每当这个变量的值为<font color="#e74f4c">256的倍数时</font>,就会将<b>该变量的值刷新到系统表空间的页号为5的页面中一个称之为Max Trx ID的属性处</b>,这个属性占用8个字节的存储空间。<br>当系统下一次重新启动时,会将上边提到的Max Trx ID属性加载到内存中,将该值加上256之后赋值给我们前边提到的全局变量(因为在上次关机时该全局变量的值可能大于Max Trx ID属性值)。
undo 日志格式
<ul><li>FIL_PAGE_UNDO_LOG类型的页 是专门用来存储undo日志的</li><li>FIL_PAGE_UNDO_LOG页面可以从系统表空间中分配,也可以从一种专门存放undo日志的表空间,也就是所谓的undo tablespace中分配</li></ul>
INSERT操作对应的undo日志
DELETE操作对应的undo日志
页中的记录会根据记录头信息中的next_record属性组成一个单向链表,我们把这个链表称之为<b>正常记录链表</b>;<font color="#e74f4c">被删除的记录其实也会根据记录头信息中的next_record属性组成一个链表</font>,只不过这个链表中的记录占用的存储空间可以被重新利用,所以也称这个链表为<font color="#e74f4c">垃圾链表</font>。Page Header部分有一个称之为<b>PAGE_FREE</b>的属性,它指向由被删除记录组成的垃圾链表中的头节点
删除的过程需要经历两个阶段
① 将记录的delete_mask标识位设置为1,这个阶段称之为delete mark,并没有被加入到垃圾链表。也就是此时记录处于一个中间状态。在删除语句所在的事务提交之前,被删除的记录一直都处于这种所谓的中间状态。
<font color="#314aa4"><b>为啥会有这种奇怪的中间状态呢?</b></font><br>
MVCC的功能
② 当该删除语句所在的<b>事务提交之后</b>,会有<b>专门的线程【Purge Thread】</b>后来真正的把记录删除掉。所谓<b>真正的删除就是把该记录从正常记录链表中移除,并且加入到垃圾链表中</b>,然后还要调整一些页面的其他信息,比如页面中的用户记录数量PAGE_N_RECS、上次插入记录的位置PAGE_LAST_INSERT、垃圾链表头节点的指针PAGE_FREE、页面中可重用的字节数量PAGE_GARBAGE、还有页目录的一些信息等等。这个阶段称之为purge
从上边的描述中我们也可以看出来,在删除语句所在的事务提交之前,只会经历阶段一,也就是delete mark阶段(提交之后我们就不用回滚了,所以只需考虑对删除操作的阶段一做的影响进行回滚)。InnoDB中就会产生一种称之为<font color="#e74f4c">TRX_UNDO_DEL_MARK_REC</font>类型的undo日志。
UPDATE操作对应的undo日志
不更新主键的情况
就地更新(in-place update)
<b>更新后的列和更新前的列占用的存储空间都一样大</b>,那么就可以进行就地更新
先删除掉旧记录,再插入新记录
有任何一个被更新的列更新前和更新后占用的存储空间大小不一致,那么就需要先把这条旧的记录从聚簇索引页面中删除掉(<font color="#e74f4c"><b>真正删除【</b></font><b>把这条记录从正常记录链表中移除并加入到垃圾链表中,并且修改页面中相应的统计信息(比如PAGE_FREE、PAGE_GARBAGE等这些信息)</b><font color="#e74f4c"><b>】</b></font>),然后再根据更新后列的值创建一条新的记录插入到页面中
更新主键情况
<ul><li><b>将旧记录进行delete mark操作</b></li><li><b>创建一条新记录</b></li></ul>
作用
实现事务的原子性
实现多版本控制(MVCC)
Redo Log
介绍
随着事务操作的执行,就会生成Redo Log,在事务提交时会将产生 Redo Log写入Log Buffer,并不是随着事务的提交就立刻写入磁盘文件。等事务操作的脏页写入到磁盘之后,Redo Log 的使命也就完成了,Redo Log占用的空间就可以`<font color="#e74f4c">重用(被覆盖写入)</font>`。
优势
<ul><li><b>redo日志占用的空间非常小:</b> 存储表空间ID、页号、偏移量以及需要更新的值所需的存储空间是很小的</li><li><b>redo日志是顺序写入磁盘的:</b>在执行事务的过程中,每执行一条语句,就可能产生若干条redo日志,这些日志是按照产生的顺序写入磁盘的,也就是使用顺序IO</li></ul>
redo 日志格式
<ul><li><b>type:</b>该条redo日志的类型,redo日志设计大约有53种不同的类型日志。</li><li><b>space ID:</b>表空间ID。</li><li><b>page number:</b>页号。</li><li><b>data:</b>该条redo日志的具体内容。</li></ul>
redo 日志写入过程
redo log block 和日志缓冲区
<ul><li><span style="font-size: inherit;">InnoDB为了更好的进行系统崩溃恢复,把redo日志都放在了大小为</span><b style="font-size: inherit;">512字节的块(block)</b><span style="font-size: inherit;">中</span></li><li><span style="font-size: inherit;">在服务器启动时就向操作系统申请了一大片称之为</span><font color="#e74f4c" style="font-size: inherit;">redo log buffer</font><span style="font-size: inherit;">的连续内存空间,翻译成中文就是redo日志缓冲区,我们也可以简称为</span><b style="font-size: inherit;">log buffer</b><span style="font-size: inherit;">。这片内存空间被划分成若干个连续的redo log block,我们可以通过启动参数</span><font color="#ed9745" style="font-size: inherit;">innodb_log_buffer_size</font><span style="font-size: inherit;">来指定log buffer的大小,该启动参数的默认值为</span><b style="font-size: inherit;">16MB</b><span style="font-size: inherit;">。</span></li><li><span style="font-size: inherit;">向log buffer中写入redo日志的过程是顺序的,也就是先往前边的block中写,当该block的空闲空间用完之后再往下一个block中写</span></li></ul>
写入机制(顺序循环,覆盖写入)
<ul><li><b>write pos:</b>是当前记录的位置,一边写一边后移,写到最后一个文件末尾后就回到 0 号文件开 头;</li><li><b>checkpoint :</b>是当前要擦除的位置,也是往后推移并且循环的,擦除记录前要把记录更新到数据文件<br><br></li></ul>write pos 和 checkpoint 之间还空着的部分,可以用来记录新的操作。如果 write pos 追上 checkpoint,表示写满,这时候不能再执行新的更新,得停下来先擦掉一些记录(<b>强制刷盘[结合LSN]</b>),把 checkpoint 推进一下。<br>
日志刷盘时机
Log Buffer 空间不足
log buffer空间不足时,log buffer的大小是有限的(通过系统变量<font color="#ed9745">innodb_log_buffer_size</font>指定),如果不停的往这个有限大小的log buffer里塞入日志,很快它就会被填满。InnoDB认为如果<b>当前写入log buffer的redo日志量已经占满了log buffer总容量的大约一半左右</b>,就需要把这些日志刷新到磁盘上
日志持久化策略
正常关闭服务器
redo日志文件组
MySQL的数据目录(使用<font color="#ed9745">SHOW VARIABLES LIKE 'datadir</font>'查看)下默认有两个名为ib_logfile0和ib_logfile1的文件,log buffer中的日志默认情况下就是刷新到这两个磁盘文件中, 文件以 <b>ib_logfile[数字格式] </b><br><ul style=""><li style=""><b>innodb_log_group_home_dir,</b>该参数指定了redo日志文件所在的目录,默认值就是当前的数据目录。</li><li style=""><span style="font-weight: bold;">innodb_log_file_size,</span>该参数指定了每个redo日志文件的大小,默认值为48MB,</li><li style=""><span style="font-weight: bold;">innodb_log_files_in_group,</span>该参数指定redo日志文件的个数,默认值为2,最大值为100。</li></ul>
redo日志文件组中的每个文件大小都一样,格式也一样,都是由两部分组成:<b>前2048个字节,也就是前4个block是用来存储一些管理信息的。</b>
Log Sequence Number
<ul><li><b>flushed_to_disk_lsn: 将要刷新到磁盘中的redo日志量的全局变量 </b></li><li><b>buf_next_to_write: 已经刷新到磁盘上的redo日志文件<br><br>当有新的redo日志写入到log buffer时,首先lsn的值会增长,但flushed_to_disk_lsn不变,随后随着不断有log buffer中的日志被刷新到磁盘上,flushed_to_disk_lsn的值也跟着增长。如果两者的值相同时,说明log buffer中的所有redo日志都已经刷新到磁盘中了<br></b></li></ul>
查看系统中的各种LSN值
<font color="#ed9745">SHOW ENGINE INNODB STATUS</font>
<ul><li><b>Log sequence number:</b>代表系统中的lsn值,也就是当前系统已经写入的redo日志量,包括写入log buffer中的日志。</li><li><b>Log flushed up to:</b>代表flushed_to_disk_lsn的值,也就是当前系统已经写入磁盘的redo日志量。</li><li><b>Pages flushed up to</b>:代表flush链表中被最早修改的那个页面对应的oldest_modification属性值。</li><li><b>Last checkpoint at</b>:当前系统的checkpoint_lsn值。</li></ul>
工作原理
Redo Log相关配置参数
<b>每个InnoDB存储引擎至少有1个重做日志文件组(group),每个文件组至少有2个重做日志文件</b>,默认为`ib_logfile0`和`ib_logfile1`。可以通过下面一组参数控制Redo Log存储:
<font color="#ed9745">show variables like '%innodb_log%';</font>
Bin Log
作用
主从同步
在主库中开启Binlog功能,这样主库就可以把Binlog传递给从库,从库拿到 Binlog后实现数据恢复达到主从数据一致性
数据恢复
通过mysqlbinlog工具来恢复数据
行类型
ROW
STATMENT
MIXED
Binlog文件结构
MySQL的binlog文件中记录的是对数据库的各种修改操作,用来表示修改操作的数据结构是<b>Log event</b>。不同的修改操作对应的不同的log event。比较常用的log event有:<b>Query event、Row event、Xid event</b>等。<font color="#e74f4c">binlog文件的内容就是各种Log event的集合</font>
Binlog文件操作
写入机制
1. 根据记录模式和操作触发event事件生成log event(事件触发执行机制)
2. 将事务执行过程中产生log event写入缓冲区,<b>每个事务线程都有一个(独立的)缓冲区</b>
Log Event保存在一个`<font color="#e74f4c">binlog_cache_mngr</font>`数据结构中,在该结构中有两个缓冲区<br><ul><li>一个是 <font color="#e74f4c">`stmt_cache` :</font>用于存放不支持事务的信息;</li><li>一个是`<font color="#e74f4c">trx_cache</font>` :用于存放支持事务的信息。</li></ul>
3. 事务在提交阶段会将产生的log event写入到外部binlog文件中。
<b>不同事务以串行方式将log event写入binlog文件中</b>,所以一个事务包含的log event信息在 binlog文件中是连续的,中间不会插入其他事务的log event。
Redo Log 和 Bin Log区别
事务执行的流程
事务执行
事务恢复
MySQL崩溃恢复后,首先会获取日志检查点信息,随后根据日志检查点信息使用Redo Log进行恢复。MySQL崩溃或者宕机时事务未提交,则接下来使用Undo Log回滚数据。如果在MySQL崩溃或者宕机时事务已经提交,则用Redo Log恢复数据即可。
<b>恢复机制</b>
MySQL可以根据redo日志中的各种LSN值,来确定恢复的起点和终点。然后将redo日志中的数据,以<font color="#e74f4c"><b>哈希表</b>的形式</font>,将一个页面下的放到哈希表的一个槽中。之后就可以遍历哈希表,因为对<b>同一个页面进行修改的redo日志都放在了一个槽里(以页面hash为key)</b>,所以可以<font color="#e74f4c">一次性将一个页面修复好(避免了很多读取页面的随机IO)</font>。并且通过各种机制,避免无谓的页面修复,比如已经刷新的页面,进而提升崩溃恢复的速度。
<b><font color="#314aa4">崩溃后的恢复为什么不用binlog?</font></b>
<b><font color="#314aa4">Redo日志和Undo日志的关系?</font></b>
<ul><li>数据库崩溃重启后,需要先从redo log中把未落盘的脏页数据恢复回来,重新写入磁盘,保证用户的数据不丢失。当然,在崩溃恢复中还需要把未提交的事务进行回滚操作。由于回滚操作需要undo log日志支持,undo log日志的完整性和可靠性需要redo log日志来保证,所以数据库崩溃需要先做redo log数据恢复,然后做undo log回滚。</li><li>事务进行过程中,每次sql语句执行,都会记录undo log和redo log,然后更新数据形成脏页。事务执行COMMIT操作时,会将本事务相关的所有redo log进行落盘,<b>只有所有的redo log落盘成功,才算COMMIT成功</b>。然后内存中的undo log和脏页按照同样的规则进行落盘。如果此时发生崩溃,则只使用redo log恢复数据</li></ul>
<b><font color="#314aa4">同时写Redo和Binlog怎么保持一致?</font></b>
<b>两阶段事务2PC</b>
1)当事务提交时InnoDB存储引擎进行prepare操作。<br>2)MySQL上层会将数据库、数据表和数据表中的数据的更新操作写入BinLog文件。<br>3)InnoDB存储引擎将事务日志写入Redo Log文件中。
<b><font color="#314aa4">事务日志类型</font></b>
<b>WAL【Write-Ahead Logging,预写式日志】,先写日志,再写磁盘。</b>
所有的修改都先被写入到日志中,然后再被应用到系统中。<b>通常包含redo和undo两部分信息<br><ul><li><b>undo日志保证事务的原子性(A)</b></li><li><b>redo日志保证数据的一致性(I),当系统crash重启之后用来恢复数据</b></li></ul></b>
<b>Commit Logging(提交日志)</b>
<b>只有在日志记录全部都安全落盘,数据库在日志中看到代表事务成功提交的“提交记录”(Commit Record)</b>后,才会根据日志上的信息对真正的数据进行修改,修改完成后,再在日志中加入一条<b>“结束记录”(End Record)</b>表示事务已完成持久化。两者的区别是,<font color="#e74f4c">WAL允许在事务提交之前,提前写入变动数据,而Commit Logging则不行;WAL中有undo日志,Commit Logging没有</font>。阿里的<b>OceanBase</b>则是使用的Commit Logging来实现事务。
<b>Shadow Paging(影子分页)</b>
Shadow Paging 的大体思路是对数据的变动会写到硬盘的数据中,但并不是直接就地修改原先的数据,而是<b>先将数据复制一份副本,保留原数据,修改副本数据。</b>在事务过程中,被修改的数据会同时存在两份,一份是修改前的数据,一份是修改后的数据,这也是“影子”(Shadow)这个名字的由来。当事务成功提交,所有数据的修改都成功持久化之后,最后一步是去修改数据的引用指针,将引用从原数据改为新复制出来修改后的副本,最后的“修改指针”这个操作将被认为是原子操作,现代磁盘的写操作可以认为在硬件上保证了不会出现“改了半个值”的现象。所以 Shadow Paging 也可以保证原子性和持久性。Shadow Paging 实现事务要比 Commit Logging 更加简单,但涉及隔离性与并发锁时,Shadow Paging 实现的事务并发能力就相对有限,因此在高性能的数据库中应用不多。<br><br>常用的轻量级数据库 SQLite Version 3 采用的事务机制就是 Shadow Paging。<br>
<b><font color="#314aa4">一个写语句的执行流程</font></b>
<b><font color="#314aa4">为什么Mysql不能直接更新磁盘上的数据而且设置这么一套复杂的机制来执行SQL了?</font></b>
因为来一个请求就直接对磁盘文件进行<font color="#e74f4c" style="">随机读写</font>,然后更新磁盘文件里的数据性能可能相当差。<br>因为磁盘随机读写的性能是非常差的,所以直接更新磁盘文件是不能让数据库抗住很高并发的。<br>Mysql这套机制看起来复杂,<font color="#e74f4c">但它可以保证每个更新请求都是更新内存BufferPool,然后顺序写日志文件,同时还能保证各种异常情况下的数据一致性</font>。<br>更新内存的性能是极高的,然后顺序写磁盘上的日志文件的性能也是非常高的,要远高于随机读写磁盘文件。<br>正是通过这套机制,才能让我们的MySQL数据库在较高配置的机器上每秒可以抗下几干甚至上万的读写请求。
索引
概念
概念
索引的本质就是<b>排好序</b>的<b>数据结构</b>
分类
功能
普通
唯一
引列的值必须唯一,但<font color="#e74f4c">允许有空值(多个)</font>。如果是组合索引,则列值组合必须唯一
主键
一种特殊的唯一索引,<font color="#e74f4c">不允许有空值</font>。一般在建表时同时创建主键索引
组合
外键
全文(FULLTEXT)
快速匹配全部文档的方式
<font color="#e74f4c">InnoDB引擎5.6版本后才支持全文索引。MEMORY引擎不支持</font>
结构
B+Tree
InnoDB/MyISAM存储引擎默认的索引类型
Hash索引
MySQL中<font color="#e74f4c">Memory存储引擎 </font>默认支持的索引类型
<ul><li><b>InnoDB自适应哈希索引(内存结构中),InnoDB自适应哈希索引是为看提升查询效率</b>,InnoDB存储引擎会监控表上各个索引页的查询,当InnoDB注意到某些索引值访问非常频繁时,会在内存中基础B+Tree索引在创建一个Hash索引,使得内存中的B+Tree索引具备哈希索引的功能,即能快速定值访问频繁访问的索引页。(`<font color="#e74f4c">在使用Hash索引访问时,一次性查询就能定位数据,等值查询效率优于B+Tree</font>`)</li><li>自适应Hash索引的建立使得InnoDB存储引擎能自动根据索引页访问的频率和模式为某些热点页建立哈希索引来加速访问,另外InnoDB自适应哈希索引的功能,<b>用具只能选择开启或关闭,无法进行人工干涉。</b></li></ul>
<font color="#ed9745">show variables like '%innodb_adaptive%</font>' // 查询自适应Hash索引的状态
R-tree 索引(空间索引)
空间索引是<font color="#e74f4c">`MyISAM</font>`引擎的一个特殊索引类型,主要用于<b>地理空间数据类型</b>
Full-text (全文索引)
全文索引也是<font color="#e74f4c"> MyISAM</font>的一个特殊索引类型,主要用于全文索引,<b>InnoDB从Mysql5.6版本开始支持全文索引</b>
<b><font color="#314aa4">InnoDB/MyISAM/MEMORY三种存储引擎对各种索引类型的支持</font></b>
存储方式
聚簇索引
<b>数据存储与索引放到了一块</b>,索引结构的叶子节点保存了<b>行数据</b>
<font color="#e74f4c">必须有,而且只有一个</font>
索引结构
<ul><li>默认是<b>主键索引</b></li><li>如果一张表没有`主键索引`,它会选择<b>第一个唯一索引</b>作为聚簇索引。</li><li>如果也没有唯一索引,<b>mysql会自动生成一个 6字节`rowid</b>`。</li></ul>
非聚簇索引
<b>数据与索引分开存储</b>,索引结构的叶子节点关联的是对应的<b>主键</b>
可有可无,可以存在多个
索引结构
<b><font color="#314aa4">回表</font></b>
回表指的就是非聚集索引从叶子节点拿到数据(主键的键值)之后,还需要再根据主键键值去扫描主键索引的B+树,这种操作就叫做回表,也就是说他需要扫描两颗B+树,这也就是为什么在<b>InnoDB中主键索引的效率相比较其他索引是最高的</b>。<br>
回表会进行IO操作,算是一个比较重的操作
<b><font color="#314aa4">覆盖索引</font></b>
一个查询只需要查询当前索引的值和主键的值,而不需要查其他数据,<b>不需要回表</b>,直接就可以返回
<b><font color="#314aa4">页分裂</font></b>
为什么会产生页分裂?
这是因为<font color="#e74f4c">聚簇索引采用的是平衡二叉树算法</font>,而且每个节点都保存了该主键所对应行的数据,假设插入数据的主键是自增长的,那么根据二叉树算法会很快的把该数据添加到某个节点下,而其他的节点不用动;但是<b>如果插入的是不规则的数据,那么每次插入都会改变二叉树之前的数据状态。从而导致了页分裂</b>
<font color="#e74f4c"><b>页分裂的目的就是保证:后一个数据页中的所有行主键值比前一个数据页中主键值大。</b></font>
<b><font color="#314aa4">组合索引的结构</font></b>
上面根据身高年龄建立的组合索引(height,age)<br>以上图索引为例,组合索引在B+树中是两个字段进行排序的,索引的key是身高和年龄,值是主键id,先按照身高排序,身高一样的按照年龄排序。
<font color="#e74f4c">组合索引没有加order by 也可能会决定你的查询出来的结果顺序</font>
索引的结构
<b>基础理论:二分查找 + Hash结构 + B+树</b>
磁盘存储
<ul><li>系统从磁盘读取数据到内存时是以<b>磁盘块(block)</b>为基本单位的</li><li>位于同一个磁盘块中的数据会被一次性读取出来,而不是需要什么取什么。</li><li>InnoDB存储引擎中有`<b>页(Page)的概念,页是其磁盘管理的最小单位`</b>。InnoDB存储引擎中默认<b>每个页的大小为16KB</b>。</li><li>InnoDB引擎将若干个地址连接磁盘块,以此来达到页的大小`16KB`,在查询数据时如果一个页中的每条数据都能有助于定位数据记录的位置,这将会<b>减少磁盘I/O次数,提高查询效率</b>。</li></ul>
BTree
多路平衡搜索树
结构
B+Tree
BTree结构图中可以看到每个节点中不仅包含数据的key值,还有data值。而每一个页的存储空间是有限的,如果data数据较大时将会导致`每个节点(即一个页)`<b>能存储的key的数量很小,当存储的数据量很大时同样会导致<font color="#e74f4c">B-Tree的深度较大</font></b><font color="#e74f4c">,增大查询时的磁盘I/O次数</font>,进而影响查询效率。<b>在`B+Tree`中,有数据记录节点都是按照键值大小顺序存放在同一层的叶子节点上,而非叶子节点上只存储key值信息,这样可以大大<font color="#e74f4c">加大每个节点存储的key值数量,降低B+Tree的高度</font></b>
B+Tree相对于BTree区别
<ul><li><b>非叶子节点只存储键值信息 ===> <font color="#e74f4c">非叶子节点存储的数据越多,树的高度越低</font></b></li><li><b>所有叶子节点(`页`)之间都有一个连接指针。 ===> <font color="#e74f4c">双向列表</font></b></li><li><b>数据记录都存放在叶子节点中。 ===> `<font color="#e74f4c">B+树 的查询花费的时间更加稳定</font></b></li></ul>
<b>B+Tree`上有两个头指针</b>,一个指向根节点,另一个指向关键字最小的叶子节点,而且<b>所有叶子节点(即数据节点)之间是一种<font color="#e74f4c">链式环结构</font></b>。因此可以对 `B+Tree` 进行两种查找运算<br><ul><li><b>【有范围】</b>对于主键的范围查找和分页查找</li><li>【<b>有顺序】</b>从根节点开始,进行随机查找</li></ul>
结构
Innodb`中存储空间管理的最小单位是`页`,页的默认空间是16KB,每个页中存放了数据。`<b>页与页`之间是通过双向链表来连接的。索引页中的数据都会按照主键的值从小到大排列并用`单向链`表连接起来</b>
Hash
对索引的key进行一次hash计算就可以定位出数组存储的位置
很多时候Hash索引要比 B+ 树索引更高效
仅仅满足 "=" “in”,不支持范围查询
Hash冲突
结构
<b><font color="#314aa4">为什么非主键索引结构叶子结点存储的是主键值</font></b>
一致性 & 节省存储空间
索引的建立过程
<br>
创建索引原则
<b><font color="#e74f4c">核心思想: 尽量利用一两个复杂的多字段联合索引,抗下你80%以上的查询,然后用一两个辅助索引尽量抗下剩余的一些非典型查询,保证这种大数据量表的查询尽可能多的都能充分利用索引,这样就能保证你的查询速度和性能了</font></b>
<b><font color="#314aa4">三星索引</font></b>
<ul><li>索引的区分度很高</li><li>索引的排序和业务查询的排序相同</li><li>索引的字段完全满足查询的需要(覆盖索引)</li></ul>
索引优化步骤
<b>查询SQL的执行频率</b>
MySQL 客户端连接成功后,通过 <font color="#ed9745">show [session|global] status </font>命令可以提供服务器状态信息<br><ul><li>session :当前连接</li><li>global: 自服务器上次启动至今</li></ul>
查看整个数据库的指令执行的次数
<font color="#ed9745">show status like 'Com_______';</font>
查看 InnoDb表 执行语句的行数
<font color="#ed9745">show status like 'Innodb_rows_%';</font>
<b>定位低效率执行SQL</b>
慢查询日志
show processlist
慢查询日志在查询结束以后才纪录,所以在应用反映执行效率出现问题的时候查询慢查询日志并不能定位问题,可以使用show processlist命令查看当前MySQL在进行的线程,包括线程的状态、是否锁表等,<b>可以实时地查看 SQL 的执行情况,同时对一些锁表操作进行优化</b>。
<b>explain分析执行计划</b>
id
id 字段是 select查询的序列号:<br><ul><li><span style="font-size: inherit;">id 相同表示加载表的顺序是从上到下</span></li><li><span style="font-size: inherit;">id 不同id值越大,优先级越高,越先被执行</span></li><li><span style="font-size: inherit;">id 有相同,也有不同,同时存在。id相同的可以认为是一组,从上往下顺序执行;在所有的组中,id的值越大,优先级越高,越先执行</span></li></ul>
select_type
table
type
一般来说,<font color="#e74f4c"> <b>我们需要保证查询至少达到 range 级别, 最好达到ref<br><ul><li>system > const > eq_ref > ref > range > index > ALL</li></ul></b></font>
NULL
System
const
eq_ref
ref
fulltext
全表索引
ref_or_null<br>
与ref类似,但是包括NULL
index_merge<br>
索引合并
unique_subquery
unique _subquery 是针对在一些包含 IN 子查询的查询语句中,如果查询优化器决定将<b> `IN 子查询`转换为 `EXISTS` 子查询</b>,而且子查询可以使用到主键进行等值匹配的话,那么该子查询执行计划的 type 列的值就是 unique_subquery
index_subquery<br>
index_subquery 与 unique_subquery 类似,只不过访问⼦查询中的表时使⽤的是普通 的索引:
range<br>
index
扫描了整张表的索引
扫描全索引就能拿到结果,一般是扫描某个二级索引,这种扫描不会从索引树根节点开始快速查找,而是直接<br>对二级索引的叶子节点遍历和扫描,速度还是比较慢的,这种查询一般为使用覆盖索引,二级索引一般比较小,所以这<br>种通常比ALL快一些
all
possible_keys
显示可能应用在这张表的索引
key
实际使用的索引
key_len
表示索引中使用的字节数, 该值为索引字段最大可能长度,并非实际使用长度,<font color="#e74f4c">在不损失精确性的前提下,长度越短越好。 越短执行效率越高</font>
计算规则
字符串类型<br>
字符串长度跟字符集有关:latin1=1、gbk=2、utf8=3、utf8mb4=4<br><ul><li>char(n):n*字符集长度 </li><li>varchar(n):n * 字符集长度 + 2字节 <font color="#e74f4c">2字节是表示字符串的长度</font></li></ul>
数值类型
<ul><li>TINYINT:1个字节 </li><li>SMALLINT:2个字节 </li><li>MEDIUMINT:3个字节 </li><li>INT、FLOAT:4个字节 </li><li>BIGINT、DOUBLE:8个字节</li></ul>
时间类型
<ul><li>DATE:3个字节 </li><li>TIMESTAMP:4个字节 </li><li>DATETIME:8个字节</li></ul>
字段属性
NULL属性占用1个字节,如果一个字段设置了NOT NULL,则没有此项。
row
扫描行的数量(预估值)
ref
partitions<br>
filtered
row * filterd / 100 可以估算出将要和explain中前一个表进行连接的行数
extra
索引下推
没有使用索引下推
使用索引下推
索引下推的使用条件<br>
只能用于 range、ref、ef_ref、ref_or_null 访问方法
只能用于InndoDB和MyISAM存储引擎及其分区表
对于存储引擎来说索引下推只适用于<b>二级索引</b>
<font color="#e74f4c">索引下推的目的是为了减少回表次数,也就是要减少IO操作</font>,对于聚簇索引来说,数据和索引是在一起的,不存在回表说法。
引用了子查询的条件不能下推,
引用了存储函数的条件不能下推,因为存储引擎无法调用存储函数
<b><font color="#314aa4">索引合并</font></b>
<b>一般来说 select 语句只会使用一个二级索引来加快查询,即使在where条件中使用了多个索引的字段</b>,但存在有特殊情况,在这些特殊情况下也可能在一个查询中使用到多个二级索引,MySQL中这种使用到多个索引来完成一次查询的执行方法称之为:<font color="#e74f4c">索引合并/index merge</font>
<b>索引合并算法</b>
<b>Intersection合并(交集合并)</b>
<font color="#ed9745"><b>SELECT * FROM order_exp WHERE order_no = 'a' AND expire_time = 'b';</b></font>
<b>交集合并的处理过程: 将 order_no 和 expire_time 两个二级索引筛选的结果进行汇总取交集,在进行回表</b>
为什么这么处理?
<b>只读取一个二级索引的成本:</b> 按照某个搜索条件读取一个二级索引,根据从该二级索引得到的主键值进行回表操作,然后再过滤其他的搜索条
<b>读取多个二级索引之后取交集成本:</b> 按照不同的搜索条件分别读取不同的二级索引,将从多个二级索引得到的主键值取交集,然后进行回表操作
虽然读取多个二级索引比读取一个二级索引消耗性能,但是大部分情况下读取二级索引的操作是顺序I/O,而回表操作是随机I/O,所以如果只读取一个二级索引时需要回表的记录数特别多,而读取多个二级索引之后取交集的记录数非常少,当节省的因为回表而造成的性能损耗比访问多个二级索引带来的性能损耗更高时,读取多个二级索引后取交集比只读取一个二级索引的成本更低。
<b>什么情况下才会出现?(必要条件)</b>
<b>等值匹配</b>
二级索引列是等值匹配的情况,对于联合索引来说,在联合索引中的每个列都必须等值匹配,不能出现只匹配部分列的情况
主键列可以是范围匹配
<b>Union合并(并集合并)</b>
<font color="#ed9745"><b>SELECT * FROM order_exp WHERE order_no = 'a' OR expire_time = 'b'</b></font>
<b>什么情况下才会出现?(必要条件)</b>
等值匹配
主键列可以是范围匹配
使用Intersection索引合并的搜索条件
搜索条件的某些部分使用Intersection索引合并的方式得到的主键集合和其他方式得到的主键集合取交集
<font color="#ed9745">SELECT * FROM order_exp WHERE insert_time = 'a' AND order_status = 'b' AND expire_time = 'c' OR (order_no = 'a' AND expire_time = 'b');</font><br><br>优化器可能采用这样的方式来执行这个查询:<br><ul><li>先按照搜索条件order_no = 'a' AND expire_time = 'b'从索引idx_order_no和idx_expire_time中使用Intersection索引合并的方式得到一个主键集合。</li><li>再按照搜索条件 insert_time = 'a' AND order_status = 'b' AND expire_time = 'c'从联合索引u_idx_day_status中得到另一个主键集合。</li><li>采用Union索引合并的方式把上述两个主键集合取并集,然后进行回表操作,将结果返回给用户。</li></ul>
<b>Sort-Union合并</b>
<b><font color="#ed9745">SELECT * FROM order_exp WHERE order_no< 'a' OR expire_time> 'z'</font></b>
<ul><li>先根据order_no< 'a'条件从idx_order_no二级索引中获取记录,并按照记录的主键值进行排序</li><li>再根据expire_time> 'z'条件从idx_expire_time二级索引中获取记录,并按照记录的主键值进行排序</li><li>因为上述的两个二级索引主键值都是排好序的,剩下的操作和Union索引合并方式就一样了。</li></ul>
<font color="#e74f4c"><b>联合索引替代Intersection索引合并</b></font>
<font color="#ed9745">SELECT * FROM order_exp WHERE order_no= 'a' And expire_time= 'z';</font>
这个查询之所以可能使用Intersection索引合并的方式执行,还不是因为idx_order_no和idx_expire_time是两个单独的B+树索引,要是把这两个列搞一个联合索引,那直接使用这个联合索引就把事情搞定了
<b>show profile 分析SQL【查询SQL语句的耗时分析】</b><br>
<b>Mysql从 `5.0.37</b>` 版本开始增加了对 <b>show profiles</b> 和<b> show profile</b>语句的支持
查看是否支持 profile: <font color="#ed9745">select @@have_profiling;</font><br>
查看SQL语句执行的耗时: <font color="#ed9745">show profiles</font><br>
可以查看到该SQL执行过程中每个线程的状态和消耗的时间: <font color="#ed9745">show profile for query [query_id]</font><br>
Sending data
<b>表示MySQL线程开始访问数据行并把结果返回给客户端</b>,而不仅仅是返回给客户端。由于<b>在 Sending data状态下,MySQL线程往往需要做大量的磁盘读取操作,所以经常是整各查询中耗时最长的状态</b>
在获取到最消耗时间的线程状态后,MySQL支持进一步选择 <font color="#e74f4c">all、cpu、block io 、context switch、page faults</font>等明细类型类查看MySQL在使用什么资源上耗费了过高的时间
<b>trace分析优化器</b>
<b>MySQL 5.6</b>提供了对SQL的跟踪 trace
-- 开启trace 的追踪日志信息<br><font color="#ed9745"><b>SET optimizer_trace="enabled=on",end_markers_in_json=on;</b></font><br>-- 设置占用的内存大小<br><b><font color="#ed9745">set optimizer_trace_max_mem_size=1000000;<br></font></b>--关闭trace<b><font color="#ed9745"><br>set session optimizer_trace="enabled=off"; <br></font></b>
执行语句
select * from tb_item where id < 4;
检查<b>information_schema.optimizer_trace</b>
select * from information_schema.optimizer_trace;
索引使用
避免索引失效
最左前缀法则
查询从索引的`左前列开始,并且`跳过索引中的列
范围查询右边的列,不使用索引
禁止在索引列运算
字符串类型不加 '
尽可能使用覆盖索引,禁止select *
%开头like
<b>以 %开头的覆盖索引不会使索引失效,其中包含任意一个非索引列,索引就会失效</b><br>
<font color="#e74f4c">like KK%相当于=常量,%KK和%KK% 相当于范围</font>
<font color="#e74f4c">如果MySQL评估使用索引比全表更慢,则不使用索引</font><br>
<font color="#e74f4c"><b>索引是索引少量数据的。</b></font>
在这个案例中,数据有12条,11条为北京市,只有一条为西安市。
or 后面使用索引会失效(前面可以)
in 走索引, not in 不走索引
is NULL , is NOT NULL 有时索引失效。
<font color="#314aa4"><b>如果MySQ表的某一列含有NULL值,那么包含该列的索引是否有效?</b></font>
MySQL可以在含有NULL的列上使用索引(单独或者组合索引)
SQL优化
优化大数据量 load
插入按照顺序进行查询,避免发生页分裂
手动提交事务
insert
<b>Filesort 优化</b><br>
<ul><li><b>尽量减少额外的排序,通过索引直接返回有序数据</b></li><li><font color="#e74f4c">where 条件和Order by 使用相同的索引</font>,并且<font color="#e74f4c">Order By 的顺序和索引顺序相同</font>, 并且<b>Order by 的字段都是升序,或者都是降序</b>。否则肯定需要额外的操作,这样就会出现`FileSort</li></ul>
<b>排序是在排序缓冲区(sort buffer)中进行</b>
<b>排序算法</b>
<b>两次扫描算法(双路排序)</b>
MySQL4.1 之前使用该方式排序。首先<font color="#e74f4c">根据条件取出排序字段和行指针信息,然后在排序区 sort buffer中排序</font>,如果sort buffer不够,则在临时表 temporary table 中存储排序结果。完成排序之后,再根据行指针回表读取记录,该操作可能会导致大量随机I/O操作
<b>一次扫描算法:(单路排序)</b>
<font color="#e74f4c">一次性取出满足条件的所有字段,然后在排序缓存区 sort buffer 中排序后直接输出结果集。</font>排序时内存开销较大(如果查询的数据超出了缓存sort buffer,会导致多次磁盘读取操作,并创建临时表,最后产生多次IO,反而增加了负担),但是排序效率比两次扫描算法要高
MySQL 通过比较系统变量 <font color="#ed9745"><b>max_length_for_sort_data[默认 1M]</b></font>的大小和Query语句取出的字段总大小, 来判定是否那种排序算法,如果 `<b><font color="#ed9745">max_length_for_sort_data</font></b>` 更大,那么使用单路排序;否则使用双路排序<br><b>可以适当提高 <font color="#ed9745">sort_buffer_size</font> 和<font color="#ed9745"> max_length_for_sort_data</font> 系统变量,来增大排序缓存区的大小,提高排序的效率。</b><br>
使用 trace 查看filesort排序
单路排序
双路排序
<b>group by</b>
<b>group by分组时会默认对结果进行排序</b>, 执行<font color="#ed9745">order by null</font>禁止排序
优化子查询
使用多表联查 来替换 子查询
<font color="#e74f4c">连接(Join)查询之所以更有效率一些 ( reg > index)</font>,是因为MySQL<font color="#e74f4c">不需要在内存中创建临时表</font>完成这个逻辑上需要两个步骤的查询工作
or
建议使用 union 替换 or
优化分页查询
<font color="#314aa4"><b>为什么大数据量下的分页会慢</b></font>
先查询当前数据行前之前的记录,然后进行<b>`排序`</b>,然后将对应起始索引之前的数据进行了丢弃,所以查询效率慢
比如:一般分页查询时,通过创建覆盖索引能够比较好地提高性能。一个常见又非常头疼的问题就是 limit 2000000,10 ,此时需要MySQL排序前2000010 记录,仅仅返回2000000 - 2000010 的记录,其他记录丢弃,查询排序的代价非常大
优化思路一
<b>在索引上完成排序分页操作,最后根据主键关联回原表查询所需要的其他列内容(<font color="#e74f4c">使用覆盖索引,不需要回表查询</font>)</b>
<font color="#ed9745">explain select * from tb_item t , (select id from tb_item order by id limit 2000000,10) a where t.id = a.id;</font>
优化思路二
该方案适用于主键自增的表,可以把Limit 查询转换成某个位置的查询
<b>主键必需自增 并且 id没有断层</b>
使用SQL提示<br>
在SQL语句中加入一些人为的提示来达到优化操作的目的
USE INDEX<br>
提供希望MySQL去参考的索引列表(<font color="#e74f4c">建议具体使用的索引(但是mysql不一定采用)</font>),就可以让MySQL不再考虑其他可用的索引。
IGNORE INDEX
忽略一个或者多个索引,则可以使用` ignore index` 作为 hint
FORCE INDEX<br>
如果mysql判断使用索引(`use index`)不如全表扫描,就会走全表扫描。可以使用 <b>force index 来强制mysql使用指定的索引</b>
count问题
count效率
<b>count(*) = count(1) > count(辅助索引字段) > count(id)<font color="#e74f4c"> [前四个差不太多]</font> > count(非索引字段)</b>
count(*) 被MySQL查询优化器改写成了count(0)
count(*) 会优先选择辅助索引,假如没有辅助索引的存在,就会走主键索引。
<font color="#e74f4c">count(*)会统计值为 NULL 的行,而 count(列名)不会统计此列为 NULL 值的行</font>
<b>常见优化方法</b>
查询mysql自己维护的总行数(<b>仅 MyIsam</b>)
对于myisam存储引擎的表做不带where条件的count查询性能是很高的,因为myisam存储引擎的表的总行数会被mysql存储在磁盘上,查询不需要计算
<b>大数据量count sql从数据库层面是很难优化的。<br>可以查询的数据放入到`Redis`中,或者也可以`使用一张表专门存储数据的个数`</b>
如果想知道预估值 <font color="#ed9745"><b> show table status like '表名';</b></font>
<b><font color="#314aa4">Join原理[内连接] & 优化</font></b>
表连接常见的三种算法
<b>Simple Nested Loop Join 简单嵌套循环连接(NLJ)算法</b>
笛卡尔积
<b>Index Nested-Loop Join 索引嵌套循环连接(NLJ)算法</b>
一次一行循环地从第一张表(称为<font color="#e74f4c">驱动表</font>)中读取行,在这行数据中取到关联字段,根据关联字段在另一张表(<font color="#e74f4c">被驱动表</font>)里取出满足条件的行,然后取出两张表的结果合集(<b>优化器一般会优先选择小表做驱动表</b>)
<b>索引嵌套循环是使用索引减少扫描的次数来提高效率的</b>,所以要求非驱动表上必须有索引才行。<br><br> 在查询的时候,驱动表(User) 会根据关联字段的索引进行查询,<b>当索引上找到符合的值,才会进行回表查询</b>。如果非驱动表(User_info)的关联字段(user_id)是主键的话,查询效率会非常高(主键索引结构的叶子结点包含了完整的行数据(InnoDB)),如果不是主键,每次匹配到索引后都需要进行一次回表查询(根据二级索引(非主键索引)的主键ID进行回表查询),性能肯定弱于主键的查询
<b>Block Nested-Loop Join 基于块的嵌套循环连接(BNL) 算法</b>
如果存在索引,那么会使用index的方式进行join,如果join的列没有索引,被驱动表要扫描的次数太多了,每次访问被驱动表,其表中的记录都会被加载到内存中,然后再从驱动表中取一条与其匹配,匹配结束后清除内存,然后再从驱动表中加载一条记录 然后把被驱动表的记录在加载到内存匹配,这样周而复始,大大增加了IO的次数。<b>为了减少被驱动表的IO次数,就出现了Block Nested-Loop Join的方式</b>。<br><b>不再是逐条获取驱动表的数据,而是一块一块的获取,引入了<font color="#e74f4c">join buffer缓冲区</font></b>,将驱动表join相关的部分数据列(大小是join buffer的限制)缓存到join buffer中,然后全表扫描被驱动表,被驱动表的每一条记录一次性和join buffer中的所有驱动表记录进行匹配(内存中操作),将简单嵌套循环中的多次比较合并成一次,降低了非驱动表的访问频率
<b> 不使用BNL算法</b>
<b> 使用BNL算法</b>
驱动表能不能一次加载完,要看join buffer能不能存储所有的数据,默认情况下<font color="#e74f4c">join_buffer_size=256k</font>,查询的时候Join Buffer 会缓存所有参与查询的列而不是只有join的列,在一个有N个join关联的sql中会分配N-1个join buffer。<b>所以查询的时候尽量减少不必要的字段,可以让join buffer中可以存放更多的列</b><br><br>可以调整join_buffer_size的缓存大小<font color="#ed9745"><b>show variables like '%join_buffer%'</b></font>这个值可以根据实际情况更改。<br>
优化join查询效率
关联字段加索引(减少内层表的循环匹配次数)
让mysql做join操作时尽量选择NLJ算法,<font color="#e74f4c">驱动表因为需要全部查询出来</font>,所以过滤的条件也尽量要走索引,避免全表扫描,总之,能走索引的过滤条件尽量都走索引(大表一定要做索引)
小表驱动大表(其本质就是减少外层循环的数据数量)
写多表连接sql时如果明确知道哪张表是小表可以用<font color="#e74f4c">straight_join</font>写法固定连接驱动方式,省去mysql优化器自己判断的时间
驱动表尽可能检出的数据少点(字段越少,<b>join buffer</b> 所缓存的数据就越多)
增大<font color="#ed9745">join buffer size</font>的大小(一次缓存的数据越多,那么内层包的扫表次数就越少)
多表连接的成本分析<br>
<ul><li>只有 AB、BA这两种连接顺序。其实相当于2 × 1 = 2种连接顺序。</li><li>对于三表连接,比如表A、表B、表C进行连接有ABC、ACB、BAC、BCA、CAB、CBA这么6种连接顺序。其实相当于3 × 2 × 1 = 6种连接顺序。</li><li>对于四表连接的话,则会有4 × 3 × 2 × 1 = 24种连接顺序。</li><li><b>对于n表连接的话,则有 n × (n-1) × (n-2) × ··· × 1种连接顺序,就是n的阶乘种连接顺序,也就是n!。</b></li></ul>
阿里规约要求尽可能不要超过三个表
<font color="#314aa4"><b>NULL查询</b></font>
<font color="#314aa4">如果MySQ表的某一列含有NULL值,那么包含该列的索引是否有效?</font>
<ul><li>对MySQL来说,NULL是一个特殊的值,从概念上讲,NULL意味着“一个未知值”,它的处理方式与其他值有些不同。比如:<b>不能使用=,<,>这样的运算符,对NULL做算术运算的结果都是NULL,count时不会包括NULL行等,NULL比空字符串需要更多的存储空间等</b>。</li><li>NULL列需要增加额外空间来记录其值是否为NULL。对于MyISAM表,每一个空列额外占用一位,四舍五入到最接近的字节。</li><li>然<font color="#e74f4c"><b>MySQL可以在含有NULL的列上使用索引(单独或者组合索引)</b></font>,但NULL和其他数据还是有区别的,不建议列上允许为NULL。最好设置NOT NULL,并给一个默认值</li></ul>
查询索引使用情况
# 查看当前会话的使用索引情况<br><font color="#b71c1c" style="">show status like 'Handler_read%';</font> <br># 查看全局的使用索引情况<br><font color="#b71c1c">show global status like 'Handler_read%';</font>
<ul><li><b>Handler_read_first:</b>索引中第一条被读的次数。如果较高,表示服务器正执行大量全索引扫描(这个值越低越好)。</li><li><b>Handler_read_key:</b>如果索引正在工作,这个值代表一个行被索引值读的次数,如果值越低,表示索引得到的性能改善不高,因为索引不经常使用(这个值越高越好)。</li><li><b>Handler_read_next </b>: 按照键顺序读下一行的请求数。如果你用范围约束或如果执行索引扫描来查询索引列,该值增加。</li><li><b>Handler_read_prev:</b>按照键顺序读前一行的请求数。该读方法主要用于优化ORDER BY ... DESC。</li><li><b>Handler_read_rnd</b> :根据固定位置读一行的请求数。如果你正执行大量查询并需要对结果进行排序该值较高。你可能使用了大量需要MySQL扫描整个表的查询或你的连接没有正确使用键。这个 值较高,意味着运行效率低,应该建立索引来补救。</li><li><b>Handler_read_rnd_next:</b>在数据文件中读下一行的请求数。如果你正进行大量的表扫描,该值较高。通常说明你的表索引不正确或写入的查询没有利用索引</li></ul>
<b><font color="#314aa4">为什么说单表2000万,依据是什么?</font></b>
<b><font color="#314aa4">MMR(批量回表)</font></b>
<b>二级索引的回表流程</b>
由于索引是以页为单位的,一页的大小为<font color="#e74f4c">16k</font>。在回表的时候,需要返回主键索引的id,就会产生一个问题,<b>就是在读取数据的时候,可能会产生一个 随机IO</b> 。由于在读取磁盘的数据时,假设<b>磁盘的扇区只有一个</b>,每次可以读取磁盘的<font color="#e74f4c">512个字节</font>,那么读取一页数据就需要读取 <font color="#e74f4c">16 × 1024 ÷ 512 = 32 次</font>。<br>而索引存储在磁盘上,<b>每个回表携带一个id</b>,假设数据都是第一次读取,在不考虑bufferpool的情况下,那么就需要从磁盘中读取一页数据,那么<b>每一个回表的数据就要与磁盘交互32多次</b>,而如果存在多个回表的的主键id不在一个目录页上面,那么就需要 32乘以回表的个数,这样就大大的降低了查询的效率。<br><br>这就解释了为什么有时候发现一条sql语句在该字段加了索引,where后面也有这个字段,但是通过explain执行发现他不走索引,而是走的全表扫描,这主要就是因为再回表时产生的这个 随机IO 的原因<br>
<b>MMR</b>
<font color="#e74f4c"><b>Disk-Sweep Multi-Range Read (MRR,多范围读取)</b></font>,功能在<b>使用二级索引做范围扫描的过程中</b>,先读取一部分二级索引记录,将它们的主键值排好序之后再统一执行回表操作,这样就可以减少磁盘的交互次数,并且磁盘内一页的数据大小是按顺序排好的,那么在通过这个有序的页查数据时,就可以将这种 <b>随机IO 转换成 顺序IO<br><ul><li>二级索引虽然是顺序的,但是他们所对应的key确不是(随机io)</li></ul></b>
<b><font color="#e74f4c">如果数据已经加载在bufferpool中,那么MRR主要是为了减少这个回表的次数,如果数据在bufferpool中不存在,那么不仅仅减少了回表的次数,同时也减少了随机IO,减少磁盘的交互数</font></b>
<b><font color="#314aa4">密集索引和稀疏索引</font></b>
<ul><li><b>密集索引</b>:叶子节点保存的不只是键值,还保存了位于同一行记录里的其他列的信息,由于密集索引决定了表的物理排列顺序,一个表只有一个物理排列顺序,所以一个表只能创建一个密集索引。</li><li><b>稀疏索引:</b>叶子节点仅保存了键位信息以及该行数据的地址,有的稀疏索引只保存了键位信息机器主键。</li></ul>
<ul><li>myIsam存储引擎,不管是主键索引,唯一键索引还是普通索引都是稀疏索引</li><li>innodb存储引擎:有且只有一个密集索引。所以,密集索引就是innodb存储引擎里的聚簇索引,稀疏索引就是innodb存储引擎里的普通二级索引。</li></ul>
锁
分类
操作
共享锁(读锁 / s锁) [Share]
排它锁(写锁 / x锁) [eXclusive]
<b>IS锁、IX锁</b>
意向读锁、意向写锁,属于表级锁,<b>S和X主要针对行级锁</b>。<b>在对表记录添加S或X锁之前,会先对表添加IS或IX锁。</b>
当有事务给表的数据行加了共享锁或排他锁,同时会给表设置一个标识,代表已经有行锁了,其他事务要想对表加表锁时,就不必逐行判断有没有行锁可能跟表锁冲突了,直接读这个标识就可以确定自己该不该加表锁。特别是表中的记录很多时,逐行判断加表锁的方式效率很低
粒度
表锁
开销小,加锁快;不会出现死锁;锁定力度大,发生锁冲突概率高,并发度最低
行锁
开销大,加锁慢;会出现死锁;锁定粒度小,发生锁冲突的概率低,并发度高
页锁
锁的粒度、发生冲突的概率和加锁的开销介于表锁和行锁之间,会出现死锁,并发性能一般
使用方式
悲观锁
串行操作
乐观锁
CAS
<ul><li><b>MYISAY在执行查询语句SELECT前,自动给所涉及的表加读锁,写操作时自动给锁涉及的表加写锁</b></li><li><b>InnoDB在执行查询语句SELECT前,因为有MVCC机制不会加锁,但是写操作会加行锁</b></li></ul>
MyISAM/InnoDB表锁
MyISAM 存储引擎只支持表锁
<b>读读不阻塞,读写阻塞</b>
使用
查看锁竞争的情况
<font color="#ed9745">show open tables:</font>
查看锁的锁定情况:<font color="#ed9745">show status like 'Table_locks%';</font>
InnoDB行锁
无索引(索引失效)行锁升级为表锁
<b>行锁是加在索引上的(需要避免索引失效)</b>
行锁模式
共享锁/读锁/S锁
<font color="#ed9745">LOCK IN SHARE MODE</font>
排它锁/写锁/X锁
<font color="#ed9745">FOR UPDATE</font>
对于<b>UPDATE、DELETE 和 INSERT</b>语句,InnoDB会自动给涉及数据集加排他锁(X)
间隙锁
用<b>范围条件</b>,而不是使用相等条件检索数据,并请求共享或排他锁时,InnoDB会给符合条件的已有数据进行加锁;<b> 对于键值在条件范围内但并不存在的记录</b>,叫做` "<b>间隙(GAP)</b>", InnoDB也会对这个 "间隙" 加锁,这种锁机制就是所谓的 <b><font color="#e74f4c">间隙锁</font></b><br>
InnoDB 行锁争用情况
<font color="#ed9745">show status like 'innodb_row_lock%';</font>
查询INFORMATION_SCHEMA系统库锁相关数据库
优化
尽可能让所有数据检索都能通过索引来完成,避免无索引行锁升级为表锁
<b>尽可能的缩小锁定范围</b>,避免造成不必要的锁定
尽可能减少索引条件,及索引范围,<b>避免间隙锁</b>
<b>尽量控制事务大小,减少锁定资源量和时间长度</b> (大事务:锁的资源太多了)
尽可使用<b>低级别事务隔离</b>(但是需要业务层面满足需求)<br>
在同一个事务中,尽可能做到一次锁定所需要的所有资源,减少死锁产生概率
行锁的原理
<b>InnoDB行锁是通过对<font color="#b71c1c">索引数据页上的记录</font>加锁实现的</b>
只有RR级别有间隙锁
实现算法
<b>RecordLock锁:记录锁</b>, 锁定单个行记录的锁。(记录锁,RC、RR隔离级别都支持)
<b>GapLock锁:间隙锁</b>,锁定索引记录间隙,确保索引记录的间隙不变。(范围锁,RR隔离级别支持)
<b>Next-key Lock 锁:记录锁和间隙锁组合,同时锁住数据,并且锁住数据前后范围</b>。(记录锁+范围锁,RR隔离级别支持)
加锁场景
<b>主键加锁</b>
<b>唯一键加锁</b>
<b>非唯一键加锁</b> 加锁行为:对满足id=10条件的记录和主键分别加X锁,然后在(6,c)-(10,b)、(10,b)-(10,d)、(10,d)- (11,f)范围分别加<font color="#b71c1c">Gap Lock</font>。
<b>无索引</b>(等价于表锁)
死锁
表级死锁
用户A--》A表(表锁)--》B表(表锁)<br>用户B--》B表(表锁)--》A表(表锁)
行级死锁
原因一:如果在事务中执行了一条<b>没有索引条件的查询,引发全表扫描</b>,把<font color="#e74f4c">行级锁上升为全表记录锁定(等价于表级锁)</font>,多个这样的事务执行后,就很容易产生死锁和阻塞,最终应用系统会越来越慢,发生阻塞或死锁
原因二:两个事务分别想拿到对方持有的锁,互相等待,于是产生死锁
共享锁转换为排他锁
事务A 查询一条纪录,然后更新该条纪录;此时事务B 也更新该条纪录,这时事务B 的排他锁由于事务A 有共享锁,必须等A 释放共享锁后才可以获取,只能排队等待。事务A 再执行更新操作时,此处发生死锁,因为事务A 需要排他锁来做更新操作。但是,无法授予该锁请求,因为事务B 已经有一个排他锁请求,并且正在等待事务A释放其共享锁
死锁排查
<b><font color="#ed9745">show engine innodb status</font></b> 查看最近一次死锁记录
1、查看近期死锁日志信息;2、使用explain查看下SQL执行计划查看锁状态变量
<font color="#ed9745">show status like 'innodb_row_lock%';</font>
事务
四大特性
<b>WAL【Write-Ahead Logging】,先写日志,再写磁盘。</b>
所有的修改都先被写入到日志中,然后再被应用到系统中。通常包含redo和undo两部分信息
<b>ACID</b>
<b><font color="#e74f4c">C是最主要的,C是目的,AID 是手段</font><br><ul><li><b>A: undo log</b></li><li><b>I: 锁</b></li><li><b>D: redo log</b></li></ul></b>
并发引发的问题
脏读
不可重复读
幻读
四种隔离级别
<font color="#e74f4c">Serializable是给每一个操作(读写)都加上锁</font>
<ul><li><b>Oracle 支持的 2 种事务隔离级别:READ COMMITED, SERIALIZABLE</b>。 Oracle 默认的事务隔离级别为:<font color="#e74f4c"> READ COMMITED</font> 。</li><li><b>Mysql 支持 4 种事务隔离级别(事务隔离级别针对的是InnoDB引擎而言,只有InnoDB引擎支持事务)</b>。Mysql 默认的事务隔离级别为:<font color="#e74f4c"> REPEATABLE READ</font></li></ul>
事务控制的演进
排队
排它锁/互斥锁
读写锁
读读并发 、读写互斥
MVCC
<font color="#314aa4"><b>InnoDB事务提交采用的是两阶段提交模式</b></font>
<ul><li>一个阶段是prepare【undo/写入和刷盘,sql语句在此阶段执行,redo prepare】</li><li>二阶段是commit【binlog写入, redo commit,undo Log清除】</li></ul>
多版本并发控制(MVCC)
概念
<b>MVCC(Multi Version Concurrency Control)被称为多版本控制</b>,<font color="#e74f4c">copy on write思想</font> 是指在数据库中为了实现高并发的 数据访问,对数据进行多版本处理,并<b>通过事务的可见性来保证事务能看到自己应该看到的数据版本</b>。 多版本控制很巧妙地将稀缺资源的独占互斥转换为并发,大大提高了数据库的吞吐量及读写性能。 <br>它的实现原理主要是依赖<b>记录中的 3个隐式字段(DB_ROW_ID, DB_TRX_ID, DB_ROLL_PTR)、undo日志、read view 来实现的</b>。
适用
RC RR
<b>MVCC已经实现了<font color="#e74f4c">读读、读写、写读</font>并发处理</b>,如果想解决写写冲突,可以采用下面两种方案
乐观锁
悲观锁
实现原理
<font color="#e74f4c"><b>Undo Log + Read View + 隐式字段</b></font>
读视图
<b>隐藏字段</b>
DB_ROW_ID:6byte,隐含的自增ID(隐藏主键)
如果数据表没有主键,InnoDB会自动以DB_ROW_ID生成一个聚簇索引
DB_TRX_ID:6byte,事务ID
最近修改(修改、插入)事务ID:记录创建这条记录以及最后一次修改该记录的事务的ID,是一个指针
DB_ROLL_PTR:7byte,回滚指针
回滚指针,指向这条记录的上一个版本(上一个版本存储于<b>rollback segment</b>里)
DELETED_BIT:1byte
记录被更新或删除并不代表真的删除,而是删除flag变了,相当于记录一次逻辑删除。
<b>Undo Log</b>
查询操作不会记录
分类
insert
只需要记录主键的id,回滚通过id进行删除
update
要把<b>修改这条记录前的旧值</b>都记录下来,在回滚的时候再把这条记录的值更新为旧值
delete
<ul><li>删除一条记录时,至少要把这条<b>记录中的全部内容</b>都记录下来,这样在之后回滚的时候再重新将这些内容组成的记录插入到表中就好了。</li><li><font color="#e74f4c" style="font-size: inherit;">删除操作都只是设置一下老记录的 DELETE_BIT,并不是真正将其删除</font></li><li><font style="font-size: inherit;" color="#e74f4c">为了节省磁盘空间,InnoDB有专门的 purge(清除)线程来清理 DELETED_BIT 为 true 的记录。</font><font color="#000000" style="font-size: inherit;">为了不影响MVCC的<b>正常工作purge线程自己也维护了一个 read view</b>(这个 read view相当于当前系统中最老活跃的事务的 read view)。</font><span style="font-size: inherit;">如果某个记录的DELETED_BIT 为 true,并且 DB_TRX_ID(最后一个操作的事务ID) 相对于 purge线程的 read view 可见,那么这条记录一定是可以被安全清除的</span></li></ul><font color="#000000" style="font-size: inherit;"></font>
<b>MVCC有实质上帮助的是 update undo log, Undo log 存储于 rollback segment 中的旧纪录链</b>
<b>Read View 读视图</b>
事务进行快照读操作的时候生成的读视图在<b>当前事务执行快照读的那一刻,会生成数据库系统当前的一个快照</b>,记录并维护系统当<b>前活跃事务的ID</b>(当每个事务开启时,都会被分配一个ID,这个ID是默认递增的,所以事务越新,ID越大)
<font color="#e74f4c">read View 主要是用来做可见性判断的</font>
读视图的可见性算法
<b>将被修改的数据的最新记录中的 DB_TRX_ID(当前事务ID)取出来,与系统当前其它活跃事务的ID去对比(由 Read View 维护)</b>,如果 DB_TRX_ID 跟 Read View 的属性做了某些比较之后不符合可见性,那就通过DB_ROLL_PRT回滚指针去取出 undo log 中的 DB_TRX_ID再比较,也就是说遍历 undo log 链表的 DB_TRX_ID 找到特定条件的事务ID的版本,那么这个 DB_TRX_ID 所在的旧记录就是当前事务能看见的最新老版本
全局属性
<font color="#b71c1c"><b>trx_list:</b></font>未提交事务 ID 列表,用来维护 Read View 生成时刻系统正处于活跃状态的事务ID。
<font color="#b71c1c"><b>up_limit_id</b></font>:记录 trx_list 事务ID列表中 最小的ID,也就是最初修改该记录的事务。
<font color="#b71c1c"><b>low_limit_id</b></font>:Read View 生成时刻系统尚未分配的下一个事务ID,也就是等于目前出现过的最大事务ID + 1。
对比流程
RR
RC
<b>RC,RR级别下快照读的区别</b>
<b>在RR 级别下的某个事务对某条记录的第一次快照读会创建一个快照以及Read View,记录当前系统中活跃的其它事务,此后在调用快照读的时候,还是用的同一个 Read View,所以只要当前事务在其它事务提交更新之前使用过快照读,那么之后的快照读使用的都是同一个Read View</b>,所以对之后的修改不可见。即 RR 级别下,快照读生成 Read View 时,Read View 会记录所有当前其它所有活跃事务的快照,这些食物的修改对于当前事务都是不可见的,而早于 Read View 创建的事务所作的修改均可见。
<b>在 RC 级别下,事务中,每次快照都都会生成一个新的 Read View 和最新快照</b>,这就是我们在 RC级别下的事务中可以看到别的事务提交更新的原因。
日志
错误日志
错误日志是 MySQL 中最重要的日志之一,它记录了当 mysqld 启动和停止时,以及服务器在运行过程中发生任何严重错误时的相关信息。当数据库出现任何故障导致无法正常使用时,可以首先查看此日志
查看日志位置指令
<font color="#ed9745"><b>show variables like 'log_error%';</b></font>
二进制日志 binlog
记录了所有的 DDL(数据定义语言)语句和 DML(数据操纵语言)语句,但是<b>不包括数据查询语句</b>此日志对于灾难时的数据恢复起着极其重要的作用,MySQL的主从复制, 就是通过该binlog实现的
开启binlog日志
<b>日志格式</b>
<b>STATEMENT</b>
该日志格式在日志文件中记录的都是<b>SQL语句(statement)(不包含select语句)</b>,<b>每一条对数据进行修改的SQL都会记录在日志文件中</b>,通过Mysql提供的<font color="#e74f4c">mysqlbinlog</font>工具,可以清晰的查看到每条语句的文本。主从复制的时候,从库(slave)会将日志解析为原文本,并在从库重新执行一次
<b>ROW</b>
该日志格式在日志文件中<b>记录的是每一行的数据变更,而不是记录SQL语句</b>。比如,执行SQL语句 : update tb_book set status='1' , 如果是`STATEMENT 日志格式,在日志中会记录一行SQL文件; 如果是ROW,由于是对全表进行更新,也就是每一行记录都会发生变更,ROW 格式的日志中会记录每一行的数据变更
<b>MIXED</b>
<b>MySQL默认的日志格式,即混合了STATEMENT 和 ROW两种格式</b>。<font color="#e74f4c">默认情况下采用STATEMENT</font>,但是在一些特殊情况下采用ROW来进行记录。MIXED 格式能尽量利用两种模式的优点,而避开他们的缺点
<b>日志读取</b>
由于日志以二进制方式存储,不能直接读取,需要用<b>mysqlbinlog工具</b>来查看
<font color="#ed9745">mysqlbinlog mysqlbing.000001;</font>
<b>日志删除</b>
对于比较繁忙的系统,由于每天生成日志量大 ,这些日志如果长时间不清楚,将会<b>占用大量的磁盘空间</b>
删除方式
通过 <font color="#ed9745">Reset Master </font>指令删除全部 binlog 日志,删除之后,日志编号,将从 xxxx.000001重新开始
<font color="#ed9745">purge master logs to 'mysqlbin.******' </font>该命令将删除 ``` ******``` 编号之前的所有日志。
<font color="#ed9745">purge master logs before 'yyyy-mm-dd hh24:mi:ss' </font>该命令将删除日志为 "yyyy-mm-dd hh24:mi:ss" 之前产生的所有日志 。<font color="#ed9745"> </font>
设置参数 <font color="#ed9745">--expire_logs_days=#, </font>此参数的含义是设置<b>日志的过期天数</b>, 过了指定的天数后日志将会被自动删除
查询日志
查询日志中记录了客户端的所有操作语句,而二进制日志不包含查询数据的SQL语句。
配置
查询日志文件
慢查询日志
慢查询日志记录了所有执行时间超过参数 `<font color="#ed9745">long_query_time</font>` 设置值并且扫描记录数不小于 <font color="#ed9745">min_examined_row_limit</font> 的所有的SQL语句的日志。<b>long_query_time 默认为 10 秒</b>,最小为 0, 精度可以到微秒
文件的位置和格式
<b> 慢日志默认是关闭的</b>
<b>如果查询没有走索引也可以记录 : <font color="#ed9745">show VARIABLES like '%log_queries_not_using_indexes%'</font></b>
<b>指定路径:</b><font color="#ed9745">set global log_output='FILE,TABLE'<br></font>show VARIABLES like 'log_output';ls<font color="#ed9745"><b> </b></font>
文件的读取
直接 cat 对应的日志文件
<b>mysqldumpslow工具</b>
Mysql优化
并发参数的调整
<font color="#ed9745"><b>max_connection</b></font>
MySQL数据库的最大连接数量,默认值是 151
Mysql 最大可支持的连接数,取决于很多因素,包括给定操作系统平台的线程库的质量、内存大小、每个连接的负荷、CPU的处理速度,期望的响应时间等。在Linux 平台下,性能好的服务器,支持 500-1000 个连接不是难事,需要根据服务器性能进行评估设定。
<font color="#ed9745"><b>back_log</b></font>
<b>MySQL监听TCP端口时设置的积压请求栈大小。</b>如果MySql的连接数达到 <font color="#ed9745">max_connections</font>时,<b>新来的请求将会被存在堆栈中</b>,以等待某一连接释放资源,该堆栈的数量即back_log,如果等待连接的数量超过back_log,将不被授予连接资源,将会报错。<b>5.6.6 版本之前默认值为 50 , 之后的版本默认为 50 + (max_connections / 5), 但最大不超过900(DD 3000)<br></b><font color="#e74f4c">如果需要数据库在较短的时间内处理大量连接请求, 可以考虑适当增大back_log 的值</font><b><br></b>
<font color="#ed9745"><b>table_open_cache</b></font>
用来控制所有SQL语句执行线程可打开表缓存的数量, 而在执行SQL语句时,每一个SQL执行线程至少要打开 1 个表缓存。该参数的值应该根据设置的最大连接数 max_connections 以及每个连接执行关联查询中涉及的表的最大数量来设定
<font color="#ed9745"><b>thread_cache_size</b></font><br>
为了加快连接数据库的速度,<b>MySQL 会缓存一定数量的客户服务线程以备重用,</b>可控制 MySQL 缓存客户服务线程的数量
<b><font color="#ed9745">innodb_lock_wait_timeout</font></b><br>
<b>设置InnoDB 事务等待行锁的时间,默认值是`50ms`</b> , 可以根据需要进行动态设置。对于需要快速反馈的业务系统来说,可以将行锁的等待时间调小,以避免事务长时间挂起; 对于后台运行的批量处理程序来说, 可以将行锁的等待时间调大, 以避免发生大的回滚操作
SQL规范
参考阿里SQL规范
数据类型选择
数值类型
<ul><li>如果整形数据没有负数,如ID号,建议指定为UNSIGNED无符号类型,容量可以扩大一倍。</li><li>建议使用TINYINT代替ENUM、BITENUM、SET。</li><li><b>避免使用整数的显示宽度</b>,不要用INT(10)类似的方法指定字段显示宽度,直接用INT。</li><li>DECIMAL最适合保存准确度要求高,而且用于计算的数据,比如价格。但是在使用DECIMAL类型的时候,注意长度设置。</li><li>建议使用整形类型来运算和存储实数,方法是,实数乘以相应的倍数后再操作。</li><li>整数通常是最佳的数据类型,因为它速度快,并且能使用AUTO_INCREMENT。</li></ul>
<font color="#314aa4"><b>INT显示宽度</b></font>
<font color="#ed9745">id` TINYINT(2) UNSIGNED ZEROFILL</font>
这里的长度并非是TINYINT类型存储的最大长度,而是显示的最大长度。可以使用 <font color="#e74f4c">ZEROFILL</font> 填充0
日期时间
<ul><li>建议用DATE数据类型来保存日期。MySQL中默认的日期格式是<b>yyyy-mm-dd</b></li><li>用MySQL的内建类型DATE、TIME、DATETIME来存储时间,而不是使用字符串。</li><li>当数据格式为TIMESTAMP和DATETIME时,可以用<font color="#e74f4c">CURRENT_TIMESTAMP作为默认</font>(MySQL5.6以后),MySQL会自动返回记录插入的确切时间。</li><li>TIMESTAMP是UTC时间戳,与时区相关。</li><li><b>DATETIME的存储格式是一个YYYYMMDD HH:MM:SS的整数,与时区无关</b>,你存了什么,读出来就是什么。</li></ul>
字符串
<ul><li>尽量少用BLOB和TEXT,如果实在要用可以考虑将BLOB和TEXT字段单独存一张表,用id关联。</li><li>BLOB系列存储二进制字符串,与字符集无关。TEXT系列存储非二进制字符串,与字符集相关。</li><li>BLOB和TEXT都不能有默认值。</li><li>字符串的长度相差较大用VARCHAR;字符串短,且所有值都接近一个长度用CHAR。</li></ul>
高性能表结构及索引设计最佳实践
内核查询优化规则详解
查询性能优化
Mysql 性能优化金字塔
以在进行优化时,首先需要关注和优化的应该是架构,如果架构不合理,即使是DBA能做的事情其实是也是比较有限的。<br>对于架构调优,在系统设计时首先需要充分考虑业务的实际情况,是否可以把不适合数据库做的事情放到数据仓库、搜索引擎或者缓存中去做;然后考虑写的并发量有多大,是否需要采用分布式;最后考虑读的压力是否很大,是否需要读写分离。对于核心应用或者金融类的应用,需要额外考虑数据安全因素,数据是否不允许丢失。<br><font color="#e74f4c"><b>作为金字塔的底部的架构调优,采用更适合业务场景的架构能最大程度地提升系统的扩展性和可用性</b></font>。在设计中进行垂直拆分能尽量解耦应用的依赖,对读压力比较大的业务进行读写分离能保证读性能线性扩展,而对于读写并发压力比较大的业务在MySQL上也有采用读写分离的大量案例。<br><b>在底层硬件系统、SQL语句和参数都基本定型的情况下,单个MySQL数据库能提供的性能、扩展性等就基本定型了。但是通过架构设计和优化,却能承载几倍、几十倍甚至百倍于单个MySQL数据库能力的业务请求能力。</b><br>对于MySQL调优,需要确认业务表结构设计是否合理,SQL语句优化是否足够,该添加的索引是否都添加了,是否可以剔除多余的索引等等。<br>最后确定系统、硬件有哪些地方需要优化,系统瓶颈在哪里,哪些系统参数需要调整优化,进程资源限制是否提到足够高;在硬件方面是否需要更换为具有更高I/O性能的存储硬件,是否需要升级内存、CPU、网络等。
<b>优化SQL查询方法论</b>
查询性能低下最基本的原因是访问的数据太多。大部分性能低下的查询都可以通过减少访问的数据量的方式进行优化。对于低效的查询,一般通过下面两个步骤来分析总是很有效:<br><ul><li><b>确认应用程序是否在检索大量超过需要的数据。这通常意味着访问了太多的行,但有时候也可能是访问了太多的列。</b></li><li><b>确认MySQL服务器层是否在分析大量超过需要的数据行。</b></li></ul>
<b>业务层-请求了不需要的数据</b>
查询不需要的记录
总是取出全部列 (select *)
重复查询相同的数据
<b>执行层-是否在扫描额外的记录</b>
在确定查询只返回需要的数据以后,接下来应该看看查询为了返回结果<b>是否扫描了过多的数据</b>。对于MySQL,最简单的衡量查询开销的三个指标如下:
响应时间
<ul><li>响应时间是两个部分之和:服务时间和排队时间。</li><li>服务时间是指数据库处理这个查询真正花了多长时间。</li><li>排队时间是指服务器因为等待某些资源而没有真正执行查询的时间—-可能是等I/O操作完成,也可能是等待行锁,等等</li></ul>
扫描的行数和返回的行数
典型: limit 10000.10
扫描的行数和访问类型<br>
<b>重构SQL查询的方法论</b>
一个复杂查询还是多个简单查询
切分查询
分解关联查询<br>
从MYSQL执行全流程考虑性能优化
为什么查询速度慢?
<ul><li>如果把查询看作是一个任务,那么它由一系列子任务组成,每个子任务都会消耗一定的时间。如果要优化查询,实际上要优化其子任务,要么消除其中一些子任务,要么减少子任务的执行次数,要么让子任务运行得更快。</li><li>在完成这些子任务的时候,查询需要在不同的地方花费时间,包括<b>网络,CPU计算,生成统计信息和执行计划、锁等待(互斥等待)等操作</b>,尤其是向底层存储引擎检索数据的调用操作,这些调用需要在内存操作,CPU操作和内存不足时导致的IO操作上消耗时间。根据存储引擎不同,可能还会产生大量的上下文切换以及系统调用</li><li>优化查询的目的就是减少和消除这些操作所花费的时间</li></ul>
MySQL客户端/服务器通信
生命周期中的查询优化处理
查询执行引擎
返回结果给客户端
查询执行的最后一个阶段是将结果返回给客户端。即使查询不需要返回结果集给客户端,MySQL仍然会返回这个查询的一些信息,如该查询影响到的行数。<br>如果查询可以被缓存,那么MySQL在这个阶段也会将结果存放到查询缓存中。<br><font color="#e74f4c"><b>MySQL将结果集返回客户端是一个增量、逐步返回的过程</b></font>。一旦服务器开始生成第一条结果时,MySQL就可以开始向客户端逐步返回结果集了。
这样处理有两个好处﹔<b>服务器端无须存储太多的结果,也就不会因为要返回太多结果而消耗太多内存</b>。另外,这样的处理也让 MySQL客户端第一时间获得返回的结果。结果集中的每一行都会以一个满足MySQL客户端/服务器通信协议的封包发送,再通过TCP协议进行传输,在TCP传输的过程中,可能对MySQL的封包进行缓存然后批量传输。
Mysql内核查询优化规则
Mysql内核查询成本计算
<b>为什么是成本?</b>
<b>I/O成本(1.0)</b>
我们的表经常使用的MyISAM、InnoDB存储引擎都是将数据和索引都存储到磁盘上的,当我们想<b>查询表中的记录时,需要先把数据或者索引加载到内存中然后再操作。这个从磁盘到内存这个加载的过程损耗的时间称之为I/O成本。</b>
<b>CPU成本(0.2)</b>
读取以及检测记录是否满足对应的搜索条件、对结果集进行排序等这些操作损耗的时间称之为CPU成本
对于InnoDB存储引擎来说,页是磁盘和内存之间交互的基本单位,MySQL规定读取一个页面花费的成本默认是1.0,读取以及检测一条记录是否符合搜索条件的成本默认是0.2。1.0、0.2这些数字称之为成本常数,这两个成本常数我们最常用到,当然还有其他的成本常数。(注意,不管读取记录时需不需要检测是否满足搜索条件,其成本都算是0.2)
<b>trace分析器查cost</b>
<b>单表查询成本</b>
在一条单表查询语句真正执行之前,MySQL的<b>查询优化器</b>会找出执行该语句所有可能使用的方案,对比之后找出成本最低的方案,这个成本最低的方案就是所谓的执行计划,之后才会调用存储引擎提供的接口真正的执行查询,这个过程总结一下就是这样:<br><ol><li>根据搜索条件,找出所有可能使用的索引</li><li>计算全表扫描的代价</li><li>计算使用不同索引执行查询的代价</li><li>对比各种执行方案的代价,找出成本最低的那一个</li></ol>
简单的算法
<font color="#e74f4c"><b>IO成本 = 所查询到数量集所占用的 page 数 * 1.0 + 1</b></font> 【1是mysql的固定调节参数】
<b style="color: rgb(231, 79, 76);">CPU成本 = 所查询到的数量集的行数 * 0.2 + 0.01 </b><font color="#000000">【0.01是mysql的固定调节参数】</font><br>
每次回表操作都相当于访问一个页面,<b>相当于1个IO成本</b>
in 查询有几个值说明有几个单点区间,<b>每一个单点区间 = 1个IO成本</b><br>
<b>EXPLAIN输出成本</b>
<b>语法:<font color="#ed9745">EXPLAIN FORMAT=JSON [sql 语句]</font></b>
示例
<b>连接查询的成本</b>
细节参考 Join 原理
<b>多表连接的成本分析</b><br>
<ul><li>只有 AB、BA这两种连接顺序。其实相当于2 × 1 = 2种连接顺序。</li><li>对于三表连接,比如表A、表B、表C进行连接有ABC、ACB、BAC、BCA、CAB、CBA这么6种连接顺序。其实相当于3 × 2 × 1 = 6种连接顺序。</li><li>对于四表连接的话,则会有4 × 3 × 2 × 1 = 24种连接顺序。</li><li><b>对于n表连接的话,则有 n × (n-1) × (n-2) × ··· × 1种连接顺序,就是n的阶乘种连接顺序,也就是n!。</b></li></ul>
阿里规约要求尽可能不要超过三个表
提前结束某种顺序的成本评估
<b>系统变量<font color="#ed9745">optimizer_search_depth</font></b><br>
为了防止无穷无尽的分析各种连接顺序的成本,MySQL提出了 系统变量,如果连接表的个数小于该值,那么就继续穷举分析每一种连接顺序的成本,否则只对与optimizer_search_depth值相同数量的表进行穷举分析。很显然,该值越大,成本分析的越精确,越容易得到好的执行计划,但是消耗的时间也就越长,否则得到不是很好的执行计划,但可以省掉很多分析连接成本的时间
根据某些规则压根儿就不考虑某些连接顺序
即使是有上边两条规则的限制,但是分析多个表不同连接顺序成本花费的时间还是会很长,所以MySQL干脆提出了一些所谓的启发式规则(就是根据以往经验指定的一些规则),凡是不满足这些规则的连接顺序压根儿就不分析,这样可以极大的减少需要分析的连接顺序的数量,但是也可能造成错失最优的执行计划。他们提供了一个系统变量<font color="#ed9745"><b>optimizer_prune_level</b></font>来控制到底是不是用这些启发式规则。
<b>调节成本常数</b>
成本常数保存在mysql系统表中
<b>mysql.server_cost</b>
SELECT * FROM mysql.server_cost
mysql 8.0
<b>mysql.engine_cost</b>
SELECT * FROM mysql.engine_cost;<br>
mysql 8.0
<font color="#e74f4c"><b>操作磁盘的成本特别高,所以我们在写SQL的时候需要尽可能的减少与磁盘操作</b></font><br> <b>排序、distinct、union(数量小会放在内存,数量大会在磁盘)</b>
InnoDB中的统计数据
<b>统计数据存储方式</b>
<ul><li><b>永久性的统计数据</b>,这种统计数据存储在磁盘上,也就是服务器重启之后这些统计数据还在。</li><li><b>非永久性的统计数据</b>,这种统计数据存储在内存中,当服务器关闭时这些这些统计数据就都被清除掉了,等到服务器重启之后,在某些适当的场景下才会重新收集这些统计数据。</li></ul>
<font color="#000000">创建表的时候添加 </font><br>CREATE TABLE 表名 (...) Engine=InnoDB, STATS_PERSISTENT = (1|0);<br><br><ul style=""><li style=""><font color="#ed9745" style="color: rgb(237, 151, 69); font-size: inherit;">STATS_PERSISTENT=0 </font><span style="font-size: inherit;"><font color="#000000">时,表明我们想把该表的统计数据临时的存储到内存中</font></span></li><li style=""><font color="#ed9745" style="color: rgb(237, 151, 69); font-size: inherit;">STATS_PERSISTENT=1</font><span style="font-size: inherit;"><font color="#ed9745"> </font><font color="#000000">时,表明我们想把该表的统计数据存储到磁盘</font></span></li></ul>
系统变量: <font color="#ed9745">innodb_stats_persistent</font>
<b>基于磁盘的永久性统计数据</b>
当我们选择把某个表以及该表索引的统计数据存放到磁盘上时,实际上是把这些统计数据存储到了两个表里:<b>表统计 & 索引统计<br><font color="#ed9745"><br></font></b><font color="#ed9745">SHOW TABLES FROM mysql LIKE 'innodb%';</font><br>
<b>表统计(innodb_table_stats)</b>
<b>索引统计(innodb_index_stats)</b><br>
<br>
<b>更新统计数据</b>
定期更新统计数据
开启<font color="#ed9745">innodb_stats_auto_recalc</font>
如果<b>发生变动的记录数量超过了表大小的10%</b>,并且自动重新计算统计数据的功能是打开的,那么服务器会重新进行一次统计数据的计算,并且更新innodb_table_stats和innodb_index_stats表
CREATE TABLE 表名 (...) Engine=InnoDB, STATS_AUTO_RECALC = (1|0);
<font color="#000000">手动调用ANALYZE TABLE语句来更新统计信息</font>
<font color="#ed9745">ANALYZE TABLE order_exp</font>
集群架构
集群架构的设计
架构设计理念
<ul><li><b>可用性 </b></li><li><b>扩展性 </b></li><li><b>一致性</b></li></ul>
可用性设计
保证高可用的方法是冗余。但是数据冗余带来的问题是数据一致性问题<br><ul><li>站点高可用,冗余站点 </li><li>服务高可用,冗余服务 </li><li>数据高可用,冗余数据</li></ul>
主从模式
写操作高可用需要自行处理
双主模式
互为主从,有双主双写、双主单写两种方式,建议使用双主单写
扩展性的设计
如何扩展以提高读性能
从库
从库过多会引发主库性能损耗。
分库分表
可以分为垂直拆分和水平拆分,垂直拆分可以缓解部分压力,水平拆分理论上可以无限扩展
如何扩展以提高写性能
分库分表
一致性的设计
一致性主要考虑集群中各数据库数据同步以及同步延迟问题
<ul><li><b>不使用从库:</b><font color="#000000" style=""> 扩展读性能问题需要单独考虑,否则容易出现系统瓶颈。</font></li><li><b>增加访问路由层 :</b> 可以先得到主从同步最长时间t,在数据发生修改后的t时间内,先访问主库。</li></ul>
主从架构
异步复制
存在问题
主库宕机后,数据可能丢失(可能数据还没有同步到从库)<br>
从库只有一个SQL Thread,主库写压力大,复制很可能延时
半同步复制(解决数据丢失问题)
<b>MySQL让Master在某一个时间点等待Slave节点的 ACK(Acknowledge character)消息,接收到ACK消息后才进行事务提交</b>
Mysql主从复制事务写入流程<br>
<b>5.5 after-commit 半同步复制</b><br>
主库等待从库写入 relay log 并返回 ACK 后才进行 Engine Commit
<b>5.7 after-sync 增强半同步</b>
并行复制(解决从库复制延迟问题)
在从库中有两个线程<b>IO Thread</b>和<b>SQL Thread</b>,都是<b>单线程模式</b>工作,因此有了延迟问题,我们可以<b>采用多线程机制来加强,减少从库复制延迟。(IO Thread多线程意义不大,主要指的是SQL Thread多线程)</b>
5.6 基于库
5.7 基于组提交
MySQL 5.7是通过对事务进行分组,当事务提交时,它们将在单个操作中写入到二进制日志中。如果多个事务能同时提交成功,那么它们意味着没有冲突,因此可以在Slave上并行执行,所以通过在主库上 的二进制日志中添加组提交信息<br>
<b><font color="#314aa4">如何知道事务是否在同一组中,生成的Binlog内容如何告诉Slave哪些事务是可以并行复制的?</font></b>
在MySQL 5.7版本中,其设计方式是将组提交的信息存放在<b>GTID</b>中。为了避免用户没有开启GTID功能 (gtid_mode=OFF),MySQL 5.7又引入了称之为<b>Anonymous_Gtid</b>的二进制日志event类型 <b>ANONYMOUS_GTID_LOG_EVENT<br><br></b>通过<b>mysqlbinlog</b>工具分析binlog日志,就可以发现组提交的内部信息。<b><br></b>
MySQL 5.7二进制日志较之原来的二进制日志内容多了<font color="#e74f4c">last_committed</font>和 <font color="#e74f4c">sequence_number</font>,<br>last_committed表示事务提交的时候,上次事务提交的编号,如果事务具有相同 的last_committed,表示这些事务都在一组内,可以进行并行的回放
8.0 基于write-set
并行复制配置与调优
读写分离
主从同步延迟问题
写后立刻读
二次查询
根据业务特殊处理
读写分离方案
基于编程和配置实现(应用端)
程序员在代码中封装数据库的操作,代码中可以根据操作类型进行路由分配,增删改时操作主库, 查询时操作从库
基于服务器端代理实现(服务器端)
<ul><li><b>MySQL Proxy:</b> 是官方提供的MySQL中间件产品可以实现负载平衡、读写分离等。 </li><li><b>MyCat: </b>MyCat是一款基于阿里开源产品Cobar而研发的,基于 Java 语言编写的开源数据库中间件。</li><li><b>ShardingSphere</b>: ShardingSphere是一套开源的分布式数据库中间件解决方案,它由ShardingJDBC、Sharding-Proxy和Sharding-Sidecar(计划中)这3款相互独立的产品组成。已经在2020 年4月16日从Apache孵化器毕业,成为Apache顶级项目。</li><li><b>Atlas:</b>Atlas是由 Qihoo 360公司Web平台部基础架构团队开发维护的一个数据库中间件。 (MySQL Proxy的封装)</li><li><b>Amoeba:</b>变形虫,该开源框架于2008年开始发布一款 Amoeba for MySQL软件。</li></ul>
双主模式
推荐使用双主单写
从主从模式演变为双主模式,建议用双主单写,再引入高可用组件<br><b><font color="#e74f4c">Keepalived</font>和<font color="#e74f4c">MMM</font>等工具,实现主库故障切换</b><br>
双主双写需要处理的问题
MMM(Master-Master Replication Manager for MySQL)架构
支持<font color="#b71c1c"><b>双主故障切换</b></font>,但是业务上同一时间只允许一 个节点进行写入操作
MMM故障处理机制
<ul><li>当 writer节点出现故障,程序会自动移除该节点上的VIP </li><li>写操作切换到 Master2,并将Master2设置为writer </li><li>将所有Slave节点会指向Master2</li></ul>
除了管理双主节点,<b>MMM 也会管理 Slave 节点</b>,在出现宕机、复制延迟或复制错误,MMM 会移 除该节点的 VIP,直到节点恢复正常
MMM监控机制
<ul><li><b>monitor:</b>监控集群内数据库的状态,在出现异常时发布切换命令,一般和数据库分开部署。</li><li><b>agent:</b>运行在每个 MySQL 服务器上的代理进程,monitor 命令的执行者,完成监控的探针 工作和具体服务设置,例如设置 VIP(虚拟IP)、指向新同步节点。</li></ul>
MHA(Master High Availability)架构
在MySQL故障切换过程中,MHA能做到在<b>30秒</b>之内自动完成数据库的故障切换操作,并且在进行故障切换的过程中,MHA能在最大程度上保证数据的一致性,以达到真正意义上的 高可用。MHA还支持在线快速将Master切换到其他主机,通常只需<b>0.5-2秒</b>
MHA由两部分组成:<b>MHA Manager(管理节点)</b>和<b>MHA Node(数据节点)</b>
<ul><li><b>MHA Manager</b>可以单独部署在一台独立的机器上管理多个master-slave集群,也可以部署在一台 slave节点上。负责检测master是否宕机、控制故障转移、检查MySQL复制状况等。</li><li><b>MHA Node</b>运行在每台MySQL服务器上,不管是Master角色,还是Slave角色,都称为Node,是被监控管理的对象节点,<b>负责保存和复制master的二进制日志、识别差异的中继日志事件并将其差异的事件应用于其他的slave、清除中继日志</b>。</li></ul>
MHA故障处理机制
<ul><li>把宕机master的binlog保存下来 </li><li>根据binlog位置点找到最新的slave </li><li>用最新slave的relay log修复其它slave </li><li>将保存下来的binlog在最新的slave上恢复</li><li>将最新的slave提升为master </li><li>将其它slave重新指向新提升的master,并开启主从复制</li></ul>
MHA 优点
<ul><li>自动故障转移快 </li><li>主库崩溃不存在数据一致性问题 (可能存在数据缺失)</li><li>性能优秀,支持半同步复制和异步复制 </li><li>一个Manager监控节点可以监控多个集群</li></ul>
主备切换
可靠性优先(主从切换完毕)
主备切换过程一般由专门的HA高可用组件完成,但是切换过程中会存在短时间不可用,因为在切 换过程中某一时刻主库A和从库B都处于只读状态
<ul><li>- 判断从库B的Seconds_Behind_Master值,当小于某个值才继续下一步</li><li>- 把主库A改为只读状态(readonly=true)</li><li>- 等待从库B的Seconds_Behind_Master值降为 0</li><li>- 把从库B改为可读写状态(readonly=false)</li><li>- 把业务请求切换至从库B</li></ul>
可用性优先(不等主从同步完毕)
不等主从同步完成, 直接把业务请求切换至从库B ,并且让从库B可读写 ,这样几乎不存在不可 用时间,但可能会数据不一致。
<ul><li>- 主库A执行完 INSERT c=4 ,得到 (4,4) ,然后开始执行 主从切换</li><li>- 主从之间有5S的同步延迟,从库B会先执行 INSERT c=5 ,得到 (4,5)</li><li>- 从库B执行主库A传过来的binlog日志 INSERT c=4 ,得到 (5,4)</li><li>- 主库A执行从库B传过来的binlog日志 INSERT c=5 ,得到 (5,5)</li><li>- 此时主库A和从库B会有 两行 不一致的数据</li></ul>
分库分表
拆分方式
垂直拆分
水平拆分
分片
在分布式存储系统中,数据需要分散存储在多台设备上,分片就是把数据库横向扩展到多个数据库服务 器上的一种有效的方式,其主要目的就是为**突破单节点数据库服务器的 I/O 能力限制,解决数据库扩展 性问题
分片策略
范围分片
根据特定字段的范围进行拆分,比如用户ID、订单时间、产品价格等。例如:{[1 - 100] => Cluster A, [101 - 199] => Cluster B}<br><br><ul><li>优点:新的数据可以落在新的存储节点上,如果集群扩容,数据无需迁移。 </li><li>缺点:数据热点分布不均,数据冷热不均匀,导致节点负荷不均。</li></ul>
哈希取模
<ul><li>优点:实现简单,数据分配比较均匀,不容易出现冷热不均,负荷不均的情况。</li><li>缺点:扩容时会产生大量的数据迁移,比如从n台设备扩容到n+1,绝大部分数据需要重新分配和 迁移。</li></ul>
一致性哈希
一致性Hash是将数据按照特征值映射到一个首尾相接的Hash环上,同时也将节点(按照IP地址或 者机器名Hash)映射到这个环上。对于数据,从数据在环上的位置开始,顺时针找到的第一个节 点即为数据的存储节点。Hash环示意图与数据的分布如下
<b>一致性Hash在增加或者删除节点的时候,受到影响的数据是比较有限的,只会影响到Hash环相邻的节 点,不会发生大规模的数据迁移。</b><br>
扩容
横向扩容需要考虑的问题
<ul><li>- 数据迁移问题 </li><li>- 分片规则改变 </li><li>- 数据同步、时间点、数据一致性</li></ul>
扩容方案
停机扩容
优缺点
<b>优点:</b>简单<br><b>缺点:</b><br><ul><li>停止服务,缺乏高可用 </li><li>程序员压力山大,需要在指定时间完成</li><li>如果有问题没有及时测试出来启动了服务,运行后发现问题,数据会丢失一部分,难以回滚。</li></ul>
应用场景
<ul><li> 小型网站 </li><li> 大部分游戏 </li><li> 对高可用要求不高的服务</li></ul>
平滑扩容
平滑扩容方案能够实现n库扩2n库的平滑扩容,增加数据库服务能力,降低单库一半的数据量。其核心 原理是:<b>成倍扩容,避免数据迁移</b>
扩容步骤
① 数据库扩容的过程中,如果想要持续对外提供服务,保证服务的可用性,平滑扩容方案是最好的选择。 平滑扩容就是将数据库数量扩容成原来的2倍,比如:由2个数据库扩容到4个数据库,具体步骤如下:<br><ul><li>新增2个数据库 </li><li>配置双主进行数据同步(先测试、后上线)</li></ul>
② 数据同步完成之后,配置双主双写(同步因为有延迟,如果时时刻刻都有写和更新操作,会存在不准确问题)
③ 数据同步完成后,删除双主同步,修改数据库配置,并重启;
④ 此时已经扩容完成,但此时的数据并没有减少,新增的数据库跟旧的数据库一样多的数据,此时还 需要写一个程序,清空数据库中多余的数据,如:<br><ul><li>User1去除 uid % 4 = 2的数据; </li><li>User3去除 uid % 4 = 0的数据; </li><li>User2去除 uid % 4 = 3的数据; </li><li>User4去除 uid % 4 = 1的数据;</li></ul>
优缺点
<b>优点:</b><br><ul><li> 扩容期间,服务正常进行,保证高可用 </li><li> 相对停机扩容,时间长,项目组压力没那么大,出错率低</li><li> 扩容期间遇到问题,随时解决,不怕影响线上服务 </li><li> 可以将每个数据库数据量减少一半</li></ul><br><b>缺点:</b><br><ul><li>程序复杂、配置双主同步、双主双写、检测数据同步等 </li><li>后期数据库扩容,比如成千上万,代价比较高</li></ul>
应用场景
<ul><li> 大型网站 </li><li> 对高可用要求高的服务</li></ul>
ShardingShpere
分库分表实例
遇到的问题
<ul><li><b>用户请求量太大:</b> 单服务器TPS、内存、IO都是有上限的,需要将请求打散分布到多个服务器。</li><li><b>单库数据量太大:</b> 单个数据库处理能力有限;单库所在服务器的磁盘空间有限;单库上的操作IO有瓶颈。</li><li><b>单表数据量太大</b>:查询、插入、更新操作都会变慢,在加字段、加索引、机器迁移都会产生高负载,影响服务。</li></ul>
<b>垂直拆分</b>
垂直分库
微服务架构时,业务切割得足够独立,数据也会按照业务切分,保证业务数据隔离,大大提升了数据库的吞吐能力
垂直分表
表中字段太多且包含大字段的时候,在查询时对数据库的IO、内存会受到影响,同时更新数据时,产生的binlog文件会很大,MySOL在主从同步时也会有延迟的风险。
<b>水平拆分</b>
<b>水平分表</b>
针对数据量巨大的单张表(比如订单表),按照规则把一张表的数据切分到多张表里面去。但是这些表还是在同一个库中,所以库级别的数据库操作还是有IO瓶颈
水平分表规则
RANGE
<ul><li> 时间:按照年、月、日去切分。例如order_2020, order_202005, order_20200501</li><li> 地域:按照省或市去切分。例如order_beijing, order_shanghai, order chengduا</li><li> 大小:从0到1000000一个表。例如1000001-2000000放一个表,每100万放一个表</li></ul>
HASH
用户ID取模
<b>水平分库</b>
将单张表的数据切分到多个服务器上去,每个服务器具有相应的库与表,只是表中数据集合不同。水平分库分表能够有效的缓解单机和单库的性能瓶颈和压力,突破IO、连接数、硬件资源等的瓶颈
水平分库规则<br>
<b>不跨库、不跨表,保证同一类的数据都在同一个服务器上面</b>。数据在切分之前,需要考虑如何高效的进行数据获取,如果每次查询都要跨越多个节点,就需要谨慎使
拆分案例
站内信
用户维度:用户只能看到发送给自己的消息,其他用户是不可见的,这种情况下是按照<b>用户ID hash分库</b>,在用户查看历史记录翻页查询时,所有的查询请求都在同一个库内<br>
用户表
<ul><li>范围法:以用户ID为划分依据,将数据水平切分到两个数据库实例。如:1到1000W在一张表,1000W到2000W在一张表,这种情况会出现单表的负载较高</li><li>按照用户ID: HASH尽量保证用户数据均衡分到数据库中</li></ul>
流水表
时间维度:可以根据每天新增的流水来判断,选择按照年份分库,还是按照月份分库,甚至也可以按照日期分库
简介
ShardingSphere定位为关系型数据库中间件,旨在充分合理地在分布式的场景下利用关系型数据库的 计算和存储能力,而并非实现一个全新的关系型数据库。
<ul><li><span style="font-size: inherit;"><b>Sharding-JDBC:</b>被定位为轻量级Java框架,在Java的JDBC层提供的额外服务,以<b>`jar包`</b>形式使用。</span></li><li><span style="font-size: inherit;"><b>Sharding-Proxy:</b>被定位为透明化的<b>`数据库代理端`</b>,提供封装了数据库二进制协议的服务端版本,用于完成对异构语言的支持。</span></li><li><span style="font-size: inherit;"><b>Sharding-Sidecar:</b>被定位为Kubernetes或Mesos的<b>`云原生数据库代理`</b>,以DaemonSet的形式代理所有对数据库的访问。</span></li></ul>
三者区别
数据分配剖析
核心概念
术语
<b>真实表: </b>数据库中真实存在的物理表。例如b_order0、b_order1<br>
<b>逻辑表:</b> 在分片之后,同一类表结构的名称(总称)。例如b_order
<b>数据节点: </b>在分片之后,由数据源和数据表组成。例如ds0.b_order1
<b>绑定表</b>
指的是分片规则一致的关系表(主表、子表),例如b_order和b_order_item,均按照 order_id分片,则此两个表互为绑定表关系。绑定表之间的`<b>多表关联查询不会出现笛卡尔积关联</b>`,可以提升关联查询效率
<b>广播表</b>
在使用中,有些表没必要做分片,例如字典表、省份信息等,因为他们数据量不大,而且这种表可能需要与海量数据的表进行关联查询。广播表会在不同的数据节点上进行存储,存储 的表结构和数据完全相同
分片算法
<b>精确分片算法PreciseShardingAlgorithm:</b> 用于处理使用单一键作为分片键的=与IN进行分片的场景。
<b>范围分片算法RangeShardingAlgorithm:</b> 用于处理使用单一键作为分片键的BETWEEN AND、>、<、>=、<=进行分片的场景
<b>复合分片算法ComplexKeysShardingAlgorithm</b>:用于处理使用多键作为分片键进行分片的场景,多个分片键的逻辑较复杂,需要应用开发者 自行处理其中的复杂度。
<b>Hint分片算法HintShardingAlgorithm:</b> 用于处理使用Hint行分片的场景。对于分片字段非SQL决定,而由其他外置条件决定的场景,可使用SQL Hint灵活的注入分片字段。例:内部系统,按照员工登录主键分库,而数据 库中并无此字段。SQL Hint支持通过Java API和SQL注释两种方式使用。
分片策略
<font color="#e74f4c">分片策略包含分片键和分片算法</font>,真正可用于分片操作的是分片键 + 分片算法,也就是分片策略
<b>标准分片策略StandardShardingStrategy</b><br>
只支持`单分片键`,提供对SQL语句中的=, >, <, >=, <=, IN和BETWEEN AND的分片操作支持。 提供`<b>PreciseShardingAlgorithm</b>`和`<b>RangeShardingAlgorithm</b>`两个分片算法
<b>复合分片策略ComplexShardingStrategy</b>
支持<b>多分片键</b>。提供对SQL语句中的=, >, <, >=, <=, IN和BETWEEN AND的分片操作支持。由 于多分片键之间的关系复杂,因此并未进行过多的封装,而是直接将分片键值组合以及分片操作符透传至分片算法,完全由应用开发者实现,提供最大的灵活度
<b>行表达式分片策略InlineShardingStrategy</b>
只支持单分片键。使用Groovy的表达式,提供对SQL语句中的=和IN的分片操作支持,对于 简单的分片算法,可以通过简单的配置使用,从而避免繁琐的Java代码开发。如: t_user_$-> {u_id % 8} 表示t_user表根据u_id模8,而分成8张表,表名称为t_user_0到t_user_7
<b>Hint分片策略HintShardingStrategy</b>
通过Hint指定分片值而非从SQL中提取分片值的方式进行分片的策略
<b>不分片策略NoneShardingStrategy</b>
分片策略配置
<ul><li><b>数据源分片策略</b>: 用于配置数据被分配的目标数据源</li><li><b>表分片策略</b>: 用于配置数据被分配的目标表,由于表存在与数据源内,所以表分片策略是依赖数据源分片 策略结果的。</li></ul>
流程剖析
SQL使用规范
Inline 行表达式
分布式主键
内置主键生成器
<ul><li><b>UUID </b>: 采用UUID.randomUUID()的方式产生分布式主键。 </li><li><b>SNOWFLAKE </b>: 在分片规则配置模块可配置每个表的主键生成策略,默认使用雪花算法,生成64bit的长整型数据。</li></ul>
自定义主键生成器
Sharding-JDBC
简介
Sharding-JDBC定位为轻量级Java框架,在Java的JDBC层提供的额外服务。 它<b>使用客户端直连数据库, 以jar包形式提供服务</b>,无需额外部署和依赖,可理解为<b>增强版的JDBC驱动</b>,完全兼容JDBC和各种ORM 框架的使用。<br><br><ul><li>适用于任何基于Java的ORM框架,如:JPA, Hibernate, Mybatis, Spring JDBC Template或直接使 用JDBC。</li><li>基于任何第三方的数据库连接池,如:DBCP, C3P0, BoneCP, Druid, HikariCP等。 </li><li>支持任意实现JDBC规范的数据库。目前支持MySQL,Oracle,SQLServer和PostgreSQL。</li></ul>
主要功能
数据分片
<ul><li>分库、分表 </li><li>读写分离 </li><li>分片策略 </li><li>分布式主键</li></ul>
分布式事务
<ul><li>标准化的事务接口 </li><li>XA强一致性事务 </li><li>柔性事务(Sega、Seata)</li></ul>
数据库治理
<ul><li>配置动态化 </li><li>编排和治理 </li><li>数据脱敏 </li><li>可视化链路追踪</li></ul>
内部结构
做的事情就是<font color="#e74f4c"><b>根据我们的配置生成规则,在将规则和数据源进行耦合</b></font>
启动流程
<ul><li>根据配置的信息生成Configuration对象 </li><li>通过Factory会将Configuration对象转化为Rule对象 </li><li>通过Factory会将Rule对象与DataSource对象封装 </li><li>Sharding-JDBC使用DataSource进行分库分表和读写分离操作</li></ul>
使用过程
案例配置
垂直分表
广播表
分库分表
读写分离剖析
应用方案
<b> 分表 + 读写分离</b>
<b>分库分表 + 读写分离</b>
配置
强制路由剖析
数据脱敏
数据脱敏整体流程
<ul><li>ShardingSphere提供的Encrypt-JDBC和业务代码部署在一起。业务方需面向<b>Encrypt-JDBC</b>进行JDBC编程</li><li>Encrypt-JDBC将用户发起的SQL进行拦截,并通过SQL语法解析器进行解析、理解SQL行为,再依据用户传入的脱敏规则,找出需要脱敏的字段和所使用的加解密器对目标字段进行加解密处理后,再与底层数据库进行交互。</li></ul>
脱敏规则
<ul><li><b>数据源配置:</b>指DataSource的配置信息</li><li><b>加密器配置:</b>指使用什么加密策略进行加解密。目前ShardingSphere内置了两种加解密策略: AES/MD5</li><li><b>脱敏表配置:</b>指定哪个列用于存储密文数据(cipherColumn)、哪个列用于存储明文数据 (plainColumn)以及用户想使用哪个列进行SQL编写(logicColumn)</li><li><b>查询属性的配置:</b>当底层数据库表里同时存储了明文数据、密文数据后,该属性开关用于决定是直 接查询数据库表里的明文数据进行返回,还是查询密文数据通过Encrypt-JDBC解密后返回。</li></ul>
脱敏处理流程
加密策略解析
Sharding-Proxy
可以理解为全局的 Sharding JDBC,Sharding JDBC只针对于某一个应用服务
分布式事务
CAP
BASE
2PC
3PC
TCC
XA
Saga(反向SQL)
Seata
工具
Canal
DataX
ELK
问题
大厂为什么用RC替换RR?
之前为什么使用RR?
RR RC区别
<br>
唯一约束和唯一索引
count效率
<b>count(*) = count(1) > count(辅助索引字段) > count(id)<font color="#e74f4c"> [前四个差不太多]</font> > count(非索引字段)</b>
count(*) 被MySQL查询优化器改写成了count(0)
count(*) 会优先选择辅助索引,假如没有辅助索引的存在,就会走主键索引。
0 条评论
下一页