分布式事务一

分布式事务一

2020-06-24 22:29:20发布 浏览数:942
概述:分布式事务一

文章目录

一.基础概念1.1 什么是分布式事务1.2 分布式事务产生的场景二.分布式事务基础理论2.1 CAP理论2.1.1 分布式事务CAP2.1.2 CAP组合方式2.1.3 总结2.2 BASE理论三.分布式事务解决方案之2PC(两阶段提交)3.1 什么是2PC3.2 解决方案3.2.1 XA方案3.2.2 Seata方案3.3 Seata实现2PC事务3.3.1 业务说明3.3.2 程序组成3.3.3 创建数据库3.3.4 启动TC(事务协调器)3.3.5 工程代码3.3.6 配置seata3.3.7 Seata执行流程3.4 小结


黑马-分布式事务篇事务控制解决方案手敲笔记一.基础概念

1.1 什么是分布式事务

随着互联网的发展,软件系统也从原来的单体应用变为分布式应用。分布式系统把一个应用系统拆分为多个独立部署的服务,每个服务都对应自己的数据库,每个服务之间通过远程协作完成业务操作,这种分布式系统环境下由不同服务之间通过网络远程协作完成事务称为分布式事务


例如:用户订单减库存,银行转账等都是分布式事务的体现。

本地事务:

begin transaction
    //本地数据库操作 :张三减少金额
    //本地数据库操作 :李四增加金额
commit transaction
1234

分布式事务环境下,操作变为下面这样:

begin transaction
    //本地数据库操作 :张三减少金额
    //远程调用 :李四增加金额
commit transaction
1234

当远程调用让李四增加金额成功后,但是由于网络原因超时没有返回,此时本地事务提交失败就回滚了张三减少金额的操作,此时金额就出现了不一致。

因此在分布式架构的基础上,传统数据库事务就无法使用,张三和李四的账户不在同一个数据库甚至不在同一个应用系统里,实现转账事务需要通过远程调用,由于网络原因就会导致分布式事务问题

1.2 分布式事务产生的场景

微服务架构

微服务之间通过远程调用完成事务操作

比如:订单微服务和库存微服务,下单的同时订单微服务请求库存微服务减库存。

简言之:跨JVM进程产生分布式事务

单体系统访问多个数据库实例

当单体系统需要访问多个数据库时就会产生分布式事务

比如:用户信息和订单信息分别在两个MySQL实例存储,用户管理系统删除用户信息,需要分别删除用户信息以及用户的订单信息,由于数据分布在不同的数据实例,需要通过不同的数据库连接去操作数据,此时产生分布式事务。

简言之:跨数据库实例产生分布式事务

多服务访问同一个数据库实例

比如:订单服务费和库存微服务即使访问同一个数据库也会产生分布式事务,原因就是跨JVM进程,两个微服务持有了不同的数据库链接进行数据库操作,此时产生分布式事务。

二.分布式事务基础理论

2.1 CAP理论
2.1.1 分布式事务CAP

CAP: Consistency Availability Partition tolerance三个词语的缩写,分别表示一致性,可用性,分区容错性(容忍性)

下面我们结合电商系统的场景来理解CAP:

整体流程:

1.商品服务请求主数据库写入商品信息

2.主数据库向商品服务响应写入成功

3.商品服务请求从数据库读取数据

C-Consistency

一致性是指写操作后的读操作可以读取到最新的数据状态,当数据分布在多个节点上,从任意节点读取到的数据都是最新的状态。

上图中,商品信息的读写要满足一致性就是要实现如下目标:

1.商品服务写入主数据库成功,则向从数据库查询新数据也成功。

2.商品服务写入主数据库失败,则向从数据库查询新数据也失败。

如何实现一致性?

1.写入主数据库后要将数据同步到从数据库

2.写入主数据库后,在向从数据库同步期间要将从数据库锁定,待同步完成在释放锁,以免在新数据写入成功后,向从数据库查询到旧数据。

分布式系统一致性的特点:

1.由于存在数据同步的过程,写操作的响应有一定的延迟。

2.为了保证数据一致性会对资源暂时锁定,待数据同步完成释放资源。

3.如果请求数据同步失败的节点则会返回错误信息,一定不会返回旧数据。

A-Availability

可用性是指任何事务操作都可以得到响应结果,且不会出现响应超时或响应错误。

上图中,商品信息读取满足可用性就是要实现如下目标:

1.从数据库接收到数据查询的请求则立即能够响应数据查询结果

2.从数据库不允许出现响应超时或响应错误。

如何实现可用性?

1.写入主数据库后要将数据同步到从数据库

2.由于要保证从数据库的可用性,不可将从数据库中的资源进行锁定

3.即使数据还没有同步过来,从数据库也要返回要查询的数据,哪怕是旧数据,如果连旧数据也没有则可以按照约定返回一个默认信息,但不能返回错误或响应超时。

分布式系统可用性的特点:

1.所有请求都有响应,且不会出现响应超时或响应错误

P-Partition tolerance

通常分布式系统的每个节点部署在不同的子网,这就是网络分区,不可避免的会出现由于网络问题而导致结点之间通信失败,此时仍可对外提供服务,这叫分区容错性。

上图中,商品信息读写满足分区容错性就是要实现如下目标:

1.主数据库向从数据库同步数据失败不影响读写操作。

2.其中一个节点挂点不影响另外一个节点对外提供服务

如何实现分区容错性?

1.尽量使用异步取代同步操作,例如使用异步方式将数据从主数据库同步到从数据,这样节点之间能有效的实现松耦合。

2.添加从数据库节点,其中一个节点挂了,其他节点还能提供服务。

分布式分区容错性的特点:

1.分区容错性是分布式系统具备的基本能力

2.1.2 CAP组合方式

在所有分布式事务场景中不会同时具备CAP三个特性,因为在具备了P的前提下C和A是不能共存的。

所以在生产中对分布式事务处理时要根据需求确定满足CAP的哪两个方面。

AP:

放弃一致性,追求分区容错性和可用性,这是很多分布式系统设计时的选择。

例如:

上面的商品管理,完成可以实现AP,前提是用户可以接收查询到的数据在一定时间内不是最新的即可

通常实现AP都会保证最终一致性,比如:订单退款,今天退款成功,明日账户到账,只要用户可以接收在一定时间内到账即可。

CP:

放弃可用性,追求一致性和分区容错性,zookeeper就是追求强一致,比如:跨行转账,一次转账请求要等待双方银行系统都完成整个事务才算完成。

CA:

放弃分区容错性,即不进行分区,不考虑由于网络不通或节点挂掉的问题,则可以现实一致性和可用性。那么系统就不是一个标准的分布式系统。我们常用的关系型数据就满足了CA。比如:单体应用,通过本地事务隔离级别实现每个查询请求都是最新的数据。

2.1.3 总结

通过上面我们学习了CAP理论的相关知识,CAP是一个已经被证实的理论:一个分布式系统最多只能同时满足一致性,可用性和分区容错性三项中的两项。它可以作为我们进行架构设计,技术选型的考量标准,对于大多数互联网应用的场景,节点多,部署分散,而且集群规模越来越大,所以节点故障,网络故障是常态,而且要保证服务可用性达到N个9(99.99…%),并要达到良好的响应性能来提高用户体验,因此一般都会做出如下选择:保证P和A,舍弃C强一致,保证最终一致性。

2.2 BASE理论

BASE是Basically Available(基本可用) ,Soft state(软状态)和Eventually consistent(最终一致性)三个短语的缩写。BASE理论是对CAP中AP的一个扩展,通过牺牲强一致性来获得可用性,当出现故障允许部分不可用但要保证核心功能可用,允许数据在一段时间内是不一致的,但最终达到一致状态。满足BASE理论的事务,我们称为“柔性事务”


基本可用:分布式系统在出现故障时,允许损失部分可用功能,保证核心功能可用。如:电商网站交易付款出现问题,商品依然可用正常浏览。 软状态:由于不要求强一致性,所以BASE允许系统中存在中间状态(也叫软状态),这个状态不影响系统可用性,如订单的“支付中”,“数据同步中”等状态,待数据最终一致后状态改为“成功”状态 最终一致性:最终一致是指经过一段时间后,所有节点数据都将会达到一致。如订单的“支付中”状态,最终会变为"支付成功"或者"支付失败",使订单状态和实际交易达成一致,但需要一定实际的延迟、等待。

三.分布式事务解决方案之2PC(两阶段提交)

3.1 什么是2PC

2PC即两阶段提交协议,是将整个事务流程分为两个阶段,准备阶段(Prepare phase)和提交阶段(commit phase),2是指两个阶段,P是指准备阶段,C是指提交阶段。

比如:张三和李四老友聚餐,饭店老板要求先买单,才能出单。这时张三和李四分别抱怨近况不如意,都不愿意请客,只能AA。只有张三和李四都付款,老板才能出票安排就餐。但由于张三和李四都是铁公鸡,形成尴尬一幕。

准备阶段:老板要求张三付款,张三付款。老板要求李四付款,李四付款。

提交阶段:老师出票,两人拿票落座就餐。

例子中形成了一个事务,若张三或李四其中一个人拒绝付款,或钱不够,店老板都不会出票,并且会把已收款退回。

整个事务过程由事务管理器和参与者组成,店老板就是事务管理器,张三和李四就是事务参与者,事务管理器负责决策整个分布式事务的提交和回滚,事务参与者负责自己本地事务的提交或回滚。

在计算机中部分关系型数据库如Mysql,Oracle支持两阶段提交协议:

1.准备阶段:事务管理器给每个参与者发送Prepare消息,每个数据库参与者在本地执行事务,并写本地的Undo和Redo日志,此时事务没有提交。

(Undo日志记录修改前的数据,用于数据库回滚,Redo日志是记录修改后的数据,用于提交事务后写入数据文件)

2.提交阶段:如果事务管理器收到了参与者的执行失败或超时消息,直接给每个参与者发送回滚(Rollback)消息;否则,发送提交(Commit);参与者根据事务管理器的指令执行提交或者回滚操作,并释放事务处理过程中使用的锁资源。注意:必须在最后阶段释放锁资源。

下图展示了2PC的两个阶段,分成功和失败两个情况说明:

成功:


失败:

3.2 解决方案
3.2.1 XA方案

2PC的传统方案是在数据库层面实现的,如Oracle,MySql都支持2PC协议,为了统一标准减少行业内不必要的对接成本,需要定制标准化的处理模型以及接口标准,国际开放标准组织Open Group定义了分布式事务处理模型DTP

为了让大家更明确XA方案的内容,下面使用新用户注册送积分为例:

执行流程如下:

  1. 应用程序(AP)持有用户库和积分库两个数据源
  2. 应用程序(AP)通过TM通知用户库RM新增用户,同时通知积分库RM为改用户新增积分,RM此时并未提交事务,此时用户和积分资源锁定。
  3. TM收到执行回复,只要有一方失败则分别向其他RM发起回滚事务,回滚完毕,资源锁释放。
  4. TM收到执行回复,全部成功,此时向所有RM发起提交事务,提交完毕,资源锁释放。

DTP模型定义如下角色:

AP:即应用程序,可用理解为使用DTP分布式事务的程序 RM:资源管理器,可用理解为事务的参与者,一般情况下是指一个数据库实例,通过资源管理器对该数据库进行控制,资源管理器控制着分支事务。 TM:事务管理器,负责协调和管理事务,事务管理器控制这全局事务,管理事务生命周期,并协调各个RM。全局事务是指分布式事务处理环境中,需要操作多个数据库共同完成一个工作,这个工作即是一个全局事务。 DTP模型定义TM和RM之间通讯的接口规范为XA,简单理解为数据库提供的2PC接口协议,基于数据库的XA协议来实现2PC又称为XA方案。 以上三个角色之间的交互方式如下: TM向AP提供应用程序编程接口,AP通过TM提交及回滚事务。 TM交易中间件通过XA协议来通知RM数据库事务的开始,结束以及提交,回滚等。

总结:

整个2PC的事务流程涉及到三个角色AP,RM,TM。AP指的是使用2PC分布式事务的应用程序;RM指的是资源管理器,控制分支事务;TM指的是事务管理器,控制全局事务。


在准备阶段RM执行实际的业务操作,但不提交事务,资源锁定 在提交阶段TM会接收RM在准备阶段的执行回复,只要又任一个RM执行失败,TM会通知所有RM执行回滚操作,否则,TM会通知所有RM提交该事务。提交阶段结束资源锁释放。

XA方案的问题:


需要本地数据库支持XA协议。 资源锁需要等到两个阶段结束才能释放,性能较差。

3.2.2 Seata方案

Seata是由阿里中间件团队发起的开源项目 Fescar,后更名为Seata,它是一个是开源的分布式事务框架。 传统2PC的问题在Seata中得到了解决,它通过对本地关系数据库的分支事务的协调来驱动完成全局事务,是工作 在应用层的中间件。主要优点是性能较好,且不长时间占用连接资源,它以高效并且对业务0侵入的方式解决微服 务场景下面临的分布式事务问题,它提供AT模式(即2PC),TCC,SAGA 和 XA 模式的分布式事务解决方案。

Seata的设计思想如下:

Seata的设计目标其一是对业务无侵入,因此从业务无侵入的2PC方案着手,在传统2PC的基础上演进,并解决 2PC方案面临的问题(性能差)。

Seata把一个分布式事务理解成一个包含了若干分支事务的全局事务。全局事务的职责是协调其下管辖的分支事务 达成一致,要么一起成功提交,要么一起失败回滚。此外,通常分支事务本身就是一个关系数据库的本地事务,下 图是全局事务与分支事务的关系图:

与 传统2PC 的模型类似,Seata定义了3个组件来协议分布式事务的处理过程:

Transaction Coordinator(TC):事务协调器,它是独立的中间件,需要独立部署运行,它维护了全局事务的运行状态,接收TM指令发起全局事务的提交或回滚,负责与RM通信协调各个分支事务的提交或回滚。 Transaction Manager(TM):事务管理器,TM需要嵌入到应用程序中工作,它负责开启一个全局事务,并最终向TC发起全局提交或回滚。 Resource Manager(RM):控制分支事务,分支分支注册,分支汇报,并接收事务协调器TC的指令,驱动分支事务进行提交或回滚。

还拿新用户注册送积分举例Seata的分布式事务过程:

具体流程如下:

  1. 用户服务的TM向TC申请开启一个全局事务,全局事务创建成功后生成一个全局唯一的XID;(开始执行逻辑处理) 用户服务的RM向TC注册分支事务,该分支事务在用户服务执行新增用户逻辑,并将其纳入XID对应全局事务的管辖 用户服务执行分支事务,向用户表插入一条数据 逻辑执行到远程调用积分服务时(XID在微服务调用链路的上下文中传播)。积分服务的RM向TC注册分支事务,该分支事务执行增加积分的逻辑,并将其纳入对应全局事务的管辖 积分服务执行分支事务,向积分表插入一条数据,执行完毕,返回用户服务 用户服务分支事务执行完毕 TM向TC发起准对XID的全局提交或回滚协议 TC调度XID下管辖的全部分支事务完成提交或回滚请求

Seata实现2PC与传统2PC的差别

架构层次方面:传统2PC方案的RM实际上是在数据库层,RM本质上就是数据库本身,通过XA协议实现,而Seata的RM是以jar包的形式作为中间件层部署在应用程序这一侧。

两阶段提交方面:传统2PC无论第二阶段的决议是提交还是回滚,事务性资源的锁都要保持到二阶段提交完了后才释放,而Seata在第一阶段就将本地事务提交了,这样省去了二阶段持有锁的实际,整体提高效率。

3.3 Seata实现2PC事务
3.3.1 业务说明

本示例通过Seata中间件实现分布式事务,模拟两个账户的转账交易过程

两个账户在两个不同的银行(张三在bank1、李四在bank2),bank1和bank2是两个微服务。交易过程是,张三 给李四转账指定金额

上述交易步骤,要么一起成功,要么一起失败,必须是一个整体性的事务。

3.3.2 程序组成

数据库:mysql 5.7

包含bank1和bank2两个数据库

JDK 1.8

spring-boot-2.1.3、spring-cloud-Greenwich.RELEASE

Seata客户端(RM、TM):spring-cloud-alibaba-seata-2.1.0.RELEASE

Seata服务端(TC):seata-server-0.7.1

微服务及数据库的关系 :

dtx/dtx-seata-demo/seata-demo-bank1 银行1,操作张三账户, 连接数据库bank1

dtx/dtx-seata-demo/seata-demo-bank2 银行2,操作李四账户,连接数据库bank2

服务注册中心:dtx/discover-server Eureka

3.3.3 创建数据库
USE `bank1`;

DROP TABLE IF EXISTS `account_info`;

CREATE TABLE `account_info` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `account_name` varchar(100) COLLATE utf8_bin DEFAULT NULL COMMENT '户主姓名',
  `account_no` varchar(100) COLLATE utf8_bin DEFAULT NULL COMMENT '银行卡号',
  `account_password` varchar(100) COLLATE utf8_bin DEFAULT NULL COMMENT '帐户密码',
  `account_balance` double DEFAULT NULL COMMENT '帐户余额',
  PRIMARY KEY (`id`) USING BTREE
) ENGINE=InnoDB AUTO_INCREMENT=3 DEFAULT CHARSET=utf8 COLLATE=utf8_bin ROW_FORMAT=DYNAMIC;

insert  into `account_info`(`id`,`account_name`,`account_no`,`account_password`,`account_balance`) values (2,'张三','1',NULL,1000);

DROP TABLE IF EXISTS `undo_log`;

CREATE TABLE `undo_log` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `branch_id` bigint(20) NOT NULL,
  `xid` varchar(100) NOT NULL,
  `context` varchar(128) NOT NULL,
  `rollback_info` longblob NOT NULL,
  `log_status` int(11) NOT NULL,
  `log_created` datetime NOT NULL,
  `log_modified` datetime NOT NULL,
  `ext` varchar(100) DEFAULT NULL,
  PRIMARY KEY (`id`),
  UNIQUE KEY `ux_undo_log` (`xid`,`branch_id`)
) ENGINE=InnoDB AUTO_INCREMENT=167 DEFAULT CHARSET=utf8;
123456789101112131415161718192021222324252627282930
USE `bank2`;

DROP TABLE IF EXISTS `account_info`;

CREATE TABLE `account_info` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `account_name` varchar(100) COLLATE utf8_bin DEFAULT NULL COMMENT '户主姓名',
  `account_no` varchar(100) COLLATE utf8_bin DEFAULT NULL COMMENT '银行卡号',
  `account_password` varchar(100) COLLATE utf8_bin DEFAULT NULL COMMENT '帐户密码',
  `account_balance` double DEFAULT NULL COMMENT '帐户余额',
  PRIMARY KEY (`id`) USING BTREE
) ENGINE=InnoDB AUTO_INCREMENT=4 DEFAULT CHARSET=utf8 COLLATE=utf8_bin ROW_FORMAT=DYNAMIC;

insert  into `account_info`(`id`,`account_name`,`account_no`,`account_password`,`account_balance`) values (3,'李四的账户','2',NULL,0);

DROP TABLE IF EXISTS `undo_log`;

CREATE TABLE `undo_log` (
  `id` bigint(20) NOT NULL AUTO_INCREMENT,
  `branch_id` bigint(20) NOT NULL,
  `xid` varchar(100) NOT NULL,
  `context` varchar(128) NOT NULL,
  `rollback_info` longblob NOT NULL,
  `log_status` int(11) NOT NULL,
  `log_created` datetime NOT NULL,
  `log_modified` datetime NOT NULL,
  `ext` varchar(100) DEFAULT NULL,
  PRIMARY KEY (`id`),
  UNIQUE KEY `ux_undo_log` (`xid`,`branch_id`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
123456789101112131415161718192021222324252627282930
3.3.4 启动TC(事务协调器)

下载Seata服务器

官网:seata.io

下载地址:https://github.com/seata/seata/releases/download/v0.7.1/seata-server-0.7.1.zip (版本有点低,后续会自行研究高版本)

解压启动

[seata服务端解压路径]/bin/seata-server.bat -p 8888 -m file 注:其中8888为服务端口号;file为启动模式,这里指seata服务将采用文件的方式存储信息。出现“Server started…”的字样则表示启动成功。

3.3.5 工程代码

dtx-seata-demo

可以根据我写好的demo创建相应的父工程,bank1,bank2

3.3.6 配置seata

在src/main/resource中,新增registry.conf、file.conf文件,内容可拷贝seata-server-0.7.1中的配置文件子。

## registry.type使用file

registry {
  # file 、nacos 、eureka、redis、zk、consul、etcd3、sofa
  type = "file"

  nacos {
    serverAddr = "localhost"
    namespace = "public"
    cluster = "default"
  }
  eureka {
    serviceUrl = "http://localhost:1001/eureka"
    application = "default"
    weight = "1"
  }
  redis {
    serverAddr = "localhost:6379"
    db = "0"
  }
  zk {
    cluster = "default"
    serverAddr = "127.0.0.1:2181"
    session.timeout = 6000
    connect.timeout = 2000
  }
  consul {
    cluster = "default"
    serverAddr = "127.0.0.1:8500"
  }
  etcd3 {
    cluster = "default"
    serverAddr = "http://localhost:2379"
  }
  sofa {
    serverAddr = "127.0.0.1:9603"
    application = "default"
    region = "DEFAULT_ZONE"
    datacenter = "DefaultDataCenter"
    cluster = "default"
    group = "SEATA_GROUP"
    addressWaitTime = "3000"
  }
  file {
    name = "file.conf"
  }
}

config {
  # file、nacos 、apollo、zk
  type = "file"

  nacos {
    serverAddr = "localhost"
    namespace = "public"
    cluster = "default"
  }
  apollo {
    app.id = "seata-server"
    apollo.meta = "http://192.168.1.204:8801"
  }
  zk {
    serverAddr = "127.0.0.1:2181"
    session.timeout = 6000
    connect.timeout = 2000
  }
  file {
    name = "file.conf"
  }
}
12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970
##更改service.vgroup_mapping.[springcloud服务名]-fescar-service-group = "default",并修改 service.default.grouplist =[seata服务端地址]

transport {
  # tcp udt unix-domain-socket
  type = "TCP"
  #NIO NATIVE
  server = "NIO"
  #enable heartbeat
  heartbeat = true
  #thread factory for netty
  thread-factory {
    boss-thread-prefix = "NettyBoss"
    worker-thread-prefix = "NettyServerNIOWorker"
    server-executor-thread-prefix = "NettyServerBizHandler"
    share-boss-worker = false
    client-selector-thread-prefix = "NettyClientSelector"
    client-selector-thread-size = 1
    client-worker-thread-prefix = "NettyClientWorkerThread"
    # netty boss thread size,will not be used for UDT
    boss-thread-size = 1
    #auto default pin or 8
    worker-thread-size = 8
  }
}
## transaction log store
store {
  ## store mode: file、db
  mode = "file"

  ## file store
  file {
    dir = "sessionStore"

    # branch session size , if exceeded first try compress lockkey, still exceeded throws exceptions
    max-branch-session-size = 16384
    # globe session size , if exceeded throws exceptions
    max-global-session-size = 512
    # file buffer size , if exceeded allocate new buffer
    file-write-buffer-cache-size = 16384
    # when recover batch read size
    session.reload.read_size = 100
    # async, sync
    flush-disk-mode = async
  }

  ## database store
//  db {
//    driver_class = "com.mysql.jdbc.Driver"
//    url = "jdbc:mysql://172.16.0.203:3306/bank?useUnicode=true"
//    user = "root"
//    password = "itcast0430"
//  }
  db {
    ## the implement of javax.sql.DataSource, such as DruidDataSource(druid)/BasicDataSource(dbcp) etc.
    datasource = "dbcp"
    ## mysql/oracle/h2/oceanbase etc.
    db-type = "mysql"
    url = "jdbc:mysql://127.0.0.1:3306/seata"
    user = "root"
    password = "mysql"
    min-conn = 1
    max-conn = 3
    global.table = "global_table"
    branch.table = "branch_table"
    lock-table = "lock_table"
    query-limit = 100
  }
}

service {
  #vgroup->rgroup
  vgroup_mapping.seata-demo-bank1-fescar-service-group = "default"
  #only support single node
  default.grouplist = "127.0.0.1:8888"
  #degrade current not support
  enableDegrade = false
  #disable
  disable = false
}
client {
  async.commit.buffer.limit = 10000
  lock {
    retry.internal = 10
    retry.times = 30
  }
}


123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102
3.3.7 Seata执行流程

正常流程

回滚流程

要点说明

  1. 每个RM使用DataSourceProxy连接数据库,其目的是使用ConnectionProxy,使用数据源和数据连接代理的目 的就是在第一阶段将undo_log和业务数据放在一个本地事务提交,这样就保存了只要有业务操作就一定有 undo_log。 在第一阶段undo_log中存放了数据修改前和修改后的值,为事务回滚作好准备,所以第一阶段完成就已经将分 支事务提交,也就释放了锁资源。 TM开启全局事务开始,将XID全局事务id放在事务上下文中,通过feign调用也将XID传入下游分支事务,每个 分支事务将自己的Branch ID分支事务ID与XID关联。 第二阶段全局事务提交,TC会通知各各分支参与者提交分支事务,在第一阶段就已经提交了分支事务,这里各 各参与者只需要删除undo_log即可,并且可以异步执行,第二阶段很快可以完成。 第二阶段全局事务回滚,TC会通知各各分支参与者回滚分支事务,通过 XID 和 Branch ID 找到相应的回滚日 志,通过回滚日志生成反向的 SQL 并执行,以完成分支事务回滚到之前的状态,如果回滚失败则会重试回滚操作。
3.4 小结

本节讲解了传统2PC(基于数据库XA协议)和Seata实现2PC的两种2PC方案,由于Seata的0侵入性并且解决了传 统2PC长期锁资源的问题,所以推荐采用Seata实现2PC。

Seata实现2PC要点:

1、全局事务开始使用 @GlobalTransactional标识 。

2、每个本地事务方案仍然使用@Transactional标识。

3、每个数据都需要创建undo_log表,此表是seata保证本地事务一致性的关键。

请先
登录
后评论
0 条评论
暂时没有评论
最新文章
更多