不一样的事务

news/2024/10/12 15:34:57

事务处理几乎在每一个信息系统中都会涉及,它存在的意义是为了保证系统中所有的数据都是符合期望的,且相互关联的数据之间不会产生矛盾,即数据状态的一致性。按照数据库的经典理论,要达成这个目标,需要三方面共同努力来保障。

  1. 原子性(Atomic):在同一项业务处理过程中,事务保证了对多个数据的修改,要么同时成功,要么同时被撤销。
  2. 隔离性(Isolation):在不同的业务处理过程中,事务保证了各业务正在读、写的数据相互独立,不会彼此影响。
  3. 持久性(Durability):事务应当保证所有成功被提交的数据修改都能够正确地被持久化,不丢失数据。

以上四种属性即事务的“ACID”特性,其中A、I、D是手段,C是目的。前者是因,后者是果。

事务的概念虽然最初起源于数据库系统,但今天已经有所延伸,不再局限于数据库本身了。所有需要保证数据一致性的应用场景,包括但不限于数据库、事务内存、缓存、消息队列、分布式存储,等等,都有可能用到事务.

当一个服务只使用一个数据源时,通过A、1、D来获得一致性是最经典的做法,也是相对容易的。此时,多个并发事务所读写的数据能够被数据源感知是否存在冲突并发事务的读写在时间线上的最终顺序是由数据源来确定的,这种事务间一致性被称为“内部一致性”。

当一个服务使用到多个不同的数据源,甚至多个不同服务同时涉及多个不同的数据源时,并发执行甚至是先后执行的多个事务,在时间线上的顺序并不由任何一个数据源来决定,这种涉及多个数据源的事务间一致性被称为“外部一致性”。

接下来,将逐一介绍在“单个服务使用单个数据源”“单个服务使用多个数据源”“多个服务使用单个数据源”以及“多个服务使用多个数据源”下,可以采用哪些手段来保证数据的正确。

1. 本地事务

本地事务是指仅操作单一事务资源的、不需要全局事务管理器进行协调的事务。它是一种最基础的事务解决方案,只适用于单个服务使用单个数据源的场景。

如今研究事务的实现原理,必定会追溯到ARIES理论,直接翻译过来是“基于语义的恢复与隔离算法”,ARIES是现代数据库的基础理论,就算不能称所有的数据库都实现了ARIES,至少可以称现代的主流关系型数据库(Oracle、MS SQLServer、MySQL/InnoDB、IBM DB2PostgreSQL、等等)在事务实现上都深受该理论的影响。

1.1实现原子性和持久性

原子性保证了事务的多个操作要么都生效要么都不生效,不会存在中间状态。

持久性保证了一旦事务生效,就不会再因为任何原因而导致其修改的内容被撤销或丢失。

众所周知,数据要保证持久性,就必须要成功写入磁盘、磁带等持久化存储器中,若只存储在内存中的数据,一旦遇到应用程序忽然崩溃,或者数据库、操作系统一侧崩溃、甚至是机器突然断电宕机等情况就会丢失。

实现原子性和持久性的最大困难是“写人磁盘”这个操作并不是原子的、不仅有“写入“与“未写入”状态,还客观存在着“正在写”的中间状态。由于写人中间状态与崩溃都不可能消除,所以如果不做额外保障措施的话,将内存中的数据写人磁盘,并不能保证原子性与持久性。

由于写入中间状态与崩溃都是无法避免的,为了保证原子性和持久性,就只能在崩后采取恢复的补救措施,这种数据恢复操作被称为“崩溃恢复”(Crash Recovery)。

为了能够顺利地完成崩溃恢复,就必须将修改数据这个操作所需的全部信息包括修改什么数据、数据物理上位于哪个内存页和磁盘块中、从什么值改成什么值,等等以日志的形式——即以仅进行顺序追加的文件写人的形式(这是最高效的写入方式)先记录到磁盘中。只有在日志记录全部安全落盘,数据库在日志中看到代表事务成功提交的“提交记录”(Commit Record)后,才会根据日志上的信息对真正的数据进行修改,修改完成后再在日志中加入一条“结束记录”(End Record)表示事务已完成持久化,这种事务实现方法被称为“提交日志”(Commit Logging)。

Tips:还有一种事务实现方式,称为”Shadow Paging“,有兴趣可自行研究。这里不在介绍。

Commit Logging 保障数据持久性、原子性的原理并不难理解:首先,日志一旦成功写,,那整个事务就是成功的,即使真正修改数据时崩溃了,重启后根据已经写人磁盘的日志信息恢复现场、继续修改数据即可,这保证了持久性;其次,如果日志没有成功写人就发生崩溃,那整个事务就是失败的,系统重启后会看到一部分没有Commit Record的日志,将这部分日志标记为回滚状态即可,整个事务就像完全没有发生过一样,这保证了原子性。

Commit Logging的原理很清晰,但是,Commit Logging存在一个巨大的先天缺陷:所有对数据的真实修改都必须发生在事务提交以后,即日志写人了Commit Record之后。在此之前,即使磁盘 IO 有足够空闲,即使某个事务修改的数据量非常庞大,占用了大量的内存缓冲区,无论何种理由,都决不允许在事务提交之前就修改磁盘上的数据,这一点是Commit Logging成立的前提,却对提升数据库的性能十分不利。为此,ARIES 提出了“提前写人日志”(Write-Ahead Logging)的日志改进方案,所谓“提前写人”(Write-Ahead),就是允许在事务提交之前写人变动数据的意思。

Write-Ahead Logging按照事务提交时点,将何时写人变动数据划分为FORCE 和STEAL两类情况:

  1. FORCE:当事务提交后,要求变动数据必须同时完成写人则称为FORCE,如果不强制变动数据必须同时完成写人则称为NO-FORCE。现实中绝大多数数据库采用的都是NO-FORCE策略,因为只要有了日志,变动数据随时可以持久化,从优化盘 IO 性能考虑,没有必要强制数据写人时立即进行。
  2. STEAL:在事务提交前,允许变动数据提前写入则称为STEAL,不允许则称为NO-STEAL。从优化磁盘IO性能考虑,允许数据提前写入,有利于利用空闲IO资源,也有利于节省数据库缓存区的内存。

Commit Logging 允许 NO-FORCE,但不允许STEAL。而Write-Ahead Logging允许 NO-FORCE,也允许 STEAL。它给出的解决办法是增加了另一种被称为 Undo Log的日志类型,当变动数据写入磁盘前,必须先记录 Undo Log、注明修改了哪个位置的数据、从什么值改成什么值等,以便在事务回滚或者崩溃恢复时根据Undo Log对提前写人的数据变动进行擦除。Undo Log 现在一般被翻译为“回滚日志”,此前记录的用于崩溃恢复时重演数据变动的日志就相应被命名为Redo Log,一般翻译为“重做日志”。

由于Undo Log的加人,Write-Ahead Logging 在崩溃恢复时会经历以下三个阶段:

  1. 分析阶段(Analysis):该阶段从最后一次检查点(Checkpoint,可理解为在这个点之前所有应该持久化的变动都已安全落盘)开始扫描日志,找出所有没有End Record的事务,组成待恢复的事务集合,这个集合至少会包括事务表和脏页表两个组成部分。
  2. 重做阶段(Redo):该阶段依据分析阶段中产生的待恢复的事务集合来重演历史,具体操作是找出所有包含Commit Record的日志,将这些日志修改的数据写人磁盘,写人完成后在日志中增加一条End Record,然后移出待恢复事务集合。
  3. 回滚阶段(Undo):该阶段处理经过分析、重做阶段后剩余的恢复事务集合,此时剩下的都是需要回滚的事务,它们被称为Loser,根据Undo Log中的信息,将已经提前写人磁盘的信息重新改写回去,以达到回滚这些Loser事务的目的。

重做阶段和回滚阶段的操作都应该设计为幂等的。据库按照是否允许FORCE和STEAL可以产生四种组合,从优化磁盘I/O的角度看,NO-FORCE加STEAL的组合的性能无疑是最高的;从算法实现与日志的角度看,NO-FORCE加STEAL的组合的复杂度无疑也是最高的。这四种组合与Undo Log、Redo Log之间的具体关系如图所示

1.2 实现隔离性

隔离性保证了每个事务各自读、写的数据互相独立,不会彼此影响。且隔离性与并发密切相关,因为如果没有并发,所有事务全都是串行的,那就不需要任何隔离,或者说这样的访问具备了天然的隔离性。但现实情况是不可能没有并发,那么,要如何在并发下实现串行的数据访问呢?当然是加锁同步呀,现代数据库均提供了以下三种锁。

  1. 写锁(Write Lock,也叫作排他锁):如果数据有加写锁,就只有持有写锁的事务才能对数据进行写人操作,数据加持着写锁时,其他事务不能写人数据,也不能施加读锁(但可以读数据)。
  2. 读锁(Read Lock,也叫作共享锁):多个事务可以对同一个数据添加多个读锁,数据被加上读锁后就不能再被加上写锁,所以其他事务不能对该数据进行写人,但仍然可以读取。对于持有读锁的事务,如果该数据只有它自己一个事务加了读锁,则允许直接将其升级为写锁,然后写人数据。
  3. 范围锁(Range Lock):对于某个范围直接加排他锁,在这个范围内的数据不能被写入。

请注意“范围不能被写人”与“一批数据不能被写人”的差别,即不要把范围锁理解成一组排他锁的集合。加了范围锁后,不仅不能修改该范围内已有的数据,也不能在该范围内新增或删除任何数据,后者是一组排他锁的集合无法做到的。

串行化访问提供了最高强度的隔离性。如果不考虑性能优化的话,对事务所有读、写的数据全都加上读锁、写锁和范围锁即可做到可串行化。但数据库不考虑性能肯定是不行的,并发控制理论决定了隔离程度与并发能力是相互抵触的,隔离程度越高,并发访问时的吞吐量就越低。现代数据库一定会提供除可串行化以外的其他隔离级别供用户使用,让用户自主调节隔离级别,根本目的是让用户可以调节数据库的加锁方式,取得隔离性与吞吐量之间的平衡。

可串行化的下一个隔离级别是可重复读(Repeatable Read),可重复读对事务所涉及的数据加读锁和写锁,且一直持有至事务结束,但不再加范围锁。可重复读比可串行化弱化的地方在于幻读问题(Phantom Read),它是指在事务执行过程中,两个完全相同的范围查询得到了不同的结果集。(因为不在加范围锁后,对于范围查询,完全有可能在该查询范围中插入数据)。

注意,这里的介绍是以ARIES理论为讨论目标,具体的数据库并不一定要完全遵照理论去实现。一个例子是MySQL/InnoDB的默认隔离级别为可重复读,但它在只读事务中可以完全避免幻读问题。但在读写事务中,MySQL仍然会出现幻读问题。

可重复读的下一个隔离级别是读已提交(Read Committed),读已提交对事务涉及的数据加的写锁会一直持续到事务结束,但加的读锁在查询操作完成后会马上释放。读已提交比可重复读弱化的地方在于不可重复读问题(Non-Repeatable Read),它是指在事务执行过程中,对同一行数据的两次查询得到了不同的结果。(例如查询一本书的价格,完全有可能在两次查询中,其他用户修改了书的价格)。这也是一个事务受到其他事务影响,隔离性被破坏的表现。

读已提交的下一个级别是读未提交(Read Uncommitted),它只会对事务涉及的数据加写锁,且一直持续到事务结束,但完全不加读锁。读未提交比读已提交弱化的地方在于脏读问题,它是指在事务执行过程中,一个事务读取到了另一个事务未提交的数据。

理论上还存在更低的隔离级别,就是“完全不隔离”,即读、写锁都不加。读未提交会有脏读问题,但不会有脏写问题(Dirty Write),即一个事务没提交之前的修改可以被另外个事务的修改覆盖掉。脏写已经不单纯是隔离性上的问题了,它将导致事务的原子性都无法实现,所以一般谈论隔离级别时不会将完全不隔离纳入讨论范围内,而是将读未提交视为最低级的隔离级别。

除了都以锁来实现外,以上四种隔离级别还有另外一个共同特点,就是幻读、不可重复读、脏读等问题都是由于一个事务在读数据的过程中,受另外一个写数据的事务影响而破坏了隔离性。针对这种“一个事务读+另一个事务写”的隔离问题,有一种名为“多版本并发控制9”(Multi-Version Concurrency Control,MVCC)的无锁优化方案被主流的商业数据库广泛采用。MVCC是一种读取优化策略,它的“无锁”特指读取时不需要加锁。

MVCC的基本思路是对数据库的任何修改都不会直接覆盖之前的数据,而是产生一个新版本与老版本共存,以此达到读取时可以完全不加锁的目的。在这句话中,“版本”是个关键词,你不妨将版本理解为数据库中每一行记录都存在两个看不见的字段:CREATE_VERSION和DELETE_VERSION,这两个字段记录的值都是事务ID,事务ID是一个全局严格递增的数值,然后根据以下规则写人数据。

  1. 插入数据时:CREATE_VERSION记录插人数据的事务ID,DELETE_VERSION为空。
  2. 删除数据时:DELETE_VERSION记录删除数据的事务ID,CREATE_VERSION为空。
  3. 修改数据时:将修改数据视为“删除旧数据,插入新数据”的组合,即先将原有数据复制一份,原有数据的DELETE_VERSION记录修改数据的事务ID,CREATE_VERSION为空。复制后的新数据的CREATE_VERSION记录修改数据的事务ID,DELETE VERSION为空。

此时,如有另外一个事务要读取这些发生了变化的数据,将根据隔离级别来决定到底应该读取哪个版本的数据。

  1. 隔离级别是可重复读:总是读取CREATE_VERSION小于或等于当前事务ID的记录,在这个前提下,如果数据仍有多个版本,则取最新(事务ID最大)的。
  2. 隔离级别是读已提交:总是取最新的版本即可,即最近被提交的那个版本的数据记录。

另外两个隔离级别都没有必要用到MVCC,可以自己想一想原因。

2. 全局事务

与本地事务相对的是全局事务,在这里,全局事务被限定为一种适用于单个服务使用多个数据源场景的事务解决方案。

1991年、为了解决分布式事务的一致性问题,X/Open组织提出了一套名为X/Open XA的处理事务架构,其核心内容是定义了全局的事务管理器(Transaction Manager,用于协调全局事务)和局部的资源管理器(Resource Manager,用于驱动本地事务)之间的通信接口。XA接口是双向的,能在一个事务管理器和多个资源管理器之间形成通信桥梁,通过协调多个数据源的一致动作,实现全局事务的统一提交或者统一回滚。

XA将事务提交拆分成两阶段:

  1. 准备阶段:又叫作投票阶段,在这一阶段,协调者询问事务的所有参与者是否准备好提交,参与者如果已经准备好提交则回复Prepared,否则回复Non-Prepared。对于数据库来说,准备操作是在重做日志中记录全部事务提交操作所要做的内容,它与本地事务中真正提交的区别只是暂不写人最后一条Commit Record而已,这意味着在做完数据持久化后并不立即释放隔离性,即仍继续持有锁,维持数据对其他非事务内观察者的隔离状态。
  2. 提交阶段:又叫作执行阶段,协调者如果在上一阶段收到所有事务参与者回复的Prepared消息,则先自己在本地持久化事务状态为Commit,然后向所有参与者发送Commit指令,让所有参与者立即执行提交操作;否则,任意一个参与者回复了Non-Prepared 消息,或任意一个参与者超时未回复时,协调者将在自己完成事务状态为 Abort 持久化后,向所有参与者发送Abort指令,让参与者立即执行回滚操作。对于数据库来说,这个阶段的提交操作应是很轻量的,仅仅是持久化一条Commit Record 而已,通常能够快速完成,只有收到Abort指令时,才需要根据回滚日志清理已提交的数据,这可能是相对重负载操作。

以上这两个过程被称为“两段式提交”(2PhaseCommit,2PC)协议,而它能够成功保一致性还需要一些其他前提条件。

  1. 必须假设网络在提交阶段的短时间内是可靠的,即提交阶段不会丢失消息。同时也假设网络通信在全过程都不会出现误差,即可以丢失消息,但不会传递错误的消息。在两段式提交中,投票阶段失败了可以补救(回滚),提交阶段失败了则无法补救,因而此阶段耗时应尽可能短,这也是为了尽量控制网路风险。
  2. 必须假设因为网络分区、机器溃或者其他原因而导致失联的节点最终能够恢复,不会永久性地处于失联状态。由于在准备阶段已经写人了完整的重做日志,所以当失联机器一旦恢复,就能够从日志中找出已准备妥当但并未提交的事务数据,进而向协调者查询该事务的状态,确定下一步应该进行提交还是回滚操作。

请注意,上面所说的协调者、参与者通常都是由数据库自己来扮演的,不需要应用程介人。协调者一般是在参与者之间选举产生,而应用程序对于数据库来说只扮演客户角色。两段式提交的交互时序示意图如图所示。

两段式提交原理简单,但有几个非常显著的缺点:

  1. 单点问题:协调者在两段式提交中具有举足轻重的作用,协调者等待参与者回复时可以有超时机制,允许参与者宕机,但参与者等待协调者指令时无法做超时处理一旦宕机的不是其中某个参与者,而是协调者的话,所有参与者都会受到影响。如果协调者一直没有恢复,没有正常发送Commit或者Rollback的指令,那所有参与者都必须一直等待。
  2. 性能问题:在两段式提交过程中,所有参与者相当于被绑定为一个统一调度的整体,期间要经过两次远程服务调用,三次数据持久化(准备阶段写重做日志,协调者状态持久化,提交阶段在日志写人提交记录),整个过程将持续到参与者集群中最慢的那一个处理操作结束为止,这决定了两段式提交的性能通常都较差。
  3. 一致性风险:前面已经提到,两段式提交的成立是有前提条件的,当网络稳定性和宕机恢复能力的假设不戒立时,仍可能出现一致性问题。例如,协调者在发出准备指令后,根据收到各个参与者发回的信息确定事务状态是可以提交的、协调者会先持久化事务状态,并提交自己的事务,如果这时候网络忽然断开,无法再通过网络向所有参与者发出Commit指令的话,就会导致部分数据(调者的)已提交,但部分数据(参与者的)未提交,且没有办法回滚,产生数据不一的问题。

为了缓解两段式提交协议的一部分缺陷,具体地说是协调者的单点问题和准备阶段的性能问题,后续又发展出了“三段式提交”(3PhaseCommit,3PC)协议。三段式提交把本的两段式提交的准备阶段再细分为两个阶段,分别称为CanCommit、PreCommit,把提交阶段改称为 DoCommit阶段。其中,新增的CanCommit是一个询问阶段,即协调者让个参与的数据库根据自身状态,评估该事务是否有可能顺利完成。将准备阶段一分为二的理由是这个阶段是重负载的操作,一旦协调者发出开始准备的消息,每个参与者都将马上开始写重做日志,它们所涉及的数据资源即被锁住,如果此时某一个参与者宣告无法完成提交,相当于大家都做了一轮无用功。所以,增加一轮询问阶段,如果都得到了正面的响应,那事务能够成功提交的把握就比较大了,这也意味着因某个参与者提交时发生崩溃而导致大家全部回滚的风险相对变小。因此,在事务需要回滚的场景中,三段式提交的性能通常要比两段式提交好很多,但在事务能够正常提交的场景中,两者的性能都很差,甚至段式因为多了一次询问,还要稍微更差一些。

同样也是由于事务失败回滚概率变小,在三段式提交中,如果在PreCommit阶段之后发生了协调者宕机,即参与者没有等到DoCommit的消息的话,默认的操作略将是提交事务而不是回滚事务或者持续等待,这就相当于避免了协调者单点问题的风险。三段式提交的操作时序如图所示。

从以上过程可以看出,三段式提交对单点问题和回滚时的性能问题有所改善、但是对一致性风险问题并未有任何改进,甚至是略有增加的。譬如,进入PreCommit阶段之后,协调者发出的指今不是Ack而是Abort,而此时因网络问题,有部分参与者直至超时都未能收到协调者的Abort指令的话,这些参与者将会错误地提交事务、这就产生了不同参与者之间数据不一致的问题。

3. 共享事务

与全局事务里讨论的单个服务使用多个数据源正好相反,共享事务是指多个服务共用同一个数据源。这里需要强调一次“数据源”与“数据库”的区别数据源是指提供数据的逻辑设备,不必与物理设备一一对应。在部署应用集群时最常采用的模式是将同一套程序部署到多个中间件服务器上,构成多个副本实例来分担流量压力。它们虽然连接了同一个数据库,但每个节点配有自己的专属数据源。在这种情况下,所有副本实例的数据访问都是完全独立的,并没有任何交集,每个节点使用的仍是最简单的本地事务。

针对这种每个数据源连接的都是同一个物理数据库的特例,共享事务很有可能成为另一条提高性能、降低复杂度的途径,当然,也很有可能是一个伪需求。

一种理论可行的方案是直接让各个服务共享数据库连接,在同一个应用进程中的不同持久化工具中共享数据库连接并不困难,某些中间件服务器,例如WebSphere 会内置“可共享连接”功能来专门给予这方面的支持。但这种共享的前提是数据源的使用者都在同一个进程内,由于数据库连接的基础是网络连接,它是与IP地址和端口号绑定的,字面意义上的“不同服务节点共享数据库连接”很难做到,所以为了实现共享事务,就必须新增一个“交易服务器”的中间角色,无论是什么服务,都通过同一台交易服务器来与数据库打交道。如果按照JDBC规范来实现交易服务器的对外接口的话,那它完全可以作为一个独立于各个服务的远程数据库连接池,或者直接作为数据库代理来看待。此时多个服务所发出的交易请求就有可能做到由交易服务器上的同一个数据库连接,通过本地事务的方式完
成。

重要:方案之所以强调理论可行,是因为该方案是与实际生产系统中的压力方向相悖的,一个服务集群里数据库才是压力最大而又最不容易伸缩拓展的“重灾区”,所以现实中只有用于对多个数据库实例做负载均衡的数据库代理,而几乎没有反过来代理一个数据库为多个应用提供事务协调的交易服务代理。这也是说它更有可能是个伪需求的原因,如果有充足理由让多个微服务去共享数据库,就必须找到更加站得住脚的理由来解释拆分微服务的目的。

在日常开发中,上述方案还存在一类更为常见的变种形式:使用消息队列服务器来代替交易服务器,当多个关联服务操作业务时,通过消息将所有对数据库的改动传送到消息队列服务器,通过消息的消费者来统一完成由本地事务来保障的持久化操作。

“共享事务”的提法和这里所列的两种处理方式在实际应用中并不值得提倡,鲜有采用这种方式的成功案例。

4. 分布式事务

这里所说的分布式事务(Distributed Transaction)特指多个服务同时访问多个数据源的事务处理机制。在2000年以前,人们曾经希望XA的事务机制在分布式环境中也能良好应用,但这个美好的愿望今天已经被CAP理论彻底击碎了,接下来就先从CAP与ACID的矛盾说起。

4.1 CAP 和 ACID

CAP定理描述了在一个分布式系统中,涉及共享数据的问题时,以下三个特性最多只能同时满足其中两个。

  1. 一致性(Consistency):代表数据在任何时刻、任何分布式节点中所看到的都是符合预期的。
  2. 可用性(Availability):代表系统不间断地提供服务的能力。理解可用性要先理解与其密切相关的两个指标:可靠性和可维护性。可靠性使用平均无故障时间(Mean Time Between Failure,MTBF)来度量;可维护性使用平均可修复时间(Mean Time To Repair,MTTR)来度量。可用性衡量系统可以正常使用的时间与总时间之比,其表征为:A=MTBF/(MTBF+MTTR),即可用性是由可靠性和可维护性计算得出的比例值。
  3. 分区容忍性(Partition Tolerance):代表分布式环境中部分节点因网络原因而彼此失联后,即与其他节点形成“网络分区”时,系统仍能正确地提供服务的能力。

由于CAP定理已有严格的证明,现不在探讨为何CAP不可兼得,而是直接分析舍弃C、A、P时所带来的不同影响。

  1. 如果放弃分区容忍性(AC),意味着我们将假设节点之间的通信永远是可靠的。永远可靠的通信在分布式系统中必定是不成立的,这不是你想不想的问题,而是只要用到网络来共享数据,分区现象就始终存在。
  2. 如果放弃可用性(CP),意味着我们将假设一旦网络发生分区,节点之间的信息同步时间可以无限制地延长。在现实中,选择放弃可用性的情况一般出现在对数据质量要求很高的场合中,例如HBase,ZooKeeper都属于CP系统。以 HBase集群为例,假如某个 RegionServer 宕机了,这个 RegionServer 持有的所有键值范围都将离线,直到数据恢复过程完成为止,这个过程要消耗的时间是无法预先估计的。
  3. 如果放弃一致性(AP),意味着我们将假设一旦发生分区,节点之间所提供的数据可能不一致。选择放弃一致性的AP系统是目前设计分布式系统的主流选择,因为P是分布式网络的天然属性,你再不想要也无法丢弃;而A通常是建设分布式的目的,如果可用性随着节点数量增加反面降低的话,很多分布式系统可能失去了存在的价值,除非银行、证券这些涉及金钱交易的服务,宁可中断也不能出错,否则多数系统是不能容忍节点越多可用性反而越低的。目前大多数NoSOL库和支持分布式的缓存框架都是AP系统,以Redis集群为例,如果某个Redis节点出现网络分区,那仍不妨碍各个节点以自己本地存储的教据对外提供缓存服务,但这时有可能出理请求分配到不同节点时返回客户增的是不一致的数据的情况。

读到这里,不知道你是否对“选择放弃一致性的AP系统是目前设计分布式系统的主流选择”这个结论感到一丝无奈,而“事务”原本的目的就是获得“一致性”,但在分布式环境中,“一致性”却不得不成为通常被牺牲、被放弃的那一项属性。但无论如何,我们建设信息系统,终究还是要确保操作结果至少在最终交付的时候是正确的,这就是允许数据在过程中出错(不一致),但该在输出时被修正过来。为此,人们又重新给一致性下了定义,将前面我们在CAP、ACID中讨论的一致性称为“强一致性,而把牺牲了C的AP系统又要尽可能获得正确结果的行为称为追求“弱一致性”。不过,在弱一致性里,人们又总绪出了一种稍微强一点的特例,被称为“最终一致性”,它是指如果数据在一段时间之内没有被另外的操作更改,那它最终会达到与强一致性一样的结果,有时候面向最终一致性的算法也被称为“乐观复制算法”

在本节讨论的主题“分布式事务”中,目标同样也不得不从之前三种事务模式追求的强一致性,降低为追求获得“最终一致性”。由于一致性的定义变动,“事务”一词的含义其实也同样被拓展了,人们把使用ACID的事务称为“刚性事务”,把下面将要介绍的几种分布式事务统称为“柔性事务”。

4.2 可靠事件队列

最终一致性的概念是在一篇论文中提出的,该论文总结了一种独立于ACID获得的强一致性之外的、使用BASE来达成一致性目的的途径。BASE分别是基本可用性(Basically Available),柔性事务(Soft State)和最终一致性(Eventually Consistent)的编写。

现举一个用户购书的例子,帮助大家理解整个流程。流程设计用户服务,仓库服务,商家服务。

  1. 最终用户向系统发送交易请求:购买一本价值100元的《书》。
  2. 系统首先应对用户账号扣款、商家账号收款、库存商品出库这三个操作有一个出错概率的先验评估,根据出错概率的大小来安排它们的操作顺序,这种评估一般直接体现在程序代码中,一些大型系统也可能会实现动态排序。假设流程是:账号扣款一仓库出库一商家收款
  3. 账号服务进行扣款业务,如扣款成功,则在自己的数据库建立一张消息表,里面存人一条消息:“事务ID:某UUID,扣款:100元(状态:已完成),仓库出库《书》:1本(状态:进行中),某商家收款:100元(状态:进行中)”。注意,这个步骤中“扣款业务”和“写人消息”是使用同一个本地事务写人账号服务自己的数据库的。
  4. 在系统中建立一个消息服务,定时轮询消息表,将状态是“进行中”的消息同时发送到库存和商家服务节点中去(也可以串行地发,即一个成功后再发送另一个)。这时候可能产生以下几种情况。
    • 商家和仓库服务都成功完成了收款和出库工作,向用户账号服务器返回执行结果,用户账号服务把消息状态从“进行中”更新为“已完成”。整个事务顺利结束,达
      到最终一致性的状态。
    • 商家或仓库服务中至少有一个因网络原因,未能收到来自用户账号服务的消息。此时,由于用户账号服务器中存储的消息状态一直处于“进行中”,所以消息服务器将在每次轮询的时候持续地向未响应的服务重复发送消息。这个步骤的可重复性决定了所有被消息服务器发送的消息都必须具备幂等性,通常的设计是让消息带上一个唯一的事务ID,以保证一个事务中的出库、收款动作会且只会被处理一次。
    • 商家或仓库服务有某个或全部无法完成工作,譬如仓库发现《书》没有库存了,此时,仍然是持续自动重发消息,直至操作成功(如补充了新库存),或者被人工介人为止。由此可见,可靠事件队列只要第一步业务完成了,后续就没有失败回滚的概念,只许成功,不许失败。
    • 商家和仓库服务成功完成了收款和出库工作,但回复的应答消息因网络原因丢失,此时,用户账号服务仍会重新发出下一条消息,但因操作具备幂等性,所以不会导致重复出库和收款,只会导致商家、仓库服务器重新发送一条应答消息,此过程持续进行直至双方网络通信恢复正常。
    • 也有一些支持分布式事务的消息框架,如RocketMQ,原生就支持分布式事务操作,这时候上述第二、四种情况也可以交由消息框架来保障。

以上这种依靠持续重试来保证可靠性的解决方案在计算机的其他领域中已被频繁使用,也有了专门的名字--“最大努力交付’,譬如TCP协议中未收到 ACK应答自动重新发包的可靠性保障就源于最大努力交付。

4.3 TCC事务

TCC是另一种常见的分布式事务机制,它是“Try-Confirm-Cancel”三个单词的缩写。

前面介绍的可靠消息队列虽然能保证最终结果的相对可靠性,过程也足够简单(相于TCC来说),但整个过程完全没有任何隔离性可言,虽然在一些业务中隔离性是无关紧的、但在有些业务中缺乏隔离性就会带来许多麻烦。但是在刚才的例子中,缺乏隔离性会带来的一个明显问题便是“超售”:如两个客户在短时间内都成功购买了同一件商品,而且他们各自购买的数量都不超过目前的库存,但他们购买的数量之和却超过了库存。如果业务需要隔离,那通常就应该重点考虑TCC方案,该方案天生适用于需要强隔离性的分布式事务中。

在具体实现上,TCC较为烦琐,它是一种业务侵入式较强的事务方案,要求业务处理过程必须拆分为“预留业务资源”和“确认/释放消费资源”两个子过程。如同TCC的名字所示,它分为以下三个阶段。

  1. Try:尝试执行阶段,完成所有业务可执行性的检查(保障一致性),并且预留好全部需要用到的业务资源(保障隔离性)。
  2. Confirm:确认执行阶段,不进行任何业务检查,直接使用Try阶段准备的资源来完成业务处理。Confirm阶段可能会重复执行,因此本阶段执行的操作需要具备幂等性。
  3. Cancel:取消执行阶段,释放Try阶段预留的业务资源。Cancel阶段可能会重复行,因此本阶段执行的操作也需要具备幂等性。

按照刚才的场景事例,TCC的执行过程应该是:

  1. 用户向系统发送交易请求:购买一本价值100元的《书》。

  2. 创建事务,生成事务ID,记录在活动日志中,进入Try阶段。

    • 用户服务:检查业务可行性,若可行,将该用户的100元设置为“冻结”状态,通知下一步进人 Confirm阶段;若不可行,通知下一步进入Cancel阶段。
    • 仓库服务:检查业务可行性,若可行,将该仓库的1本《书》设置为“冻结”状态,通知下一步进入Confirm阶段;若不可行,通知下一步进入Cancel阶段。
    • 商家服务:检查业务可行性,不需要冻结资源。
  3. 如果第2步所有业务均反馈业务可行,将活动日志中的状态记录为Confirm,进入Confirm 阶段。

    • 用户服务:完成业务操作(扣减那被冻结的100元)。
    • 仓库服务:完成业务操作(标记那1本冻结的书为出库状态,扣减相应库存)
    • 商家服务:完成业务操作(收款100元)。
  4. 第3步如果全部完成,事务正常结束,如果第3步中任何一方出现异常,不论是业务异常还是网络异常,都将根据活动日志中的记录,重复执行该服务的Confirm操作,即进行最大努力交付。

  5. 如果第2步有任意一方反馈业务不可行,或任意一方超时,则将活动日志的状态记录为Cancel,进行最大努力交付。

    • 用户服务:取消业务操作(释放被冻结的100元)。
    • 仓库服务:取消业务操作(释放被冻结的1本书)。
    • 商家服务:取消业务操作。
  6. 第5步如果全部完成,事务宣告以失败回滚结束,如果第5步中任何一方出现异常,不论是业务异常还是网络异常,都将根据活动日志中的记录,重复执行该服务的Cancel操作,即进行最大努力交付。

由上述操作过程可见,TCC在业务执行时只操作预留资源,几乎不会涉及锁和资源的争用具有很高的性能潜力。但是TCC也带来了更高的开发成本和业务侵入性,即更高的开发成本和更换事务实现方案的替换成本,所以,我们可以基于某些分布式事务中间件(譬如阿里开源的Seata)去完成,尽量减轻一些编码工作量。

4.4 SAGA 事务

TCC事务具有较强的隔离性,避免了“超售”的问题,而且其性能一般来说是本篇提及的几种柔性事务模式中最高的,但它仍不能满足所有的场景。TCC的最主要限制是它的业务侵人性很强,特别是它所要求的技术可控性上的约束。譬如,用户采用银行卡扫码支付,当账号余额由银行管理的话,其操作权限和数据结构就不可能再随心所欲地自行定义,通常也就无法完成冻结款项、解冻、扣减这样的操作,因为银行一般不会配合你的操作。所以TCC中的第一步Try阶段往往无法施行。我们只能
考虑采用另外一种柔性事务方案:SAGA事务。

。原本SAGA的目的是避免大事务长时间锁定数据库的资源,后来才发展成将一个分布式环境中的大事务分解为一系列本地事务的设计模式。SAGA由两部分操作组成:

  1. 将大事务拆分成若干个小事务,将整个分布式事务T分解为个子事务,命名为T1,T2,…,T3,…,Tn。每个子事务都应该是或者能被视为原子行为。如果分布式事务能够正常提交,其对数据的影响(即最终一致性)应与连续按顺序成功提交等价。
  2. 为每一个子事务设计对应的补偿动作,命名为,C1,…,C2,…,Cn。T与C必须满足以下条件。
    • Ti与Ci都具备幂等性。
    • Ti与Ci满足交换律(Commutative),即无论先执行Ti还是先执行Ci,其效果都是一样的。
    • Ci必须能成功提交,即不考虑Ci本身提交失败被回滚的情形,如出现就必须持续重试直至成功,或者被人工介人为止。

如果T到均成功提交,那事务顺利完成,否则,要采取以下两种恢复策略之一。

  1. 正向恢复:如果事务提交失败,则一直对T进行重试,直至成功为止(最大努力交付)。这种恢复方式不需要补偿,适用于事务最终都要成功的场景,譬如在别人的银行账号中扣了款,就一定要给别人发货。
  2. 反向恢复:如果事务提交失败,则一直执行Ci对Ti进行补偿,直至成功为止(最大努力交付)。这里要求Ci必须(在持续重试后)执行成功。

与TCC相比,SAGA不需要为资源设计冻结状态和撤销冻结的操作,补偿操作往往要比冻结操作容易实现得多。譬如,前面提到的账号余额直接在银行维护的场景,从银行划转货款到系统中,这步是经由用户支付操作来促使银行提供服;;如果后续业务操作失败,尽管我们无法要求银行撤销之前的用户转账操作,但是由系统将钱转回到用户账号上作为补偿措施却是完全可行的。

SAGA必须保证所有子事务都得以提交或者补偿,但SAGA系统本身也有可能会崩溃,所以它必须设计成与数据库类似的日志机制以保证系统恢复后可以追踪到子事务的执行情况,譬如执行至哪一步或者补偿至哪一步了。另外,尽管补偿操作通常比冻结/撤销容易实现,但保证正向、反向恢复过程严谨地进行也需要花费不少工夫譬如通过服务编排、可靠事件队列等方式完成,所以,SAGA事务通常也不会直接靠裸码来实现、一般是在事务中间件的基础上完成,前面提到的Seata就同样支持SAGA事务。

基于数据补偿来代替回滚的思路,还可以应用在其他事务方案上,例如:阿里的GTS(Global Transaction Service,Seata由GTS开源而来)所提出的“AT事务模式”就是这样的应用。

从整体上看,AT事务是参照了XA两段提交协议实现的,但对于XA2PC的缺陷,即在准备阶段必须等待所有数据源都返回成功后,he协调者才能统一发出Commit命令而导致的木桶效应,AT事务设
计了针对性的解决方案。大致的做法是在业务数据提交时自动拦截所有SQL,将SQL对数据修改前、修改后的结果分别保存快照,生成行锁,通过本地事务一起提交到操作的数据源中、相当于自动记录了重做和回滚日志。如果分布式事务成功提交,那后续清理每个据源中对应的日志数据即可;如果分布式事务需要回滚,就根据日志数据自动产生用于补偿的“逆向SQL”。基于这种补偿方式,分布式事务中涉及的每一个数据源都可以单独提交,然后立刻释放锁和资源。这种异步提交的模式,相比2PC极大地提升了系统的吞吐量水平,而代价就是大幅度牺牲了隔离性,甚至直接影响到了原子性。因为在缺乏隔离性的前提下,以补偿代替回滚并不是总能成功的。譬如,在本地事务提交之后、分布式事务完成之前,该数据被补偿之前又被其他操作修改过,即出现了脏写,这时候一旦分布式事务需要回滚,就不可能再通过自动的逆向SQL来实现补偿,只能由人工介人处理了。

通常来说,脏写是一定要避免的,因为脏写情况一旦发生,其实也很难通过人工进行有效处理。所以GTS增加了一个“全局锁”(Global Lock)的机制来实现写隔离,要求本地事务提交之前,一定要先拿到针对修改记录的全局锁后才允许提交,没有获得全局锁之前就必须一直等,这种设计以牺牲一定性能为代价,避免了两个分布式事务中包含的本地事务修改同一个数据的情况,从而避免脏写。在读隔离方面,AT事务默认的隔离级别是读未提交,这意味着可能产生脏读。也可以采用全局锁的方案解决读隔离问题,但直接阻塞读取的话,代价就非常大了,一般不会这样做。由此可见,分布式事务中没有一揽子包治百病的解决办法,因地制宜地选用合适的事务处理方案才是唯一有效的做法。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.ryyt.cn/news/70690.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈,一经查实,立即删除!

相关文章

java获取当前时间(年月日)

转自:https://blog.csdn.net/lynn_Kun/article/details/76997856在java程序中常常需要获取的时间和设置时间的格式 1、获取当前的时间Date date=new Date();//此时date为当前的时间 2、设置时间的格式Date date=new Date();//此时date为当前的时间System.out.println(date);Si…

沉浸式娱乐新纪元,3DCAT推出5G+实时云渲染VR大空间解决方案

随着5G、人工智能和云计算等技术的不断成熟,VR大空间体验的发展前景愈发广阔.3DCAT实时渲染云作为这一领域的赋能者,将持续创新,为用户提供更高效、更灵活的5G+实时云渲染VR大空间解决方案.近年来,虚拟现实(VR)技术在娱乐、教育、医疗等多个领域展现出巨大的潜力,尤其是VR大…

一种基于alpine、支持ARM架构64位的镜像构建方法及其构建系统

一种基于alpine、支持ARM架构64位的镜像构建方法及其构建系统,包括以下步骤: 步骤1:准备arm64位基础镜像包本文分享自天翼云开发者社区《一种基于alpine、支持ARM架构64位的镜像构建方法及其构建系统》,作者:郑****团 一种基于alpine、支持ARM架构64位的镜像构建方法及其构…

点对点协议PPP

PPP协议的特点 接入到互联网,PPP协议就是用户计算机和ISP进行通信时,所使用的数据链路层协议,它应满足如下需求:简单封装成帧透明性多种网络层协议多种类型链路差错检测检测连接状态最大转送单元网络层地址协商数据压缩协商具体内容见谢书P79PPP协议的组成 PPP协议有三个组…

python中_init_.py 到底有啥用?

1. __init__.py 是个啥? __init__.py,这个文件名就是用来“初始化”的。在Python里,它主要用于标识一个目录是一个“包(Package)”。在项目里新建了一个文件夹,要让它成为一个可供导入的模块包,最简单的办法就是在里面加一个__init__.py。 比如,咱们有个项目结构如下:…

白鲸开源WhaleStudio项目获得“创客北京2024”企业组优秀奖,晋级复赛!

近日,“创客北京2024”海淀区复赛名单正式公布,白鲸开源凭借其全球领先的云原生DataOps平台——WhaleStudio,荣获企业组优秀奖,并成功进入复赛名单。 此次“创客北京2024”海淀区级赛由中关村科学城管理委员会主办,北京中关村科学城科创服务有限公司与中国北京(海淀)留学…

Kimi 探索版发布,搜索量增强 10 倍;北大快手开源 Pyramid Flow Matching 丨 RTE 开发者日报

开发者朋友们大家好:这里是 「RTE 开发者日报」 ,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享 RTE(Real-Time Engagement) 领域内「有话题的 新闻 」、「有态度的 观点 」、「有意思的 数据 」、「有思考的 文章 」、「有看点的 会议 」,但内容仅代表编辑…

Jenkins定时构建

目录Jenkins 定时任务构建定时语法 Jenkins 定时任务构建选择需要定时执行的任务并进入点击 配置 按钮进入配置界面点击 构建触发器 并跳转到对应的配置部分,勾选上 Build periodically 选项在出现的日程表中填写对应的定时语句,并点击 保存 即可生效定时语法定时构建语法:*…