volatile 关键字

正式介绍 volatile 之前,先来一点铺垫!!

缓存一致性协议 (MESI)

我们知道处理器 (CPU) 的速度是很快的,但是绝大多数任务仅仅依靠 CPU 是很难完成的,CPU 至少需要与内存交互,如读取运算数据、存储运算结果等

计算机的存储设备与 CPU 的运算速度差的不止一点,所以现在计算机就在 CPU 和内存之间加入了一层或多层读写速度更接近 CPU 运算速度的高速缓存 (Cache)

基于高速缓存的存储交互很好地解决了处理器与内存速度之间的矛盾,但也引入了一个新的问题:缓存一致性问题

在多核 CPU 系统中,每个 CPU 都有自己的高速缓存,而它们又共享同一主内存,如下图所示:

3

当多核处理器的运算任务都涉及同一块主内存区域时,将可能导致各自的缓存数据不一致,为解决这一问题,需要各处理器访问缓存时遵循一些协议,其中主要的协议就是 MESI

MESI 表示 Cache Line 的四种状态:

这里推荐一个可视化网站,可以看到 Cache 四个状态的转换 VivioJS MESI animation help

Java 内存模型 (JMM)

关于「Java 内存模型」更详细的介绍可见 Java 内存模型

Java 内存模型规定所有的变量都存储在主内存中,每个线程都有自己的工作内存

线程的工作内存中保存了被该线程使用的变量的主内存副本,线程对变量的所有操作「读取、赋值等」都必须在工作内存中进行,而不能直接读写主内存中的数据

线程之间也无法访问对方工作内存中的变量,即工作内存属于线程私有。线程间变量的传递需要通过主内存来完成

是不是感觉和上面的关系十分相似,对,没错,JMM 就是参考计算机硬件的交互关系

线程、主内存、工作内存三者的交互关系如下图所示:

1

与此同时,JMM 还定义了一套内存间的交互操作

具体的工作流程如下图所示:

2

基本概念引入

关于这些概念更详细的介绍可见 Java 内存模型

可见性

可见性是指一个线程对一片内存区域执行写入操作,其他线程立即可见该内存区域的改变

由于每个线程都有自己的工作内存,且为线程私有,相互不可见,线程对变量的所有操作「读取、赋值等」都必须在工作内存中进行

如果一个线程修改了共享变量,但没有马上写回到主内存中,这导致其他线程对该共享变量的修改不可见

指令重排序

除了增加高速缓存外,为了使处理器的运算单元可以被更充分的利用,处理器会对输入代码进行乱序执行优化,处理器对乱序执行的结果进行重组,保证该结果与单线程下顺序执行的结果是一致的,但并不保证各个执行语句的先后顺序与输入代码的顺序一致,即只保证「最终一致性」

Java 虚拟机的即时编译器中也有指令重排序优化

「指令重排序优化」在单线程中不会出现任何问题,但是如果在多线程中,会出现意想不到的问题,具体例子可见 双重校验锁实现单例模式

内存屏障

这里先说明一下,下面说到的 Load 和 Store 分别指「从主内存中读」和「往主内存中写」。根据上面提到的内存间的交互操作,Load 等价于 read + load;Store 等价于 store + write

JVM 根据读、写两种操作提供了四种屏障

volatile 的特性

当我们声明共享变量为 volatile 后,对这个变量的读/写将会很特别

理解 volatile 特性的一个好方法是把对 volatile 变量的单个读/写,看成是使用同一个锁对这些单个读/写操作做了同步

下面我们通过具体的示例来说明,请看下面的示例代码:

假设有多个线程分别调用上面程序的三个方法,这个程序在语义上和下面程序等价:

如上面示例程序所示,对一个 volatile 变量的单个读/写操作,与对一个普通变量的读/写操作使用同一个锁来同步,它们之间的执行效果相同

锁的 happens-before 规则保证释放锁和获取锁的两个线程之间的内存可见性

这意味着对一个 volatile 变量的读,总是能看到 (任意线程) 对这个 volatile 变量最后的写入

锁的语义决定了临界区代码的执行具有原子性。这意味着即使是 64 位的 long 类型和 double 类型变量,只要它是 volatile 变量,对该变量的读写就将具有原子性

如果是多个 volatile 操作或类似于 volatile++ 这种复合操作,这些操作整体上不具有原子性

简而言之,volatile 变量自身具有下列特性:

volatile 写-读建立的 happens-before 关系

关于 happens-before 规则更详细的介绍可见 Java 内存模型

上面讲的是 volatile 变量自身的特性,对程序员来说,volatile 对线程的内存可见性的影响比 volatile 自身的特性更为重要,也更需要我们去关注

从 JSR-133 开始 (即从 JDK5 开始),volatile 变量的写-读可以实现线程之间的通信

从内存语义的角度来说,volatile 的写-读与锁的释放-获取有相同的内存效果:

根据 happens-before 规则,上面过程会建立 3 类 happends-before 关系:

4

这里 A 线程写一个 volatile 变量后,B 线程读同一个 volatile 变量

A 线程在写 volatile 变量之前所有可见的共享变量 (如:a,flag),在 B 线程读同一个 volatile 变量后,将立即变得对 B 线程可见

volatile 写-读的内存语义

volatile 的特性类似于是宏观上的表现;而 volatile 的内存语义是微观上的表现

volatile 写的内存语义如下:

以上面示例程序 VolatileExample 为例,假设线程 A 首先执行writer()方法,随后线程 B 执行reader()方法,初始时两个线程的本地内存中的flaga都是初始状态。下图是线程 A 执行 volatile 写后,共享变量的状态示意图:

16

如上图所示,线程 A 在写flag变量后,本地内存 A 中被线程 A 更新过的两个共享变量的值被刷新到主内存中。此时,本地内存 A 和主内存中的共享变量的值是一致的

volatile 读的内存语义如下:

下面是线程 B 读同一个 volatile 变量后,共享变量的状态示意图:

17

如上图所示,在读flag变量后,本地内存 B 包含的值已经被置为无效。此时,线程 B 必须从主内存中读取共享变量。线程 B 的读取操作将导致本地内存 B 与主内存中的共享变量的值也变成一致的了

如果我们把 volatile 写和 volatile 读这两个步骤综合起来看的话,在读线程 B 读一个 volatile 变量后,写线程 A 在写这个 volatile 变量之前所有可见的共享变量的值都将立即变得对读线程 B 可见

下面对 volatile 写和 volatile 读的内存语义做个总结:

volatile 内存语义的实现

现在让我们来看看 JMM 如何实现 volatile 写/读的内存语义

Java 内存模型 中提到过重排序分为编译器重排序和处理器重排序。为了实现 volatile 内存语义,JMM 会分别限制这两种类型的重排序类型。下面是 JMM 针对编译器制定的 volatile 重排序规则表:

 普通读/写volatile 读volatile 写
普通读/写  NO
volatile 读NONONO
volatile 写 NONO

注:NO 表示禁止重排序!

举例来说,第二行最后一个单元格的意思是:在程序顺序中,当第一个操作为普通变量的读或写时,如果第二个操作为 volatile 写,则编译器不能重排序这两个操作

从上表我们可以看出:

为了实现 volatile 的内存语义,编译器在生成字节码时,会在指令序列中插入内存屏障来禁止特定类型的处理器重排序。对于编译器来说,发现一个最优布置来最小化插入屏障的总数几乎不可能,为此,JMM 采取保守策略。下面是基于保守策略的 JMM 内存屏障插入策略:

下面是保守策略下,volatile 写插入内存屏障后生成的指令序列示意图:

5

上图中的 StoreStore 屏障可以保证在 volatile 写之前,其前面的所有普通写操作已经对任意处理器可见了。这是因为 StoreStore 屏障将保障上面所有的普通写在 volatile 写之前刷新到主内存

这里比较有意思的是 volatile 写后面的 StoreLoad 屏障。这个屏障的作用是避免 volatile 写与后面可能有的 volatile 读/写操作重排序

因为编译器常常无法准确判断在一个 volatile 写的后面,是否需要插入一个 StoreLoad 屏障 (比如,一个 volatile 写之后方法立即 return)。为了保证能正确实现 volatile 的内存语义,JMM 在这里采取了保守策略:在每个 volatile 写的后面或在每个 volatile 读的前面插入一个 StoreLoad 屏障

从整体执行效率的角度考虑,JMM 选择了在每个 volatile 写的后面插入一个 StoreLoad 屏障。因为 volatile 写-读内存语义的常见使用模式是:一个写线程写 volatile 变量,多个读线程读同一个 volatile 变量。当读线程的数量大大超过写线程时,选择在 volatile 写之后插入 StoreLoad 屏障将带来可观的执行效率的提升

从这里我们可以看到 JMM 在实现上的一个特点:首先确保正确性,然后再去追求执行效率

问题 1:为什么 volatile 写前面不用插入 LoadStore 屏障来禁止和普通读重排序??

22

在 x86 CPU 中,只允许「Stores can be reordered after loads」。所以在 volatile 写前面没有插入 LoadStore 屏障

但如果在其他 CPU 下,可能就需要加,如:ARM CPU

问题 2:为什么要禁止 volatile 写和前面的普通写重排序??

这里假设有两个线程 A 和 B,A 首先执行writer()方法,随后 B 线程接着执行reader()方法

由于操作 1 和操作 2 没有数据依赖关系,编译器和处理器可以对这两个操作重排序,假设不禁止重排序,那么上述程序中的执行顺序可能是:

8

如上图所示,操作 1 和操作 2 做了重排序。程序执行时,线程 A 首先写标记变量flag,随后线程 B 读这个变量。由于条件判断为真,线程 B 将读取变量 a。此时,变量 a 还根本没有被线程 A 写入,在这里多线程程序的语义被重排序破坏了!

问题 3:为什么要禁止 volatile 读和后面的普通读/写重排序??

9

在程序中,操作 3 和操作 4 存在控制依赖关系。当代码中存在控制依赖性时,会影响指令序列执行的并行度。为此,编译器和处理器会采用猜测 (Speculation) 执行来克服控制相关性对并行度的影响。以处理器的猜测执行为例,执行线程 B 的处理器可以提前读取并计算a * a,然后把计算结果临时保存到一个名为重排序缓冲 (Reorder Buffer,ROB) 的硬件缓存中。当接下来操作 3 的条件判断为真时,就把该计算结果写入变量i

从图中我们可以看出,猜测执行实质上对操作 3 和 4 做了重排序。重排序在这里破坏了多线程程序的语义!

JSR-133 为什么要增强 volatile 的内存语义

在 JSR-133 之前的旧 Java 内存模型中,虽然不允许 volatile 变量之间重排序,但旧的 Java 内存模型允许 volatile 变量与普通变量重排序。在旧的内存模型中, VolatileExample 示例程序可能被重排序成下列时序来执行:

23

在旧的内存模型中,当 1 和 2 之间没有数据依赖关系时,1 和 2 之间就可能被重排序 (3 和 4 类似)。其结果就是:读线程 B 执行 4 时,不一定能看到写线程 A 在执行 1 时对共享变量的修改

因此在旧的内存模型中,volatile 的写-读没有锁的释放-获所具有的内存语义。为了提供一种比锁更轻量级的线程之间通信的机制,JSR-133 专家组决定增强 volatile 的内存语义:严格限制编译器和处理器对 volatile 变量与普通变量的重排序,确保 volatile 的写-读和锁的释放-获取具有相同的内存语义。从编译器重排序规则和处理器内存屏障插入策略来看,只要 volatile 变量与普通变量之间的重排序可能会破坏 volatile 的内存语义,这种重排序就会被编译器重排序规则和处理器内存屏障插入策略禁止

由于 volatile 仅仅保证对单个 volatile 变量的读/写具有原子性,而锁的互斥执行的特性可以确保对整个临界区代码的执行具有原子性。在功能上,锁比 volatile 更强大;在可伸缩性和执行性能上,volatile 更有优势

实例:双重校验锁

下面给出一段「双重校验锁实现单例模式」的部分汇编代码:

在赋值操作后,多了一条指令:lock addl $0x0,(%esp),它的作用相当于一个内存屏障,重排序时不能把后面的指令重排序到内存屏障之前的问题

addl $0x0,(%esp)是一个空操作,关键在于lock,它的作用:

下面开始说人话!!

为了提高处理速度,处理器并不是直接和内存通信,而是先将系统内存的数据读到自己的工作内存中 (缓存) 后再进行其他操作,但操作完不知道何时会写到内存

如果 volatile 变量进行写操作,JVM 就会向处理器发送一条 lock 前缀的指令,将这个变量所在的缓存行的数据写回到系统内存

当处理器发现本地缓存失效后,就会从内存中重新读取该变量数据,即可以获得当前最新值

volatile 原子性??

volatile 不能保证完全的原子性,只能保证单次的读/写操作具有原子性

问题 1:i++ 为什么不能保证原子性??

如果按照我们的设想,应该输出 200000,但是很不幸,并不是!!

因为本质上race++是读、写三次操作

volatile 无法保证这三个操作是原子性的,如果想让结果正确,可以在increase()上加 synchronized 关键字

问题 2:共享的 long 和 double 变量为什么要用 volatile??

Java 内存模型要求,变量的读取操作和写入操作都必须是原子操作,但对于非 volatile 类型的 long 和 double 变量,JVM 允许将 64 位的读操作或写操作分解为两个 32 位操作

当读取一个非 volatile 类型的 long 变量时,如果对该变量的读操作和写操作作为不同的线程执行,那么很可能会读取到某个值的高 32 位和另一个值的低 32 位

因此普通的 long 或 double 类型读/写可能不是原子的,所以鼓励大家将共享的 long 和 double 变量设置为 volatile 类型,这样能保证任何情况下对 long 和 double 单次读/写操作都具有原子性

参考文章