并发编程
1.进程与线程
进程
- 程序由指令和数据组成,但这些指令要运行,数据要读写,就必须将指令加载至 CPU,数据加载至内存。在 指令运行过程中还需要用到磁盘、网络等设备。进程就是用来加载指令、管理内存、管理 IO 的。
- 当一个程序被运行,从磁盘加载这个程序的代码至内存,这时就开启了一个进程。
- 进程就可以视为程序的一个实例。大部分程序可以同时运行多个实例进程(例如记事本、画图、浏览器 等),也有的程序只能启动一个实例进程(例如网易云音乐、360 安全卫士等)
线程
- 一个进程之内可以分为一到多个线程。
- 一个线程就是一个指令流,将指令流中的一条条指令以一定的顺序交给 CPU 执行
- Java 中,线程作为最小调度单位,进程作为资源分配的最小单位。 在 windows 中进程是不活动的,只是作 为线程的容器
二者对比
- 进程基本上相互独立的,而线程存在于进程内,是进程的一个子集
- 进程拥有共享的资源,如内存空间等,供其内部的线程共享
- 进程间通信较为复杂
- 同一台计算机的进程通信称为 IPC(Inter-process communication)
- 不同计算机之间的进程通信,需要通过网络,并遵守共同的协议,例如 HTTP
- 线程通信相对简单,因为它们共享进程内的内存,一个例子是多个线程可以访问同一个共享变量
- 线程更轻量,线程上下文切换成本一般上要比进程上下文切换低
并发
- 单核 cpu 下,线程实际还是 串行执行 的。操作系统中有一个组件叫做任务调度器,将 cpu 的时间片(windows 下时间片最小约为 15 毫秒)分给不同的程序使用,只是由于 cpu 在线程间(时间片很短)的切换非常快,人类感觉是同时运行的 。总结为一句话就是: 微观串行,宏观并行 ,
- 一般会将这种线 程轮流使用 CPU 的做法称为并发, concurrent
并行
- 多核 cpu下,每个 核(core) 都可以调度运行线程,这时候线程可以是并行的。
并发(concurrent)是同一时间应对(dealing with)多件事情的能力
并行(parallel)是同一时间动手做(doing)多件事情的能力
例子:
- 家庭主妇做饭、打扫卫生、给孩子喂奶,她一个人轮流交替做这多件事,这时就是并发
- 家庭主妇雇了个保姆,她们一起这些事,这时既有并发,也有并行(这时会产生竞争,例如锅只有一口,一 个人用锅时,另一个人就得等待)
- 雇了3个保姆,一个专做饭、一个专打扫卫生、一个专喂奶,互不干扰,这时是并行
应用
应用之异步调用(案例1)
以调用方角度来讲,如果
- 需要等待结果返回,才能继续运行就是同步
- 不需要等待结果返回,就能继续运行就是异步
设计:
- 多线程可以让方法执行变为异步的(即不要巴巴干等着)比如说读取磁盘文件时,假设读取操作花费了 5 秒钟,如 果没有线程调度机制,这 5 秒 cpu 什么都做不了,其它代码都得暂停…
结论:
- 比如在项目中,视频文件需要转换格式等操作比较费时,这时开一个新线程处理视频转换,避免阻塞主线程
- tomcat 的异步 servlet 也是类似的目的,让用户线程处理耗时较长的操作,避免阻塞 tomcat 的工作线程
- ui 程序中,开线程进行其他操作,避免阻塞 ui 线程
应用之提高效率(案例1)
充分利用多核 cpu 的优势,提高运行效率。想象下面的场景,执行 3 个计算,最后将计算结果汇总。
计算 1 花费 10 ms
计算 2 花费 11 ms
计算 3 花费 9 ms
汇总需要 1 ms
- 如果是串行执行,那么总共花费的时间是 10 + 11 + 9 + 1 = 31ms
- 但如果是四核 cpu,各个核心分别使用线程 1 执行计算 1,线程 2 执行计算 2,线程 3 执行计算 3,那么 3 个 线程是并行的,花费时间只取决于最长的那个线程运行的时间,即 11ms 最后加上汇总时间只会花费 12ms
注意
需要在多核 cpu 才能提高效率,单核仍然是轮流执行
设计:
代码见{应用之效率-案例1}
结论:
-
单核 cpu 下,多线程不能实际提高程序运行效率,只是为了能够在不同的任务之间切换,不同线程轮流使用 cpu ,不至于一个线程总占用 cpu,别的线程没法干活
多核 cpu 可以并行跑多个线程,但能否提高程序运行效率还是要分情况的
有些任务,经过精心设计,将任务拆分,并行执行,当然可以提高程序的运行效率。但不是所有计算任 务都能拆分(参考后文的【阿姆达尔定律】)
-
也不是所有任务都需要拆分,任务的目的如果不同,谈拆分和效率没啥意义
-
IO 操作不占用 cpu(因为有个DMA在中间帮忙),只是我们一般拷贝文件使用的是【阻塞 IO】,这时相当于线程虽然不用 cpu,但需要一直等待 IO 结束,没能充分利用线程。所以才有后面的【非阻塞 IO】和【异步 IO】优化
2.Java线程
2.1 创建和运行线程
方法一:直接使用Thread
// 创建线程对象
Thread t = new Thread() {
public void run() {
// 要执行的任务
} }; // 启动线程
t.start();
例如:
// 构造方法的参数是给线程指定名字,推荐
Thread t1 = new Thread("t1") {
@Override // run 方法内实现了要执行的任务
public void run() {
log.debug("hello");
}
};
t1.start();
方法二:使用 Runnable 配合 Thread
把【线程】和【任务】(要执行的代码)分开
- Thread 代表线程
- Runnable 可运行的任务(线程要执行的代码)
Runnable runnable = new Runnable() {
public void run(){
// 要执行的任务
}
};
// 创建线程对象
Thread t = new Thread( runnable );
// 启动线程
t.start();
例如:
Runnable runnable = new Runnable() {
public void run(){
// 要执行的任务
log.debug("t1 running");
}
};
// 创建线程对象
Thread t = new Thread( runnable );
t.setName("t1");
// 启动线程
t.start();
log.debug("main running");
Java 8 以后可以使用 lambda 精简代码,一个接口只有一个方法的时候才能使用lambda
// 创建任务对象
Runnable task2 = () -> {log.debug("hello");};
// 参数1 是任务对象; 参数2 是线程名字,推荐
Thread t2 = new Thread(task2, "t2");
t2.start();
原理之 Thread 与 Runnable 的关系:
分析 Thread 的源码,理清它与 Runnable 的关系
小结:
- 方法1 是把线程和任务合并在了一起,方法2 是把线程和任务分开了
- 用 Runnable 更容易与线程池等高级 API 配合
- 用 Runnable 让任务类脱离了 Thread 继承体系,更灵活
方法三:FutureTask 配合 Thread
FutureTask 能够接收 Callable 类型的参数,用来处理有返回结果的情况
FutureTask 实现 RunnableFuture接口
RunnableFuture extends Runnable, Future
Future 接口返回任务执行结果
Callable可以抛出异常
// 创建任务对象
FutureTask<Integer> task3 = new FutureTask<>(new Callable<Integer>() {
@Override
public Integer call() throws Exception {
log.debug("hello");
Thread.sleep(2000);
return 100;
}
});
//FutureTask<Integer> task3 = new FutureTask<>(() -> {
//log.debug("hello");
//return 100;
//});
// 参数1 是任务对象; 参数2 是线程名字,推荐
new Thread(task3, "t3").start();
// 主线程阻塞,同步等待 task 执行完毕的结果
Integer result = task3.get();
log.debug("结果是:{}", result);
2.2 观察多个线程同时运行
主要是理解
- 交替执行
- 谁先谁后,不由我们控制
2.3 查看进程线程的方法
windows
- 任务管理器可以查看进程和线程数,也可以用来杀死进程
- tasklist 查看进程
- taskkill 杀死进程
linux
- ps -fe 查看所有进程
- ps -fT -p 查看某个进程(PID)的所有线程
- kill 杀死进程
- top 按大写 H 切换是否显示线程
- top -H -p 查看某个进程(PID)的所有线程
Java
- jps 命令查看所有 Java 进程
- jstack 查看某个 Java 进程(PID)的所有线程状态 快照 不是实时的
- jconsole 来查看某个 Java 进程中线程的运行情况(图形界面)
jconsole 远程监控配置
- 需要以如下方式运行你的 java 类 配置好后才能被远程监控
java -Djava.rmi.server.hostname=`ip地址` -Dcom.sun.management.jmxremote Dcom.sun.management.jmxremote.port=`连接端口` -
Dcom.sun.management.jmxremote.ssl=是否安全连接
Dcom.sun.management.jmxremote.authenticate=是否认证 java类
- 修改 /etc/hosts 文件将 127.0.0.1 映射至主机名
如果要认证访问,还需要做如下步骤 - 复制 jmxremote.password 文件
- 修改 jmxremote.password 和 jmxremote.access 文件的权限为 600 即文件所有者可读写
- 连接时填入 controlRole(用户名),R&D(密码)
2.4 原理之线程运行
栈与栈帧
Java Virtual Machine Stacks (Java 虚拟机栈)
我们都知道 JVM 中由堆、栈、方法区所组成,其中栈内存是给谁用的呢?其实就是线程,每个线程启动后,虚拟机就会为其分配一块栈内存。
- 每个栈由多个栈帧(Frame)组成,对应着每次方法调用时所占用的内存 ;局部变量 方法参数 返回值 在 帧里 方法执行完 内存就释放掉了;栈帧在创建时就把参数的空间分配好,不是执行到哪行代码在创建;方法切换时 会记录运行到哪行了 之后回到这个方法之后 继续从那一行执行
- 每个线程只能有一个活动栈帧,对应着当前正在执行的那个方法
线程上下文切换(Thread Context Switch)
因为以下一些原因导致 cpu 不再执行当前的线程,转而执行另一个线程的代码
- 线程的 cpu 时间片用完 (被动)
- 垃圾回收、垃圾回收使当前所有工作线程暂停,垃圾回收线程工作 (被动)
- 有更高优先级的线程需要运行 (被动)
- 线程自己调用了 sleep、yield、wait、join、park、synchronized、lock 等方法(主动)
当 Context Switch 发生时,需要由操作系统保存当前线程的状态,并恢复另一个线程的状态,Java 中对应的概念 就是程序计数器(Program Counter Register),它的作用是记住下一条 jvm 指令的执行地址,是线程私有的
- 状态包括程序计数器、虚拟机栈中每个栈帧的信息,如局部变量、操作数栈、返回地址等
- Context Switch 频繁发生会影响性能
2.5 常见方法
2.6 start与run
调用run
public static void main(String[] args) {
Thread t1 = new Thread("t1") {
@Override
public void run() {
log.debug(Thread.currentThread().getName());
FileReader.read(Constants.MP4_FULL_PATH);
}
};
t1.run();
log.debug("do other things ...");
}
输出
19:39:14 [main] c.TestStart - main
19:39:14 [main] c.FileReader - read [1.mp4] start ...
19:39:18 [main] c.FileReader - read [1.mp4] end ... cost: 4227 ms
19:39:18 [main] c.TestStart - do other things ...
程序仍在 main 线程运行, FileReader.read() 方法调用还是同步的
调用 start
将上述代码的 t1.run() 改为 t1.start();
输出:
19:41:30 [main] c.TestStart - do other things ...
19:41:30 [t1] c.TestStart - t1
19:41:30 [t1] c.FileReader - read [1.mp4] start ...
19:41:35 [t1] c.FileReader - read [1.mp4] end ... cost: 4542 ms
程序在 t1 线程运行, FileReader.read() 方法调用是异步的
小结
- 直接调用 run 是在主线程中执行了 run,没有启动新的线程
- 使用 start 是启动新的线程,通过新的线程间接执行 run 中的代码
2.7 sleep与yield
sleep
-
调用 sleep 会让当前线程从 Running 进入 Timed Waiting 状态(阻塞)时间片不会分给阻塞线程
-
其它线程可以使用 interrupt 方法打断正在睡眠的线程,这时 sleep 方法会抛出 InterruptedException
-
睡眠结束后的线程未必会立刻得到执行,等任务调度器把新的时间片分给这个线程
-
建议用 TimeUnit 的 sleep 代替 Thread 的 sleep 来获得更好的可读性,有时间单位 TumeUnit.SECONDS.sleep(1)
yield
- 调用 yield 会让当前线程从 Running 进入 Runnable 就绪状态,然后调度执行其它线程
- 具体的实现依赖于操作系统的任务调度器 因为进入到就绪状态 如果没有其他线程 调度器还是会调用这个线程运行
线程优先级
- 线程优先级会提示(hint)调度器优先调度该线程,但它仅仅是一个提示,调度器可以忽略它
- 如果 cpu 比较忙,那么优先级高的线程会获得更多的时间片,但 cpu 闲时,优先级几乎没作用
防止CPU占用100%
sleep实现:
2.8 join方法详解
为什么需要 join
下面的代码执行,打印 r 是什么?
打印的r为0 因为 t1线程睡了1s,主线程执行完了 输出r为0 1s之后 r为10 但是已经打印完了
- 因为主线程和线程 t1 是并行执行的,t1 线程需要 1 秒之后才能算出 r=10
- 而主线程一开始就要打印 r 的结果,所以只能打印出 r=0
解决方法
- 用 sleep 行不行?为什么? 不行 因为有时候不知道该sleep多少时间
- 用 join,加在 t1.start() 之后即可 放在主线程 表示主线程直到t1运行结束之后才可以继续运行
- join 等某个线程执行结束
以调用方角度来讲,如果
- 需要等待结果返回,才能继续运行就是同步
- 不需要等待结果返回,就能继续运行就是异步
调用方:main线程 需要等待t1线程执行完成 才能继续进行 同步
差值 2 s 因为t1 和 t2同时运行的
分析如下
- 第一个 join:等待 t1 时, t2 并没有停止, 而在运行
- 第二个 join:1s 后, 执行到此, t2 也运行了 1s, 因此也只需再等待 1s
如果颠倒两个 join 呢?
2 s
20:45:43.239 [main] c.TestJoin - r1: 10 r2: 20 cost: 2005
有时效的 join
等够时间
输出:
如果实际等待时间没有那么长 也会提前结束等待
20:48:01.320 [main] c.TestJoin - r1: 10 r2: 0 cost: 1010
没等够时间:
输出:
20:52:15.623 [main] c.TestJoin - r1: 0 r2: 0 cost: 1502
2.9 interrupt 方法详解
打断 sleep,wait,join 的线程
这几个方法都会让线程进入阻塞状态,join底层就是用wait
打断 sleep 的线程, 会清空打断状态,以 sleep 为例
java.lang.InterruptedException: sleep interrupted at java.lang.Thread.sleep(Native Method)
at java.lang.Thread.sleep(Thread.java:340)
at java.util.concurrent.TimeUnit.sleep(TimeUnit.java:386)
at cn.itcast.n2.util.Sleeper.sleep(Sleeper.java:8)
at cn.itcast.n4.TestInterrupt.lambda$test1$3(TestInterrupt.java:59)
at java.lang.Thread.run(Thread.java:745)
21:18:10.374 [main] c.TestInterrupt - 打断状态: false
打断正常运行的线程
打断正常运行的线程, 不会清空打断状态
调用interrupt 无法打断这个线程 到底时候要打断 要这个线程来决定 相当于告诉这个线程有人想打断你 你怎么办?
输出:
20:57:37.964 [t2] c.TestInterrupt -打断状态: true
两阶段终止模式
错误思路:
两种打断情况:
睡眠中打断
运行其他代码时打断
如果不在catch里执行current.interrupt 打断后 会抛出异常 但会被清除打断标记 所以接下来还会监控下去
打断park线程
打断 park 线程, 不会清空打断状态
private static void test3() throws InterruptedException {
Thread t1 = new Thread(() -> {
log.debug("park...");
LockSupport.park();
log.debug("unpark...");
log.debug("打断状态:{}", Thread.currentThread().isInterrupted());
}, "t1");
t1.start();
sleep(0.5);
t1.interrupt();
}
输出
21:11:52.795 [t1] c.TestInterrupt - park...
21:11:53.295 [t1] c.TestInterrupt - unpark...
21:11:53.295 [t1] c.TestInterrupt - 打断状态:true
当打断标记为true的时候 即使再调用LockSupport.park(),park失效
输出
21:13:48.783 [Thread-0] c.TestInterrupt - park...
21:13:49.809 [Thread-0] c.TestInterrupt - 打断状态:true
21:13:49.812 [Thread-0] c.TestInterrupt - park...
21:13:49.813 [Thread-0] c.TestInterrupt - 打断状态:true
21:13:49.813 [Thread-0] c.TestInterrupt - park...
21:13:49.813 [Thread-0] c.TestInterrupt - 打断状态:true
21:13:49.813 [Thread-0] c.TestInterrupt - park...
21:13:49.813 [Thread-0] c.TestInterrupt - 打断状态:true
21:13:49.813 [Thread-0] c.TestInterrupt - park...
21:13:49.813 [Thread-0] c.TestInterrupt - 打断状态:true
提示 可以使用
Thread.interrupted() 清除打断状态
2.10 不推荐的方法
还有一些不推荐使用的方法,这些方法已过时,容易破坏同步代码块,造成线程死锁
2.11 主线程与守护线程
默认情况下,Java 进程需要等待所有线程都运行结束,才会结束。有一种特殊的线程叫做守护线程,只要其它非守护线程运行结束了,即使守护线程的代码没有执行完,也会强制结束。
输出:
其他非守护线程结束了 设置为daemon的线程(守护线程)也会强制结束 即使他之前一直在while(true)运行
- 垃圾回收器线程就是一种守护线程
- Tomcat 中的 Acceptor 和 Poller 线程都是守护线程,所以 Tomcat 接收到 shutdown 命令后,不会等待它们处理完当前请求
2.12 五种状态
这是从 操作系统 层面来描述的
- 【初始状态】仅是在语言层面创建了线程对象,还未与操作系统线程关联
- 【可运行状态】(就绪状态)指该线程已经被创建(与操作系统线程关联),可以由 CPU 调度执行
- 【运行状态】指获取了 CPU 时间片运行中的状态
- 当 CPU 时间片用完,会从【运行状态】转换至【可运行状态】,会导致线程的上下文切换
- 【阻塞状态】
- 如果调用了阻塞 API,如 BIO 读写文件,这时该线程实际不会用到 CPU,会导致线程上下文切换,进入 【阻塞状态】
- 等 BIO 操作完毕,会由操作系统唤醒阻塞的线程,转换至【可运行状态】
- 与【可运行状态】的区别是,对【阻塞状态】的线程来说只要它们一直不唤醒,调度器就一直不会考虑 调度它们
- 【终止状态】表示线程已经执行完毕,生命周期已经结束,不会再转换为其它状态
2.13 六种状态
这是从 Java API 层面来描述的
根据 Thread.State 枚举,分为六种状态
- NEW 线程刚被创建,但是还没有调用 start() 方法
- RUNNABLE 当调用了 start() 方法之后,注意,Java API 层面的 RUNNABLE 状态涵盖了操作系统层面的 【可运行状态】、【运行状态】和【阻塞状态】(由于 BIO 导致的线程阻塞,在 Java 里无法区分,仍然认为是可运行)
- BLOCKED , WAITING , TIMED_WAITING 都是 Java API 层面对【阻塞状态】的细分,后面会在状态转换一节详述; blocked 想获得锁但拿不到锁;waiting 没有时间的等待,一直等 ;timed_waiting 有时间的等待
- TERMINATED 当线程代码运行结束
2.14 习题
阅读华罗庚《统筹方法》,给出烧水泡茶的多线程解决方案,提示
- 参考图二,用两个线程(两个人协作)模拟烧水泡茶过程
- 文中办法乙、丙都相当于任务串行
- 而图一相当于启动了 4 个线程,有点浪费 用 sleep(n) 模拟洗茶壶、洗水壶等耗费的时间
附:华罗庚《统筹方法》
2.15 本章小结
本章的重点在于掌握
- 线程创建
- 线程重要 api,如 start,run,sleep,join,interrupt 等
- 线程状态
- 应用方面
- 异步调用:主线程执行期间,其它线程异步执行耗时操作
- 提高效率:并行计算,缩短运算时间
- 同步等待:join
- 统筹规划:合理使用线程,得到最优效果
- 原理方面
- 线程运行流程:栈、栈帧、上下文切换、程序计数器
- Thread 两种创建方式 的源码
- 模式方面
- 终止模式之两阶段终止
3.共享模型之管程
3.1 共享带来的问题
两个线程对初始值为 0 的静态变量一个做自增,一个做自减,各做 5000 次,结果是 0 吗?
问题分析
以上的结果可能是正数、负数、零。为什么呢?因为 Java 中对静态变量的自增,自减并不是原子操作,要彻底理解,必须从字节码来进行分析
例如对于 i++ 而言(i 为静态变量),实际会产生如下的 JVM 字节码指令:
而对应 i-- 也是类似:
而Java 的内存模型如下,完成静态变量的自增,自减需要在主存和工作内存中进行数据交换:
如果是单线程以上 8 行代码是顺序执行(不会交错)没有问题:
但多线程下这 8 行代码可能交错运行:
出现负数的情况:
出现正数的情况:
临界区 Critical Section
- 一个程序运行多个线程本身是没有问题的
- 问题出在多个线程访问共享资源
- 多个线程读共享资源其实也没有问题
- 在多个线程对共享资源读写操作时发生指令交错,就会出现问题
- 一段代码块内如果存在对共享资源的多线程读写操作,称这段代码块为临界区
例如,下面代码中的临界区
static int counter = 0;
static void increment()
// 临界区
{
counter++;
}
static void decrement()
// 临界区
{
counter--;
}
竞态条件 Race Condition
多个线程在临界区内执行,由于代码的执行序列不同而导致结果无法预测,称之为发生了竞态条件
3.2 synchronized 解决方案
为了避免临界区的竞态条件发生,有多种手段可以达到目的。
- 阻塞式的解决方案:synchronized,Lock
- 非阻塞式的解决方案:原子变量
本次课使用阻塞式的解决方案:synchronized,来解决上述问题,即俗称的【对象锁】,它采用互斥的方式让同一 时刻至多只有一个线程能持有【对象锁】,其它线程再想获取这个【对象锁】时就会阻塞住。这样就能保证拥有锁 的线程可以安全的执行临界区内的代码,不用担心线程上下文切换
虽然 java 中互斥和同步都可以采用 synchronized 关键字来完成,但它们还是有区别的:
- 互斥是保证临界区的竞态条件发生,同一时刻只能有一个线程执行临界区代码
- 同步是由于线程执行的先后、顺序不同、需要一个线程等待其它线程运行到某个点
synchronized
语法:
synchronized(对象) // 线程1, 线程2(blocked) {
临界区
}
输出: 0
你可以做这样的类比:
- synchronized(对象) 中的对象,可以想象为一个房间(room),有唯一入口(门)房间只能一次进入一人 进行计算,线程 t1,t2 想象成两个人
- 当线程 t1 执行到 synchronized(room) 时就好比 t1 进入了这个房间,并锁住了门拿走了钥匙,在门内执行 count++ 代码
- 这时候如果 t2 也运行到了 synchronized(room) 时,它发现门被锁住了,只能在门外等待,发生了上下文切 换,阻塞住了
- 这中间即使 t1 的 cpu 时间片不幸用完,被踢出了门外(不要错误理解为锁住了对象就能一直执行下去哦), 这时门还是锁住的,t1 仍拿着钥匙,t2 线程还在阻塞状态进不来,只有下次轮到 t1 自己再次获得时间片时才 能开门进入
- 当 t1 执行完 synchronized{} 块内的代码,这时候才会从 obj 房间出来并解开门上的锁,唤醒 t2 线程把钥 匙给他。t2 线程这时才可以进入 obj 房间,锁住了门拿上钥匙,执行它的 count-- 代码
用图来表示:
思考
synchronized 实际是用对象锁保证了临界区内代码的原子性,临界区内的代码对外是不可分割的,不会被线程切换所打断。
为了加深理解,请思考下面的问题
第一个问题的答案:5000*4 这么多行指令是个整体,不会被打断
第二个问题的答案:不行 两个不同的房间 保护的不是一个东西
第三个问题的答案:线程2加锁后 轮到线程1执行后 他没有尝试获取锁 直接就操作了 所以不能保护
面向对象的改进
把需要保护的共享变量放入一个类
3.3 方法上的 synchronized
synchronized只能锁对象
不加 synchronized 的方法
不加 synchronzied 的方法就好比不遵守规则的人,不去老实排队(好比翻窗户进去的)
所谓的“线程八锁”
其实就是考察 synchronized 锁住的是哪个对象
情况1:12 或 21
情况2:1s后12,或 2 1s后 1
情况3:3 1s 12 或 23 1s 1 或 32 1s 1
情况4:2 1s 后 1
情况5:2 1s 后 1 锁的不是一个对象
情况6:1s 后12, 或 2 1s后 1 锁的同一个对象 类对象
情况7:2 1s 后 1 线程1锁的类对象 线程2锁的是n2对象 不是一个对象
情况8:1s 后12, 或 2 1s后 1 用的同一个Number.class对象 互斥
3.4 变量的线程安全分析
成员变量和静态变量是否线程安全?
- 如果它们没有共享,则线程安全
- 如果它们被共享了,根据它们的状态是否能够改变,又分两种情况
- 如果只有读操作,则线程安全
- 如果有读写操作,则这段代码是临界区,需要考虑线程安全
局部变量是否线程安全?
- 局部变量是线程安全的
- 但局部变量引用的对象则未必
- 如果该对象没有逃离方法的作用访问,它是线程安全的
- 如果该对象逃离方法的作用范围,需要考虑线程安全
局部变量线程安全分析
public static void test1() {
int i = 10;
i++;
}
每个线程调用 test1() 方法时局部变量 i,会在每个线程的栈帧内存中被创建多份,因此不存在共享
如图:
局部变量的引用稍有不同
先看一个成员变量的例子:
其中一种情况是,如果线程2 还未 add,线程1 remove 就会报错:或者两个线程同时加 但只加了一个
将 list 修改为局部变量
那么就不会有上述问题了
分析:
- list 是局部变量,每个线程调用时会创建其不同实例,没有共享
- 而 method2 的参数是从 method1 中传递过来的,与 method1 中引用同一个对象
- method3 的参数分析与 method2 相同
方法访问修饰符带来的思考,如果把 method2 和 method3 的方法修改为 public 会不会代理线程安全问题?
- 情况1:有其它线程调用 method2 和 method3 :不会 因为其他线程调用方法2和方法3传的参数list不一样,不是同一个女
- 情况2:在 情况1 的基础上,为 ThreadSafe 类添加子类,子类覆盖 method2 或 method3 方法,即
启示:修饰符有意义 私有和 final可以保护线程安全 子类不能覆盖父类的私有方法 即使重名 也没有关系
从这个例子可以看出 private 或 final 提供【安全】的意义所在,请体会开闭原则中的【闭】
常见线程安全类
- String
- Integer
- StringBuffer
- Random
- Vector
- Hashtable
- java.util.concurrent 包下的类
这里说它们是线程安全的是指,多个线程调用它们同一个实例的某个方法时,是线程安全的。也可以理解为
- 它们的每个方法是原子的
- 但注意它们多个方法的组合不是原子的,见后面分析
线程安全类方法的组合
分析下面代码是否是线程安全的
不可变类线程安全性
String、Integer 等都是不可变类,因为其内部的状态不可以改变,因此它们的方法都是线程安全的
有同学或许有疑问,String 有 replace,substring 等方法【可以】改变值啊,那么这些方法又是如何保证线程安 全的呢?
创建了一个新对象
实例分析:
public class MyServlet extends HttpServlet {
// 是否安全? Map<String,Object> map = new HashMap<>(); 不安全
// 是否安全? String S1 = "..."; 安全
// 是否安全? final String S2 = "..."; 安全
// 是否安全? Date D1 = new Date(); 不安全
// 是否安全? final Date D2 = new Date(); 不安全
日期 里面的属性 可以发生修改
字符串不行
这是不安全的
MyServlet只有一份 所以userService也只有一份 所以会共享
count是共享资源
不安全
没加scope的都是单例的,所以会被共享 成员变量也会被共享
UserDaoImpl没有成员变量 所以是线程安全的 connection也是线程安全的 因为他是局部变量 所以每个线程都会创建一个connection
UserServiceImpl里面也是线程安全的,因为userdao里没有属性 不会被资源共享 无状态的
也是安全的 userservice 虽然里面有成员变量 但是她是私有的 没有其他地方可以修改他
Connection没有作为局部变量 作为了成员变量 因为只有一个UserDao,所以这个会被多个线程共享,所以con被多个线程共享 不安全
安全
线程一创建了一个userdao 线程二又创建了一个userdao 所以是安全的
其中 foo 的行为是不确定的,可能导致不安全的发生,被称之为外星方法
闭原则 final private
String是final修饰的
3.5 习题
卖票练习
测试下面代码是否存在线程安全问题,并尝试改正
这个是临界区
amountlist 没有线程安全问题 因为
被synchronized修饰过了
threadlist不需要保护 因为在主线程中
转账练习
这样改正行不行,为什么?
不行,因为在临界区有两个共享变量a b,this只能保护一个 访问另一个的时候还是可以访问
这个可以,因为他们都使用account类
3.6 Monitor 概念
Java 对象头
以 32 位虚拟机为例
每个对象都一个类型 怎么知道他的类型的呢?通过Kclass Word可以找到类对象 是一个指针 找到它从属的class
64 位虚拟机 Mark Word
Monitor(锁)
原理之 synchronized
对应的字节码为:
小故事:
故事角色
- 老王 - JVM
- 小南 - 线程
- 小女 - 线程
- 房间 - 对象
- 房间门上 - 防盗锁 - Monitor
- 房间门上 - 小南书包 - 轻量级锁
- 房间门上 - 刻上小南大名 - 偏向锁
- 批量重刻名 - 一个类的偏向锁撤销到达 20 阈值
- 不能刻名字 - 批量撤销该类对象的偏向锁,设置该类不可偏向
小南要使用房间保证计算不被其它人干扰(原子性),最初,他用的是防盗锁,当上下文切换时,锁住门。这样, 即使他离开了,别人也进不了门,他的工作就是安全的。
但是,很多情况下没人跟他来竞争房间的使用权。小女是要用房间,但使用的时间上是错开的,小南白天用,小女 晚上用。每次上锁太麻烦了,有没有更简单的办法呢?
小南和小女商量了一下,约定不锁门了,而是谁用房间,谁把自己的书包挂在门口,但他们的书包样式都一样,因 此每次进门前得翻翻书包,看课本是谁的,如果是自己的,那么就可以进门,这样省的上锁解锁了。万一书包不是 自己的,那么就在门外等,并通知对方下次用锁门的方式。
后来,小女回老家了,很长一段时间都不会用这个房间。小南每次还是挂书包,翻书包,虽然比锁门省事了,但仍 然觉得麻烦。
于是,小南干脆在门上刻上了自己的名字:【小南专属房间,其它人勿用】,下次来用房间时,只要名字还在,那 么说明没人打扰,还是可以安全地使用房间。如果这期间有其它人要用这个房间,那么由使用者将小南刻的名字擦 掉,升级为挂书包的方式。
同学们都放假回老家了,小南就膨胀了,在 20 个房间刻上了自己的名字,想进哪个进哪个。后来他自己放假回老 家了,这时小女回来了(她也要用这些房间),结果就是得一个个地擦掉小南刻的名字,升级为挂书包的方式。老 王觉得这成本有点高,提出了一种批量重刻名的方法,他让小女不用挂书包了,可以直接在门上刻上自己的名字
后来,刻名的现象越来越频繁,老王受不了了:算了,这些房间都不能刻名了,只能挂书包
轻量级锁
轻量级锁的使用场景:如果一个对象虽然有多线程要加锁,但加锁的时间是错开的(也就是没有竞争),那么可以 使用轻量级锁来优化。
轻量级锁对使用者是透明的,即语法仍然是 synchronized
假设有两个方法同步块,利用同一个对象加锁
- 创建锁记录(Lock Record)对象,每个线程 的栈帧都会包含一个锁记录的结构,内部可以存储锁定对象的 Mark Word
- 让锁记录中 Object reference 指向锁对象,并尝试用 cas 替换 Object 的 Mark Word,将 Mark Word 的值存 入锁记录 正常状态01 轻量级加锁00
- CAS(Compare and swap)比较和替换是设计并发算法时用到的一种技术。简单来说,比较和替换是使用一个期望值和一个变量的当前值进行比较,如果当前变量的值与我们期望的值相等,就使用一个新值替换当前变量的值。
- 如果 cas 替换成功,对象头中存储了 锁记录地址和状态 00 ,表示由该线程给对象加锁,这时图示如下
- 成功条件:对象状态为01 说明是正常状态 无锁状态 如果markword被其他线程改了 不是01了 就不能成功
- 交换操作是原子的
- 如果 cas 失败,有两种情况
- 如果是其它线程已经持有了该 Object 的轻量级锁,这时表明有竞争,进入锁膨胀过程
- 如果是自己执行了 synchronized 锁重入,那么再添加一条 Lock Record 作为重入的计数
- 当退出 synchronized 代码块(解锁时)如果有取值为 null 的锁记录,表示有重入,这时重置锁记录,表示重入计数减一
- 当退出 synchronized 代码块(解锁时)锁记录的值不为 null,这时使用 cas 将 Mark Word 的值恢复给对象头
- 成功,则解锁成功
- 失败,说明轻量级锁进行了锁膨胀或已经升级为重量级锁,进入重量级锁解锁流程
锁膨胀
如果在尝试加轻量级锁的过程中,CAS 操作无法成功,这时一种情况就是有其它线程为此对象加上了轻量级锁(有 竞争),这时需要进行锁膨胀,将轻量级锁变为重量级锁。
- 当 Thread-1 进行轻量级加锁时,Thread-0 已经对该对象加了轻量级锁
- 这时 Thread-1 加轻量级锁失败,进入锁膨胀流程
- 即为 Object 对象申请 Monitor 锁,让 Object 指向重量级锁地址
- 然后自己进入 Monitor 的 EntryList BLOCKED
- 当 Thread-0 退出同步块解锁时,使用 cas 将 Mark Word 的值恢复给对象头,失败。这时会进入重量级解锁流程,即按照 Monitor 地址找到 Monitor 对象,设置 Owner 为 null,唤醒 EntryList 中 BLOCKED 线程
自旋优化
重量级锁竞争的时候,还可以使用自旋来进行优化,如果当前线程自旋成功(即这时候持锁线程已经退出了同步 块,释放了锁),这时当前线程就可以避免阻塞。 自旋 循环。
因为阻塞要发生上下文切换 比较麻烦
自旋重试成功的情况:
自旋重试失败的情况:
- 自旋会占用 CPU 时间,单核 CPU 自旋就是浪费,多核 CPU 自旋才能发挥优势。
- 在 Java 6 之后自旋锁是自适应的,比如对象刚刚的一次自旋操作成功过,那么认为这次自旋成功的可能性会 高,就多自旋几次;反之,就少自旋甚至不自旋,总之,比较智能。
- Java 7 之后不能控制是否开启自旋功能
偏向锁
轻量级锁在没有竞争时(就自己这个线程),每次重入仍然需要执行 CAS 操作。
Java 6 中引入了偏向锁来做进一步优化:只有第一次使用 CAS 将线程 ID 设置到对象的 Mark Word 头(不存锁记录的地址了),之后发现这个线程 ID 是自己的就表示没有竞争,不用重新 CAS。以后只要不发生竞争,这个对象就归该线程所有
例如:
回忆一下对象头格式
biased_lock:0 没有启用偏向锁
一个对象创建时:
-
如果开启了偏向锁(默认开启),那么对象创建后,markword 值为 0x05 即最后 3 位为 101,这时它的 thread、epoch、age 都为 0
-
偏向锁是默认是延迟的,不会在程序启动时立即生效,如果想避免延迟,可以加 VM 参数 XX:BiasedLockingStartupDelay=0 来禁用延迟
-
如果没有开启偏向锁,那么对象创建后,markword 值为 0x01 即最后 3 位为 001,这时它的 hashcode、 age 都为 0,第一次用到 hashcode 时才会赋值
测试偏向锁:
释放了锁之后 markword还存储线程id,除非有别的线程使用这个对象
测试禁用:因为通常情况会有很多线程竞争对象 一上来就使用偏向锁有些不合适 所以我们可以禁掉它
在上面测试代码运行时在添加 VM 参数 -XX:-UseBiasedLocking 禁用偏向锁
00 轻量级锁
撤销偏向锁 - 调用对象 hashCode
开启偏向锁 并且关闭延迟
正常状态对象一开始是没有 hashCode 的,第一次调用才生成 会填入到markword
调用了对象的 hashCode,但偏向锁的对象 MarkWord 中存储的是线程 id,如果调用 hashCode 会导致偏向锁被 撤销 因为没有地方存hashcode
轻量级锁会在锁记录中记录 hashCode
重量级锁会在 Monitor 中记录 hashCode
撤销偏向锁- 其它线程使用对象
当有其它线程使用偏向锁对象时,会将偏向锁升级为轻量级锁
使用wait是因为想达到两个线程交错使用这个对象的情况 而不是同时使用竞争 因为同时竞争 会升级成重量级锁
撤销偏向锁- 调用 wait/notify
因为只有重量级锁 才有 wait/notify 机制
批量重偏向
如果对象虽然被多个线程访问,但没有竞争,这时偏向了线程 T1 的对象仍有机会重新偏向 T2,重偏向会重置对象 的 Thread ID
当撤销偏向锁阈值超过 20 次后,jvm 会这样觉得,我是不是偏向错了呢,于是会在给这些对象加锁时重新偏向至 加锁线程
批量撤销偏向锁
当撤销偏向锁阈值超过 40 次后,jvm 会这样觉得,自己确实偏向错了,根本就不该偏向。于是整个类的所有对象 都会变为不可偏向的,新建的对象也是不可偏向的
锁消除
JIT即使编译器
o是一个局部变量 对它加锁没有意义 所以JIT会把这个sychronized代码优化掉 就好像没有一样 锁消除优化
加sychronized会比不加慢
3.7 wait notify
-
由于条件不满足,小南不能继续进行计算
-
但小南如果一直占用着锁,其它人就得一直阻塞,效率太低
-
于是老王单开了一间休息室(调用 wait 方法),让小南到休息室(WaitSet)等着去了,但这时锁释放开, 其它人可以由老王随机安排进屋
-
直到小M将烟送来,大叫一声 [ 你的烟到了 ] (调用 notify 方法)
-
小南于是可以离开休息室,重新进入竞争锁的队列
wait notify 原理
- Owner 线程发现条件不满足,调用 wait 方法,即可进入 WaitSet 变为 WAITING 状态
- BLOCKED 和 WAITING 的线程都处于阻塞状态,不占用 CPU 时间片
- BLOCKED 线程会在 Owner 线程释放锁时唤醒
- WAITING 线程会在 Owner 线程调用 notify 或 notifyAll 时唤醒,但唤醒后并不意味者立刻获得锁,仍需进入 EntryList 重新竞争
API 介绍
- obj.wait() 让进入 object 监视器的线程到 waitSet 等待
- obj.notify() 在 object 上正在 waitSet 等待的线程中挑一个唤醒
- obj.notifyAll() 让 object 上正在 waitSet 等待的线程全部唤醒
它们都是线程之间进行协作的手段,都属于 Object 对象的方法。必须获得此对象的锁,才能调用这几个方法
wait() 方法会释放对象的锁,进入 WaitSet 等待区,从而让其他线程就机会获取对象的锁。无限制等待,直到 notify 为止
wait(long n) 有时限的等待, 到 n 毫秒后结束等待,或是被 notify
3.8 wait notify 的正确姿势
开始之前先看看
sleep(long n) 和 wait(long n) 的区别
- sleep 是 Thread 静态方法,而 wait 是 Object 的方法
- sleep 不需要强制和 synchronized 配合使用,但 wait 需要 和 synchronized 一起用
- sleep 在睡眠的同时,不会释放对象锁的,但 wait 在等待的时候会释放对象锁
- 它们 状态 TIMED_WAITING
技巧:创建锁对象加final 保证引用不可变 使用的对象是同一个对象
step 1
static final Object room = new Object();
static boolean hasCigarette = false;
static boolean hasTakeout = false;
思考下面的解决方案好不好,为什么?
输出
- 其它干活的线程,都要一直阻塞,效率太低
- 小南线程必须睡足 2s 后才能醒来,就算烟提前送到,也无法立刻醒来
- 加了 synchronized (room) 后,就好比小南在里面反锁了门睡觉,烟根本没法送进门,main 没加 synchronized 就好像 main 线程是翻窗户进来的
- 解决方法,使用 wait - notify 机制
如果给送烟的加sychronized,送烟都送不了
step 2
思考下面的实现行吗,为什么?
输出
- 解决了其它干活的线程阻塞的问题
- 但如果有其它线程也在等待条件呢?
step 3
输出
- notify 只能随机唤醒一个 WaitSet 中的线程,这时如果有其它线程也在等待,那么就可能唤醒不了正确的线 程,称之为【虚假唤醒】
- 解决方法,改为 notifyAll
step 4
- 用 notifyAll 仅解决某个线程的唤醒问题,但使用 if + wait 判断仅有一次机会,一旦条件不成立,就没有重新 判断的机会了
- 解决方法,用 while + wait,当条件不成立,再次 wait
step 5
将 if 改为 while
改动后
同步模式之保护性暂停
- 定义
即 Guarded Suspension,用在一个线程等待另一个线程的执行结果
要点
- 有一个结果需要从一个线程传递到另一个线程,让他们关联同一个 GuardedObject
- 如果有结果不断从一个线程到另一个线程那么可以使用消息队列(见生产者/消费者)
- JDK 中,join 的实现、Future 的实现,采用的就是此模式
- 因为要等待另一方的结果,因此归类到同步模式
- 实现
用来下载百度主页(不重要)
与join对比,join有局限性 因为 必须要等待线程执行结束 才能让另一个线程执行 而用了这个方法 t2线程不用非要结束 t1才能运行
另外 使用join 不能使用局部变量 传值 而这个方法可以用局部变量接收 List list
- 带超时版 GuardedObject
如果要控制超时时间呢
可以直接使用this.wait(timeout)吗?不可以 当本轮已经等了一段时间了 之后发生了虚假唤醒 退出本轮循环 进入下一次循环 判断 response为null 还要进入循环 所以又要等 timeou的时间 相等于等了 上一轮等的时间+本轮要等的timeout 所以 多等了 因为要求等timeout的时间就行 所以使用
long waitTime = timeout - timePassed; 不会多等
测试:
测试虚假唤醒
join 原理
4. 多任务版 GuardedObject
图中 Futures 就好比居民楼一层的信箱(每个信箱有房间编号),左侧的 t0,t2,t4 就好比等待邮件的居民,右 侧的 t1,t3,t5 就好比邮递员
如果需要在多个类之间使用 GuardedObject 对象,作为参数传递不是很方便,因此设计一个用来解耦的中间类, 这样不仅能够解耦【结果等待者】和【结果生产者】,还能够同时支持多个任务的管理
新增 id 用来标识 Guarded Object
中间解耦类
业务相关类
测试
结果产生者和结果消费者是一一对应的
异步模式之生产者/消费者
- 定义
要点
- 与前面的保护性暂停中的 GuardObject 不同,不需要产生结果和消费结果的线程一一对应
- 消费队列可以用来平衡生产和消费的线程资源
- 生产者仅负责产生结果数据,不关心数据该如何处理,而消费者专心处理结果数据
- 消息队列是有容量限制的,满时不会再加入数据,空时不会再消耗数据
- JDK 中各种阻塞队列,采用的就是这种模式
- 异步的原因是 生产者生产之后 不会立刻被消费者拿到 在消息队列里会有延迟 而之前同步模式 生产之后会立刻被消费者拿到
2. 实现
3.9 Park & Unpark
基本使用
它们是 LockSupport 类中的方法
// 暂停当前线程
LockSupport.park();
// 恢复某个线程的运行
LockSupport.unpark(暂停线程对象)
先park 再 unpark
当先调用unpark 后在调用 park
unpark可以在park之前调用
特点
与 Object 的 wait & notify 相比
- wait,notify 和 notifyAll 必须配合 Object Monitor 一起使用,而 park,unpark 不必
- park & unpark 是以线程为单位来【阻塞】和【唤醒】线程,而 notify 只能随机唤醒一个等待线程,notifyAll是唤醒所有等待线程,就不那么【精确】
- park & unpark 可以先 unpark,而 wait & notify 不能先 notify
原理之 park & unpark
每个线程都有自己的一个 Parker 对象(c实现),由三部分组成 _counter , _cond 和 _mutex 打个比喻
- 线程就像一个旅人,Parker 就像他随身携带的背包,条件变量就好比背包中的帐篷。_counter 就好比背包中 的备用干粮(0 为耗尽,1 为充足)
- 调用 park 就是要看需不需要停下来歇息
- 如果备用干粮耗尽,那么钻进帐篷歇息
- 如果备用干粮充足,那么不需停留,继续前进
- 调用 unpark,就好比令干粮充足
- 如果这时线程还在帐篷,就唤醒让他继续前进
- 如果这时线程还在运行,那么下次他调用 park 时,仅是消耗掉备用干粮,不需停留继续前进
- 因为背包空间有限,多次调用 unpark 仅会补充一份备用干粮
- 当前线程调用 Unsafe.park() 方法
- 检查 _counter ,本情况为 0,这时,获得 _mutex 互斥锁
- 线程进入 _cond 条件变量阻塞
- 设置 _counter = 0
- 调用 Unsafe.unpark(Thread_0) 方法,设置 _counter 为 1
- 唤醒 _cond 条件变量中的 Thread_0
- Thread_0 恢复运行
- 设置 _counter 为 0
- 调用 Unsafe.unpark(Thread_0) 方法,设置 _counter 为 1
- 当前线程调用 Unsafe.park() 方法
- 检查 _counter ,本情况为 1,这时线程无需阻塞,继续运行
- 设置 _counter 为 0
3.10 重新理解线程状态转换
假设有线程 Thread t
情况 1 NEW --> RUNNABLE
当调用t.start() 方法时,由 NEW --> RUNNABLE
情况 2 RUNNABLE <–> WAITING
t 线程用 synchronized(obj) 获取了对象锁后
- 调用 obj.wait() 方法时,t 线程从 RUNNABLE --> WAITING
- 调用 obj.notify() , obj.notifyAll() , t.interrupt() 时
- 竞争锁成功,t 线程从
- 竞争锁失败,t 线程从WAITING --> RUNNABLE WAITING --> BLOCKED
情况 3 RUNNABLE <–> WAITING
- 当前线程调用 t.join() 方法时,当前线程从 RUNNABLE --> WAITING
- 注意是当前线程在t 线程对象的监视器上等待
- t 线程运行结束,或调用了当前线程的 interrupt() 时,当前线程从 WAITING --> RUNNABLE
情况 4 RUNNABLE <–> WAITING
- 当前线程调用 LockSupport.park() 方法会让当前线程从 RUNNABLE --> WAITING
- 调用 LockSupport.unpark(目标线程) 或调用了线程 的 interrupt() ,会让目标线程从RUNNABLE
情况 5 RUNNABLE <–> TIMED_WAITING
t 线程用 synchronized(obj) 获取了对象锁后
- 调用 obj.wait(long n) 方法时,t 线程从 RUNNABLE --> TIMED_WAITING
- t 线程等待时间超过了 n 毫秒,或调用 obj.notify() , obj.notifyAll() , t.interrupt() 时
- 竞争锁成功,t 线程从 TIMED_WAITING --> RUNNABLE
- 竞争锁失败,t 线程从 TIMED_WAITING --> BLOCKED
情况 6 RUNNABLE <–> TIMED_WAITING
- 当前线程调用 t.join(long n) 方法时,当前线程从RUNNABLE --> TIMED_WAITING
- 注意是当前线程在t 线程对象的监视器上等待
- 当前线程等待时间超过了 n 毫秒,或t 线程运行结束,或调用了当前线程的 interrupt() 时,当前线程从TIMED_WAITING --> RUNNABLE
情况 7 RUNNABLE <–> TIMED_WAITING
- 当前线程调用 Thread.sleep(long n) ,当前线程从 RUNNABLE --> TIMED_WAITING
- 当前线程等待时间超过了 n 毫秒,当前线程从 TIMED_WAITING --> RUNNABLE
情况 8 RUNNABLE <–> TIMED_WAITING
- 当前线程调用 LockSupport.parkNanos(long nanos) 或 LockSupport.parkUntil(long millis) 时,当前线 程从 RUNNABLE --> TIMED_WAITING
- 调用 LockSupport.unpark(目标线程) 或调用了线程 的 interrupt() ,或是等待超时,会让目标线程从 TIMED_WAITING–> RUNNABLE
情况 9 RUNNABLE <–> BLOCKED
- t 线程用synchronized(obj) 获取了对象锁时如果竞争失败,从 RUNNABLE --> BLOCKED
- 持 obj 锁线程的同步代码块执行完毕,会唤醒该对象上所有 BLOCKED 的线程重新竞争,如果其中 t 线程竞争 成功,从 BLOCKED --> RUNNABLE ,其它失败的线程仍然 BLOCKED
情况 10 RUNNABLE <–> TERMINATED
当前线程所有代码运行完毕,进入 TERMINATED
3.11 多把锁
多把不相干的锁
一间大屋子有两个功能:睡觉、学习,互不相干。
现在小南要学习,小女要睡觉,但如果只用一间屋子(一个对象锁)的话,那么并发度很低
解决方法是准备多个房间(多个对象锁)
执行
改进
将锁的粒度细分
- 好处,是可以增强并发度
- 坏处,如果一个线程需要同时获得多把锁,就容易发生死锁
3.12 活跃性
死锁
有这样的情况:一个线程需要同时获取多把锁,这时就容易发生死锁
t1 线程 获得 A对象 锁,接下来想获取 B对象 的锁
t2 线程 获得 B对象 锁,接下来想获取A对象 的锁
例:
结果
12:22:06.962 [t2] c.TestDeadLock - lock B
12:22:06.962 [t1] c.TestDeadLock - lock A
定位死锁
- 检测死锁可以使用 jconsole工具,或者使用 jps 定位进程 id,再用 jstack 定位死锁:
- 避免死锁要注意加锁顺序
- 另外如果由于某个线程进入了死循环,导致其它线程一直等待,对于这种情况 linux 下可以通过 top 先定位到 CPU 占用高的 Java 进程,再利用 top -Hp 进程id 来定位是哪个线程,最后再用 jstack 排查
哲学家就餐问题
有五位哲学家,围坐在圆桌旁。
- 他们只做两件事,思考和吃饭,思考一会吃口饭,吃完饭后接着思考。
- 吃饭时要用两根筷子吃,桌上共有 5 根筷子,每位哲学家左右手边各有一根筷子。
- 如果筷子被身边的人拿着,自己就得等待
筷子类
哲学家类
就餐
执行不多会,就执行不下去了
使用 jconsole 检测死锁,发现
这种线程没有按预期结束,执行不下去的情况,归类为【活跃性】问题,除了死锁以外,还有活锁和饥饿者两种情况
活锁
活锁出现在两个线程互相改变对方的结束条件,最后谁也无法结束,例如
死锁:两个线程都互相持有对方想要的锁,导致谁都无法继续向下运行,阻塞住了
活锁:没有阻塞 都在不断使用cpu 但是改变了对方结束条件 导致无法结束
解决活锁:时间错开 增加随机睡眠
饥饿
很多教程中把饥饿定义为,一个线程由于优先级太低,始终得不到 CPU 调度执行,也不能够结束,饥饿的情况不 易演示,讲读写锁时会涉及饥饿问题
下面我讲一下我遇到的一个线程饥饿的例子,先来看看使用顺序加锁的方式解决之前的死锁问题
顺序加锁的解决方案:
但是顺序加锁容易造成饥饿问题
阿基米德得到锁的机会太少了 饥饿
3.13 ReentrantLock
相对于 synchronized 它具备如下特点
- 可中断
- 可以设置超时时间
- 可以设置为公平锁
- 支持多个条件变量 多个waitset
与 synchronized 一样,都支持可重入
基本语法
可重入
可重入是指同一个线程如果首次获得了这把锁,那么因为它是这把锁的拥有者,因此有权利再次获取这把锁
如果是不可重入锁,那么第二次获得锁时,自己也会被锁挡住
可打断
示例
如果没有线程去打断他 这个方法就跟lock()一样
主线程先lock 然后t1启动
使用lock的话 就无法被打断
锁超时
锁超时 主动
可打断 被动
立刻失败
超时失败
使用 tryLock 解决哲学家就餐问题:
筷子类继承ReentrantLock
公平锁
sychronized不公平锁 锁持有者释放的时候 大家一拥而上一起抢 而不是先到先得
ReentrantLock 默认是不公平的
按照进入阻塞队列的顺序 先进入的先获得
公平锁一般没有必要,会降低并发度,后面分析原理时会讲解
条件变量
synchronized 中也有条件变量,就是我们讲原理时那个 waitSet 休息室,当条件不满足时进入 waitSet 等待
ReentrantLock 的条件变量比 synchronized 强大之处在于,它是支持多个条件变量的,这就好比
- synchronized 是那些不满足条件的线程都在一间休息室等消息
- 而 ReentrantLock 支持多间休息室,有专门等烟的休息室、专门等早餐的休息室、唤醒时也是按休息室来唤醒
使用要点:
- await 前需要获得锁
- await 执行后,会释放锁,进入 conditionObject 等待
- await 的线程被唤醒(或打断、或超时)去重新竞争 lock 锁
- 竞争 lock 锁成功后,从 await 后继续执行
例子:
同步模式之顺序控制
- 固定运行顺序
比如,必须先 2 后 1 打印
1.1 wait notify 版
1.2 Park Unpark 版
可以看到,实现上很麻烦:
- 首先,需要保证先 wait 再 notify,否则 wait 线程永远得不到唤醒。因此使用了『运行标记』来判断该不该 wait
- 第二,如果有些干扰线程错误地 notify 了 wait 线程,条件不满足时还要重新等待,使用了 while 循环来解决 此问题
- 最后,唤醒对象上的 wait 线程需要使用 notifyAll,因为『同步对象』上的等待线程可能不止一个
可以使用 LockSupport 类的 park 和 unpark 来简化上面的题目:
park 和 unpark 方法比较灵活,他俩谁先调用,谁后调用无所谓。并且是以线程为单位进行『暂停』和『恢复』, 不需要『同步对象』和『运行标记』
- 交替输出
线程 1 输出 a 5 次,线程 2 输出 b 5 次,线程 3 输出 c 5 次。现在要求输出 abcabcabcabcabc 怎么实现
2.1 wait notify 版
2.2 Lock 条件变量版
2.3 Park Unpark 版
3.14 本章小结
本章我们需要重点掌握的是
- 分析多线程访问共享资源时,哪些代码片段属于临界区
- 使用 synchronized 互斥解决临界区的线程安全问题
- 掌握 synchronized 锁对象语法
- 掌握 synchronzied 加载成员方法和静态方法语法
- 掌握 wait/notify 同步方法
- 使用 lock 互斥解决临界区的线程安全问题
- 掌握 lock 的使用细节:可打断、锁超时、公平锁、条件变量
- 学会分析变量的线程安全性、掌握常见线程安全类的使用
- 了解线程活跃性问题:死锁、活锁、饥饿
- 应用方面
- 互斥:使用 synchronized 或 Lock 达到共享资源互斥效果
- 同步:使用 wait/notify 或 Lock 的条件变量来达到线程间通信效果
- 原理方面
- monitor、synchronized 、wait/notify 原理
- synchronized 进阶原理
- park & unpark 原理
- 模式方面
- 同步模式之保护性暂停
- 异步模式之生产者消费者
- 同步模式之顺序控制
管程 monitor 两大作用 互斥、同步
4. 共享模型之内存
这一章我们进一步深入学习共享变量在多线程间的【可见性】问题与多条指令执行时的【有序性】问题
4.1 Java 内存模型
JMM 即 Java Memory Model,它定义了主存(所有线程共享的数据 静态成员变量 成员变量)、工作内存抽象概念(线程私有的 局部变量),底层对应着 CPU 寄存器、缓存、硬件内存、 CPU 指令优化等。
JMM 体现在以下几个方面
- 原子性 - 保证指令不会受到线程上下文切换的影响
- 可见性 - 保证指令不会受 cpu 缓存的影响
- 有序性 - 保证指令不会受 cpu 指令并行优化的影响
4.2 可见性
退不出的循环
先来看一个现象,main 线程对 run 变量的修改对于 t 线程不可见,导致了 t 线程无法停止:
为什么呢?分析一下:
- 初始状态, t 线程刚开始从主内存读取了 run 的值到工作内存。
2. 因为 t 线程要频繁从主内存中读取 run 的值,JIT 编译器会将 run 的值缓存至自己工作内存中的高速缓存中,减少对主存中 run 的访问,提高效率
3. 1 秒之后,main 线程修改了 run 的值,并同步至主存,而 t 是从自己工作内存中的高速缓存中读取这个变量 的值,结果永远是旧值 一个线程对主内存修改 对另一个线程不可见 导致了问题
解决方法
volatile(易变关键字)
它可以用来修饰成员变量和静态成员变量,他可以避免线程从自己的工作缓存中查找变量的值,必须到主存中获取 它的值,线程操作 volatile 变量都是直接操作主存
用synchronized也可以解决可见性问题
可见性 vs 原子性
前面例子体现的实际就是可见性,它保证的是在多个线程之间,一个线程对 volatile 变量的修改对另一个线程可 见, 不能保证原子性,仅用在一个写线程,多个读线程的情况: 上例从字节码理解是这样的:
比较一下之前我们将线程安全时举的例子:两个线程一个 i++ 一个 i-- ,只能保证getstatic得到的是最新值,不能解决指令交错
注意 synchronized 语句块既可以保证代码块的原子性,也同时保证代码块内变量的可见性。但缺点是 synchronized 是属于重量级操作,性能相对更低
如果在前面示例的死循环中加入 System.out.println() 会发现即使不加 volatile 修饰符,线程 t 也能正确看到 对 run 变量的修改了,想一想为什么?
调用print方法,因为内部加了synchronized,所以读取了主存里的最新值后赋值给了工作内存的flag,线程停止运行。
终止模式之两阶段终止模式
Two Phase Termination
在一个线程 T1 中如何“优雅”终止线程 T2?这里的【优雅】指的是给 T2 一个料理后事的机会。
- 错误思路
- 使用线程对象的
- stop() 方法停止线程 stop 方法会真正杀死线程,如果这时线程锁住了共享资源,那么当它被杀死后就再也没有机会释放锁, 其它线程将永远无法获取锁
- 使用 System.exit(int) 方法停止线程
- 目的仅是停止一个线程,但这种做法会让整个程序都停止
- 两阶段终止模式
2.1 利用 isInterrupted
interrupt 可以打断正在执行的线程,无论这个线程是在 sleep,wait,还是正常运行
2.2 利用停止标记
如果不加monitorThread.interrupt()
同步模式之 Balking
- 定义
Balking (犹豫)模式用在一个线程发现另一个线程或本线程已经做了某一件相同的事,那么本线程就无需再做 了,直接结束返回
多次调用start方法时 就会创建多个线程 而监控线程只需要一个就可以
- 实现
问题:如果有两个线程同时调用start 第一个线程进来了 判断starting为false,还没来得及对它修改为true,第二个线程进来了 发现还是false 拦不住
所以需要加保护
它还经常用来实现线程安全的单例
4.3 有序性
原理之指令级并行
JVM 会在不影响正确性的前提下,可以调整语句的执行顺序,思考下面一段代码
可以看到,至于是先执行 i 还是 先执行 j ,对最终的结果不会产生影响。所以,上面代码真正执行时,既可以是
也可以是
这种特性称之为『指令重排』,多线程下『指令重排』会影响正确性。为什么要有重排指令这项优化呢?从 CPU 执行指令的原理来理解一下吧
鱼罐头的故事
加工一条鱼需要 50 分钟,只能一条鱼、一条鱼顺序加工…
可以将每个鱼罐头的加工流程细分为 5 个步骤:
- 去鳞清洗 10分钟
- 蒸煮沥水 10分钟
- 加注汤料 10分钟
- 杀菌出锅 10分钟
- 真空封罐 10分钟
使只有一个工人,最理想的情况是:他能够在 10 分钟内同时做好这 5 件事,因为对第一条鱼的真空装罐,不会 影响对第二条鱼的杀菌出锅…
指令重排序优化:
事实上,现代处理器会设计为一个时钟周期完成一条执行时间最长的 CPU 指令。为什么这么做呢?可以想到指令 还可以再划分成一个个更小的阶段,例如,每条指令都可以分为: 取指令 - 指令译码 - 执行指令 - 内存访问 - 数据 写回 这 5 个阶段
在不改变程序结果的前提下,这些指令的各个阶段可以通过重排序和组合来实现指令级并行,这一技术在 80’s 中 叶到 90’s 中叶占据了计算架构的重要地位。
分阶段,分工是提升效率的关键!
指令重排的前提是,重排指令不能影响结果,例如
支持流水线的处理器
现代 CPU 支持多级指令流水线,例如支持同时执行 取指令 - 指令译码 - 执行指令 - 内存访问 - 数据写回 的处理 器,就可以称之为五级指令流水线。这时 CPU 可以在一个时钟周期内,同时运行五条指令的不同阶段(相当于一 条执行时间最长的复杂指令),IPC = 1,本质上,流水线技术并不能缩短单条指令的执行时间,但它变相地提高了 指令地吞吐率。
提示:
奔腾四(Pentium 4)支持高达 35 级流水线,但由于功耗太高被废弃
SuperScalar 处理器
大多数处理器包含多个执行单元,并不是所有计算功能都集中在一起,可以再细分为整数运算单元、浮点数运算单 元等,这样可以把多条指令也可以做到并行获取、译码等,CPU 可以在一个时钟周期内,执行多于一条指令,IPC >1
诡异的结果
I_Result 是一个对象,有一个属性 r1 用来保存结果,问,可能的结果有几种?
有同学这么分析
情况1:线程1 先执行,这时 ready = false,所以进入 else 分支结果为 1
情况2:线程2 先执行 num = 2,但没来得及执行 ready = true,线程1 执行,还是进入 else 分支,结果为1
情况3:线程2 执行到 ready = true,线程1 执行,这回进入 if 分支,结果为 4(因为 num 已经执行过了)
但我告诉你,结果还有可能是 0 😁😁😁,信不信吧! 这种情况下是:线程2 执行 ready = true,切换到线程1,进入 if 分支,相加为 0,再切回线程2 执行 num = 2 相信很多人已经晕了 😵😵😵
这种现象叫做指令重排,是 JIT 编译器在运行时的一些优化,这个现象需要通过大量测试才能复现:
借助 java 并发压测工具 jcstress https://wiki.openjdk.java.net/display/CodeTools/jcstress
打包
mvn clean install
java -jar target/jcstress.jar
会输出我们感兴趣的结果,摘录其中一次结果:
解决方法
使用volatile
写在ready上,防止ready之前的代码被重排序
volatile 原理
volatile 的底层实现原理是内存屏障,Memory Barrier(Memory Fence)
- 对 volatile 变量的写指令后会加入写屏障
- 对 volatile 变量的读指令前会加入读屏障
- 如何保证可见性
写屏障(sfence)保证在该屏障之前的,对共享变量的改动,都同步到主存当中
而读屏障(lfence)保证在该屏障之后,对共享变量的读取,加载的是主存中最新数据
2. 如何保证有序性
写屏障会确保指令重排序时,不会将写屏障之前的代码排在写屏障之后
不会出现下面这种情况
读屏障会确保指令重排序时,不会将读屏障之后的代码排在读屏障之前
还是那句话,不能解决指令交错:
- 写屏障仅仅是保证之后的读能够读到最新的结果,但不能保证读跑到它前面去
- 而有序性的保证也只是保证了本线程内相关代码不被重排序
volatile 解决有序 可见
sychronized解决有序 可见 原子
double-checked locking 问题
以著名的 double-checked locking 单例模式为例
但也有缺点 每次调用getInstance方法都会进入同步代码块 而实际上我们只需要在第一次创建instance的时候进入同步代码块就可以 创建好instance之后就无需进入同步代码块了
改进:
以上的实现特点是:
- 懒惰实例化
- 首次使用 getInstance() 才使用 synchronized 加锁,后续使用时无需加锁
- 有隐含的,但很关键的一点:第一个 if 使用了 INSTANCE 变量,是在同步块之外
但在多线程环境下,上面的代码是有问题的,getInstance 方法对应的字节码为:
ldc获得类对象
复制类对象引用指针 并存储 给之后的解锁用
其中
- 17 表示创建对象,将对象引用入栈 // new Singleton
- 20 表示复制一份对象引用 // 引用地址
- 21 表示利用一个对象引用,调用构造方法
- 24 表示利用一个对象引用,赋值给 static INSTANCE
也许 jvm 会优化为:先执行 24,再执行 21。如果两个线程 t1,t2 按如下时间序列执行:
共享变量只有完全被sychronized保护 才能确保有序性 例子中 在sychronized外面 instance 还是被使用了 没有被sychronized完全保护 所以不能保证有序性
关键在于 0: getstatic 这行代码在 monitor 控制之外,它就像之前举例中不守规则的人,可以越过 monitor 读取 INSTANCE 变量的值 这时 t1 还未完全将构造方法执行完毕,如果在构造方法中要执行很多初始化操作,那么 t2 拿到的是将是一个未初 始化完毕的单例 对 INSTANCE 使用 volatile 修饰即可,可以禁用指令重排,但要注意在 JDK 5 以上的版本的 volatile 才会真正有效
double-checked locking 解决
字节码上看不出来 volatile 指令的效果
如上面的注释内容所示,读写 volatile 变量时会加入内存屏障(Memory Barrier(Memory Fence)),保证下面 两点:
- 可见性
- 写屏障(sfence)保证在该屏障之前的 t1 对共享变量的改动,都同步到主存当中
- 而读屏障(lfence)保证在该屏障之后 t2 对共享变量的读取,加载的是主存中最新数据
- 有序性
- 写屏障会确保指令重排序时,不会将写屏障之前的代码排在写屏障之后
- 读屏障会确保指令重排序时,不会将读屏障之后的代码排在读屏障之前
- 更底层是读写变量时使用 lock 指令来多核 CPU 之间的可见性与有序性
happens-before
happens-before 规定了对共享变量的写操作对其它线程的读操作可见,它是可见性与有序性的一套规则总结,抛 开以下 happens-before 规则,JMM 并不能保证一个线程对共享变量的写,对于其它线程对该共享变量的读可见
- 线程解锁 m 之前对变量的写,对于接下来对 m 加锁的其它线程对该变量的读可见
- 线程对 volatile 变量的写,对接下来其它线程对该变量的读可见
- 线程 start 前对变量的写,对该线程开始后对该变量的读可见
- 线程结束前对变量的写,对其它线程得知它结束后的读可见(比如其它线程调用 t1.isAlive() 或 t1.join()等待 它结束)
- 线程 t1 打断 t2(interrupt)前对变量的写,对于其他线程得知 t2 被打断后对变量的读可见(通过 t2.interrupted 或 t2.isInterrupted)
- 对变量默认值(0,false,null)的写,对其它线程对该变量的读可见
- 具有传递性,如果 x hb-> y 并且 y hb-> z 那么有 x hb-> z ,配合 volatile 的防指令重排,有下面的例子
变量都是指成员变量或静态成员变量
习题
balking 模式习题
希望 doInit() 方法仅被调用一次,下面的实现是否有问题,为什么?
因为volatile只能保证共享变量的可见性 不能保证原子性 多个线程执行if (initialized) 然后 调用doinit
线程安全单例习题
单例模式有很多实现方法,饿汉、懒汉、静态内部类、枚举类,试分析每种实现下获取单例对象(即调用 getInstance)时的线程安全,并思考注释中的问题
- 饿汉式:类加载就会导致该单实例对象被创建
- 懒汉式:类加载不会导致该单实例对象被创建,而是首次使用该对象时才会创建
实现1:
加final 怕子类覆盖方法 破坏单例
readresolve 防止反序列化 用readresolve返回对象 采用你返回的对象 而不是反序列化生成的对象 采用readresolve返回对象当作反序列化的结果
如果不用private Singleton() {} 其他的类都可以无限创建这个对象 就不是单例了
不能防止反射 反射可以可以得到构造器对象 设置构造器的setaccessed 为true,暴力反射 调用构造方法创建实例
问题4:这样初始化是否能保证单例对象创建时的线程安全? 静态变量初始化操作在类加载的时候完成,由jvm保证线程安全性
问题5:为什么提供静态方法而不是直接将 INSTANCE 设置为 public, 说出你知道的理由 提供封装行 内部进行懒惰的初始化 创建单例对象有更多控制 提供对泛型的支持 直接用成员变量无法支持泛型 有方法的话可以支持泛型
实现2:
问题1:枚举单例是如何限制实例个数的 枚举类里面定义几个就有几个对象 相当于枚举类的静态成员变量
问题2:枚举单例在创建时是否有并发问题 没有 因为是static 在类加载的时候创建 有线程安全
问题3:枚举单例能否被反射破坏单例 不能
问题4:枚举单例能否被反序列化破坏单例 枚举类实现序列化接口 但是枚举可以避免反序列化破坏单例
饿汉式
问题6:枚举单例如果希望加入一些单例创建时的初始化逻辑该如何做 加构造方法
实现3:
懒汉式
实现4:DCL
优点:缩小sychronized代码块范围
// 问题3:为什么还要在这里加为空判断, 之前不是判断过了吗
万一两个线程都判断是null 然后t1先进入sychronized代码块 创建了对象 然后t2进入sychronized 不判断的话有创建了一个对象
问题1:解释为什么要加 volatile ?
因为构造方法指令可能发生重排序
实现5:
懒汉式
懒汉式
静态内部类 对外不可见 只有第一次用到类的时候才会类加载 所以只用到外面的singleton不用里面的类 不会触发内部类的类加载 只有用到时 才会对他进行类加载 对里面的静态变量进行初始化
问题2:在创建时是否有并发问题 类加载时 对静态变量赋值 jvm保证线程安全性
4.4 本章小结
本章重点讲解了 JMM 中的
- 可见性 - 由 JVM 缓存优化引起
- 有序性 - 由 JVM 指令重排序优化引起
- happens-before 规则
- 原理方面
- CPU 指令并行
- volatile
- 模式方面
- 两阶段终止模式的 volatile 改进
- 同步模式之 balking
5. 共享模型之无锁
5.1 问题提出
java类只支持单继承,但可实现多个接口,在此新特性出来之前,所有的子类共用的方法都只能写在extends的抽象类中,有点不符合面向对象的封装,现在可以写在实现的接口中,感觉更加符合面向对象的特性。
JDK1.8中为了加强接口的能力,使得接口可以存在具体的方法。
前提是方法需要被default或static关键字所修饰。
有线程安全问题 因为account对象是共享资源
输出:
改进:
输出:
解决思路-无锁
5.2 CAS 与 volatile
前面看到的 AtomicInteger 的解决方法,内部并没有用锁来保护共享变量的线程安全。那么它是如何实现的呢?
其中的关键是 compareAndSet,它的简称就是 CAS (也有 Compare And Swap 的说法),它必须是原子操作。
cas就是把cas里prev参数的值和account最新值对比 不一致 修改失败 返回false
compareAndSet 正是做这个检查,在 set 前,先比较 prev 与当前值
-
不一致了,next 作废,返回 false 表示失败 比如,别的线程已经做了减法,当前值已经被减成了 990 那么本线程的这次 990 就作废了,进入 while 下次循环重试
-
一致,以 next 设置为新值,返回 true 表示成功
volatile
获取共享变量时,为了保证该变量的可见性,需要使用 volatile 修饰。
它可以用来修饰成员变量和静态成员变量,他可以避免线程从自己的工作缓存中查找变量的值,必须到主存中获取 它的值,线程操作 volatile 变量都是直接操作主存。即一个线程对 volatile 变量的修改,对另一个线程可见。
volatile 仅仅保证了共享变量的可见性,让其它线程能够看到最新值,但不能解决指令交错问题(不能保证原 子性)
CAS 必须借助 volatile 才能读取到共享变量的最新值来实现【比较并交换】的效果
为什么无锁效率高
- 无锁情况下,即使重试失败,线程始终在高速运行,没有停歇,而 synchronized 会让线程在没有获得锁的时 候,发生上下文切换,进入阻塞。打个比喻
- 线程就好像高速跑道上的赛车,高速运行时,速度超快,一旦发生上下文切换,就好比赛车要减速、熄火, 等被唤醒又得重新打火、启动、加速… 恢复到高速运行,代价比较大
- 但无锁情况下,因为线程要保持运行,需要额外 CPU 的支持,CPU 在这里就好比高速跑道,没有额外的跑 道,线程想高速运行也无从谈起,虽然不会进入阻塞,但由于没有分到时间片,仍然会进入可运行状态,还 是会导致上下文切换。
- 线程数少于cpu核心数的时候 用cas很合适
CAS 的特点
结合 CAS 和 volatile 可以实现无锁并发,适用于线程数少、多核 CPU 的场景下。
- CAS 是基于乐观锁的思想:最乐观的估计,不怕别的线程来修改共享变量,就算改了也没关系,我吃亏点再 重试呗。
- synchronized 是基于悲观锁的思想:最悲观的估计,得防着其它线程来修改共享变量,我上了锁你们都别想 改,我改完了解开锁,你们才有机会。
- CAS 体现的是无锁并发、无阻塞并发,请仔细体会这两句话的意思
- 因为没有使用 synchronized,所以线程不会陷入阻塞,这是效率提升的因素之一
- 但如果竞争激烈,可以想到重试必然频繁发生,反而效率会受影响
5.3 原子整数
J.U.C 并发包提供了:
- AtomicBoolean
- AtomicInteger 4字节整数封装
- AtomicLong 8字节整数封装
以 AtomicInteger 为例
输出:50
接收的接口类型 用lambda表示 lambda表达式的参数代表读取到的值 运算结果是将要设置的值
5.4 原子引用
为什么需要原子引用类型?
- AtomicReference
- AtomicMarkableReference
- AtomicStampedReference
比如 保护小数类型
输出:0
ABA 问题及解决
主线程没有办法判断共享变量是否被别的线程修改过
主线程仅能判断出共享变量的值与最初值 A 是否相同,不能感知到这种从 A 改为 B 又 改回 A 的情况,如果主线程 希望:
只要有其它线程【动过了】共享变量,那么自己的 cas 就算失败,这时,仅比较值是不够的,需要再加一个版本号AtomicStampedReference
谁做了修改 谁让版本号加一
AtomicStampedReference 可以给原子引用加上版本号,追踪原子引用整个的变化过程,如: C ,通过AtomicStampedReference,我们可以知道,引用变量中途被更改了几次。
但是有时候,并不关心引用变量更改了几次,只是单纯的关心是否更改过,所以就有了 AtomicMarkableReference
5.5 原子数组
有的时候不是要改变引用 而是要改引用指向对象内部的值
- AtomicIntegerArray
- AtomicLongArray
- AtomicReferenceArray
结果不对啊 应该全是10000
证明 普通数组没有什么线程安全性
5.6 字段更新器
- AtomicReferenceFieldUpdater // 域 字段
- AtomicIntegerFieldUpdater
- AtomicLongFieldUpdater
利用字段更新器,可以针对对象的某个域(Field)进行原子操作,只能配合 volatile 修饰的字段使用,否则会出现 异常 因为cas必须保证共享变量的可见性
保证多个线程访问对象成员变量时 线程安全性
输出:
5.7 原子累加器
输出:
2000000
longadder性能提升的原因很简单,就是在有竞争时,设置多个累加单元,Therad-0 累加 Cell[0],而 Thread-1 累加 Cell[1]… 最后将结果汇总。这样它们在累加时操作的不同的 Cell 变量,因此减少了 CAS 重试失败,从而提高性能。cell数不会超过cpu核心数
源码之 LongAdder
LongAdder 类有几个关键域
cellsbusy类似于cas锁 保护创建和扩容cell数组的安全
cas锁
不要用于实践!!!因为while true一直占用cpu 空运转
cas在底层有类似操作 所以我们不要自己做
原理之伪共享
其中 Cell 即为累加单元
得从缓存说起
缓存与内存的速度比较
因为 CPU 与 内存的速度差异很大,需要靠预读数据至缓存来提升效率。
而缓存以缓存行为单位,每个缓存行对应着一块内存,一般是 64 byte(8 个 long)
缓存的加入会造成数据副本的产生,即同一份数据会缓存在不同核心的缓存行中 CPU 要保证数据的一致性,如果某个 CPU 核心更改了数据,其它 CPU 核心对应的整个缓存行必须失效
因为 Cell 是数组形式,在内存中是连续存储的,一个 Cell 为 24 字节(16 字节的对象头和 8 字节的 value),因 此缓存行可以存下 2 个的 Cell 对象。这样问题来了:
- Core-0 要修改 Cell[0]
- Core-1 要修改 Cell[1]
无论谁修改成功,都会导致对方 Core 的缓存行失效,比如 Core-0 中 Cell[0]=6000, Cell[1]=8000 要累加 Cell[0]=6001, Cell[1]=8000 ,这时会让 Core-1 的缓存行失效
@sun.misc.Contended 用来解决这个问题,它的原理是在使用此注解的对象或字段的前后各增加 128 字节大小的 padding,从而让 CPU 将对象预读至缓存时占用不同的缓存行,这样,不会造成对方缓存行的失效
Longadder的increment方法:
cell数组是懒惰创建的,没有竞争的时候cell数组是null 竞争发生了 才尝试创建cell数组
没有竞争的时候在base基础上累加 累加失败就进入if语句中
(a = as[getProbe() & m]) == null判断当前线程有没有一个对应的cell被创建了 如果为null说明没有创建 就进入longaccumulate 为线程创建cell 如果创建了, (uncontended = a.cas(v = a.value, v + x)) a是cell累加单元,在这个累加单元里加 加成功 return 失败就进入longaccumulate
创建了数组长度为2的cells数组,但只创建了一个cell单元 附给 其中一个 并没有创建两个 体现了懒惰特点 不到万不得已不会创建
情况二:数组创建好了 但是累加单元没有创建好
(a = as[(n - 1) & h]) == null 还没有cell
查看当前槽位是否为空 是否有别的线程已经在这个位置创建了cell
最后一种情况 数组创建好了 对应的累加单元也创建好了
检查是否超过cpu上线 超过了设置collide为false 进入第一个else if 就不会进入第三个else if 直接执行
h = advanceProbe(h); 改变线程对应的cell对象 尝试换一个cell单元 有可能这个没有人用
如果没有超过cpu上限 进入第三个else if
翻倍扩容
获取最终结果通过 sum 方法:
5.8 Unsafe
概述
Unsafe 对象提供了非常底层的,操作内存、线程的方法,Unsafe 对象不能直接调用,只能通过反射获得 cas、park unpark都是调用的unsafe对象的方法。因为是私有的,所以不能直接获得
因为是unsafe是静态的 所以通过get(null)获取
Unsafe CAS操作
内存偏移量定位到属性
使用自定义的 AtomicData 实现之前线程安全的原子整数 Account 实现
Account类在5.1 节
5.9 本章小结
- CAS 与 volatile
- API
- 原子整数
- 原子引用
- 原子数组
- 字段更新器
- 原子累加器
- Unsafe
- 原理方面
- LongAdder 源码
- 伪共享
6. 共享模型之不可变
6.1 日期转换的问题
问题提出
下面的代码在运行时,由于 SimpleDateFormat 不是线程安全的
有很大几率出现 java.lang.NumberFormatException 或者出现不正确的日期解析结果,例如:
可变类如果不保护 会出现线程安全的问题
思路 - 同步锁
这样虽能解决问题,但带来的是性能上的损失,并不算很好:
思路 - 不可变
如果一个对象在不能够修改其内部状态(属性),那么它就是线程安全的,因为不存在并发修改啊!这样的对象在 Java 中有很多,例如在 Java 8 后,提供了一个新的日期格式化类:
这个类是不可变 线程安全的
6.2 不可变设计
另一个大家更为熟悉的 String 类也是不可变的,以它为例,说明一下不可变设计的要素
final char value[] 在构造方法创建之后 不能再改变引用了
final 的使用
发现该类、类中所有属性都是 final 的
- 属性用 final 修饰保证了该属性是只读的,不能修改
- 类用 final 修饰保证了该类中的方法不能被覆盖,防止子类无意间破坏不可变性
保护性拷贝
用拷贝复制一个新的char数组
但有同学会说,使用字符串时,也有一些跟修改相关的方法啊,比如 substring 等,那么下面就看一看这些方法是 如何实现的,就以 substring 为例:
发现其内部是调用 String 的构造方法创建了一个新字符串,再进入这个构造看看,是否对 final char[] value 做出 了修改:
结果发现也没有,构造新字符串对象时,会生成新的 char[] value,对内容进行复制 。这种通过创建副本对象来避 免共享的手段称之为【保护性拷贝(defensive copy)】
享元模式
- 简介
定义 英文名称:Flyweight pattern. 当需要重用数量有限的同一类对象时 对于不可变类关联的设计模式 最小化内存的使用 使相同取值对象共享
- 体现
2.1 包装类
在JDK中 Boolean,Byte,Short,Integer,Long,Character 等包装类提供了 valueOf 方法,例如 Long 的 valueOf 会缓存 -128~127 之间的 Long 对象,在这个范围之间会重用对象,大于这个范围,才会新建 Long 对 象:
- Byte, Short, Long 缓存的范围都是 -128~127
- Character 缓存的范围是 0~127
- Integer的默认范围是 -128~127
- 最小值不能变
- 但最大值可以通过调整虚拟机参数
-Djava.lang.Integer.IntegerCache.high
来改变
- Boolean 缓存了 TRUE 和 FALSE
2.2 String 串池
2.3 BigDecimal BigInteger
明明 BigDecimal是线程安全类 为什么之前还要用原子引用 因为单个操作是不可变的 但是这个程序中设计了多个操作 比如 get substract
还有赋值 这组合会不安全
- DIY
例如:一个线上商城应用,QPS 达到数千(指的是每秒可以完成的HTTP/HTTPS的查询(请求)的数量),如果每次都重新创建和关闭数据库连接,性能会受到极大影响。 这时 预先创建好一批连接,放入连接池。一次请求到达后,从连接池获取连接,使用完毕后再还回连接池,这样既节约 了连接的创建和关闭时间,也实现了连接的重用,不至于让庞大的连接数压垮数据库。
数组不是线程安全的 所以使用AtomicIntegerArray
states.compareAndSet 怕有两个线程同时改 容易出问题
而直接用set 是因为他已经是这个connection的所有者 所以只能她set
不用担心被其他线程影响
为什么要加sychronized 不直接使用cas
因为cas适合短时间运行代码片段 一直运行 尝试获取锁 同时还有好多数据库查询也占用cpu 而一直while空转 白白浪费时间 为了不拖垮cpu 放弃时间片
以上实现没有考虑:
- 连接的动态增长与收缩 比如一开始10个连接 高峰来了 变成20个 高峰走了 变回10个
- 连接保活(可用性检测) 假定有的连接突然断开了
- 等待超时处理 一段时间内获取不到连接 放弃等待 避免死等
- 分布式 hash
对于关系型数据库,有比较成熟的连接池实现,例如c3p0, druid等 对于更通用的对象池,可以考虑使用apache commons pool,例如redis连接池可以参考jedis中关于连接池的实现
final原理
- 设置 final 变量的原理
理解了 volatile 原理,再对比 final 的实现就比较简单了
字节码
发现 final 变量的赋值也会通过 putfield 指令来完成,同样在这条指令之后也会加入写屏障,保证在其它线程读到 它的值时不会出现为 0 的情况 因为这个return是构造器返回对象引用 不加final的话 可能先return引用 之后再赋值
写 final 域的重排序规则禁止把 final 域的写重排序到构造函数之外。这个规则的实现包含下面 2 个方面:
JMM 禁止编译器把 final 域的写重排序到构造函数之外。
编译器会在 final 域的写之后,构造函数 return 之前,插入一个 StoreStore 屏障。这个屏障禁止处理器把 final 域的写重排序到构造函数之外。
- 获取 final 变量的原理
去掉final
这个类去另外的类中获取成员变量 走的共享内存 比上一个走栈内存性能要低
b也是走的常量池内容 没有用getstatic
不加final 的B
数值小 直接复制在栈内存中 数值很大 复制在常量池中 但是不加final 在堆中
6.3 无状态
在 web 阶段学习时,设计 Servlet 时为了保证其线程安全,都会有这样的建议,不要为 Servlet 设置成员变量,这 种没有任何成员变量的类是线程安全的
因为成员变量保存的数据也可以称为状态信息,因此没有成员变量就称之为【无状态】
6.4 本章小结
- 不可变类使用
- 不可变类设计
- 原理方面
- final
- 模式方面
- 享元
7. 共享模型之工具
7.1 线程池
特别多的线程会造成内存溢出 而且特别多的线程分时间片 经常发生线程上下文切换 效率低
所以不是任务来了 每次创建新的线程 尽可能用已经有的线程
1. 自定义线程池
组件:线程池、阻塞队列 生产者消费者模式平衡速度差异的组件
线程池代码:
测试:
改进一下:超时时间
任务数超过了任务队列
这对主线程不友好,因为主线程要一直等
增强:
也可以:
使用设计模式中的策略模式 具体实现抽象成接口 到时候让调用者传递进来
主线程抛异常 后面的代码不执行了
2. ThreadPoolExecutor
1)线程池状态
ThreadPoolExecutor 使用 int 的高 3 位来表示线程池状态,低 29 位表示线程数量
从数字上比较,TERMINATED > TIDYING > STOP > SHUTDOWN > RUNNING 最高位1负号位 最小
这些信息存储在一个原子变量 ctl 中,目的是将线程池状态与线程个数合二为一,这样就可以用一次 cas 原子操作 进行赋值
2) 构造方法
- corePoolSize 核心线程数目 (最多保留的线程数)
- maximumPoolSize 最大线程数目 核心线程数加救急线程数
- keepAliveTime 生存时间 - 针对救急线程
- unit 时间单位 - 针对救急线程
- workQueue 阻塞队列
- threadFactory 线程工厂 - 可以为线程创建时起个好名字
- handler 拒绝策略
工作方式:
这时候来个任务5 阻塞队列里放不下了 创建救急线程运行任务五,执行完,救急线程被消除 核心线程不会 任务完成也一直存在
如果救急线程也在运行 这时候再来任务 就会采取拒绝策略
- 线程池中刚开始没有线程,当一个任务提交给线程池后,线程池会创建一个新线程来执行任务。
- 当线程数达到 corePoolSize 并没有线程空闲,这时再加入任务,新加的任务会被加入workQueue 队列排 队,直到有空闲的线程。
- 如果队列选择了有界队列,那么任务超过了队列大小时,会创建 maximumPoolSize - corePoolSize 数目的线 程来救急。 如果没有选择有界队列,就核心线程轮流完成任务。没有救急线程的概念了。
- 如果线程到达 maximumPoolSize 仍然有新任务这时会执行拒绝策略。拒绝策略 jdk 提供了 4 种实现,其它 著名框架也提供了实现
- AbortPolicy 让调用者抛出 RejectedExecutionException 异常,这是默认策略
- CallerRunsPolicy 让调用者运行任务。
- DiscardPolicy 放弃本次任务。
- DiscardOldestPolicy 放弃队列中最早的任务,本任务取而代之。
- Dubbo 的实现,在抛出 RejectedExecutionException 异常之前会记录日志,并 dump 线程栈信息,方 便定位问题。
- Netty 的实现,是创建一个新线程来执行任务。(不是很好 达不到限制线程数目的)
- ActiveMQ 的实现,带超时等待(60s)尝试放入队列,类似我们之前自定义的拒绝策略。
- PinPoint 的实现,它使用了一个拒绝策略链,会逐一尝试策略链中每种拒绝策略
- 当高峰过去后,超过corePoolSize 的救急线程如果一段时间没有任务做,需要结束节省资源,这个时间由 keepAliveTime 和 unit 来控制。
根据这个构造方法,JDK Executors 类中提供了众多工厂方法来创建各种用途的线程池
‘
3) newFixedThreadPool 固定大小线程池
特点
- 核心线程数 == 最大线程数(没有救急线程被创建),因此也无需超时时间
- 阻塞队列是无界的,可以放任意数量的任务
评价 适用于任务量已知,相对耗时的任务
线程池中的线程都是非守护线程 不会随着主线程的结束而结束
也可以自己实现线程工厂
4) newCachedThreadPool 带缓冲效果的
特点
- 核心线程数是 0, 最大线程数是 Integer.MAX_VALUE,救急线程的空闲生存时间是 60s,意味着
- 全部都是救急线程(60s 后可以回收)
- 救急线程可以无限创建
- 队列采用了 SynchronousQueue 实现特点是,它没有容量,没有线程来取是放不进去的(一手交钱、一手交 货)没有取的线程 放的线程就阻塞住了
评价 整个线程池表现为线程数会根据任务量不断增长,没有上限,当任务执行完毕,空闲 1分钟后释放线 程。 适合任务数比较密集,但每个任务执行时间较短的情况
5)newSingleThreadExecutor
使用场景: 希望多个任务排队执行。线程数固定为 1,任务数多于 1 时,会放入无界队列排队。任务执行完毕,这唯一的线程 也不会被释放。
区别:
- 自己创建一个单线程串行执行任务,如果任务执行失败而终止那么没有任何补救措施,而线程池还会新建一 个线程,保证池的正常工作
- Executors.newSingleThreadExecutor() 线程个数始终为1,不能修改
- FinalizableDelegatedExecutorService 应用的是装饰器模式,只对外暴露了 ExecutorService 接口,因此不能调用 ThreadPoolExecutor 中特有的方法
- Executors.newFixedThreadPool(1) 初始时为1,以后还可以修改,因为他是直接返回的线程池对象
- 对外暴露的是 ThreadPoolExecutor 对象,可以强转后调用 setCorePoolSize 等方法进行修改
‘
6) 提交任务
改为lambda格式
任务队列里的任务全部完成后 才返回
线程数改为1的时候
7) 关闭线程池 shutdown
尝试终结(没有运行的线程可以立刻终结,如果还有运行的线程也不会等、让他自己运行)
shutdownNow
其他方法:
都会让任务队列里面的任务执行完
如果在shutdown后还加任务
shutdown不会阻塞调用线程的之后执行
时间等够了或者任务执行完了 会往下运行
shutdownnow的演示:
异步模式之工作线程
- 定义
让有限的工作线程(Worker Thread)来轮流异步处理无限多的任务。也可以将其归类为分工模式,它的典型实现 就是线程池,也体现了经典设计模式中的享元模式。
例如,海底捞的服务员(线程),轮流处理每位客人的点餐(任务),如果为每位客人都配一名专属的服务员,那 么成本就太高了(对比另一种多线程设计模式:Thread-Per-Message)
注意,不同任务类型应该使用不同的线程池,这样能够避免饥饿,并能提升效率
例如,如果一个餐馆的工人既要招呼客人(任务类型A),又要到后厨做菜(任务类型B)显然效率不咋地,分成 服务员(线程池A)与厨师(线程池B)更为合理,当然你能想到更细致的分工
- 饥饿
固定大小线程池会有饥饿现象
- 两个工人是同一个线程池中的两个线程
- 他们要做的事情是:为客人点餐和到后厨做菜,这是两个阶段的工作
- 客人点餐:必须先点完餐,等菜做好,上菜,在此期间处理点餐的工人必须等待
- 后厨做菜:没啥说的,做就是了
- 比如工人A 处理了点餐任务,接下来它要等着 工人B 把菜做好,然后上菜,他俩也配合的蛮好
- 但现在同时来了两个客人,这个时候工人A 和工人B 都去处理点餐了,这时没人做饭了,饥饿 线程不足导致饥饿现象
但这并不是死锁 是饥饿 是线程不足导致的
解决方法可以增加线程池的大小,不过不是根本解决方案,还是前面提到的,不同的任务类型,采用不同的线程 池,例如:
用对了比加线程池容量更加重要
- 创建多少线程池合适
- 过小会导致程序不能充分地利用系统资源、容易导致饥饿
- 过大会导致更多的线程上下文切换,占用更多内存
3.1 CPU 密集型运算
通常采用 cpu 核数 + 1 能够实现最优的 CPU 利用率,+1 是保证当线程由于页缺失故障(操作系统)或其它原因 导致暂停时,额外的这个线程就能顶上去,保证 CPU 时钟周期不被浪费
3.2 I/O 密集型运算
CPU 不总是处于繁忙状态,例如,当你执行业务计算时,这时候会使用 CPU 资源,但当你执行 I/O 操作时、远程 RPC 调用时,包括进行数据库操作时,这时候 CPU 就闲下来了,你可以利用多线程提高它的利用率。
经验公式如下
线程数 = 核数 * 期望 CPU 利用率 * 总时间(CPU计算时间+等待时间) / CPU 计算时间
例如 4 核 CPU 计算时间是 50% ,其它等待时间是 50%,期望 cpu 被 100% 利用,套用公式 4 * 100% * 100% / 50% = 8
例如 4 核 CPU 计算时间是 10% ,其它等待时间是 90%,期望 cpu 被 100% 利用,套用公式 4 * 100% * 100% / 10% = 40
‘
8) 任务调度线程池
在『任务调度线程池』功能加入之前,可以使用 java.util.Timer 来实现定时功能,Timer 的优点在于简单易用,但 由于所有任务都是由同一个线程来调度,因此所有任务都是串行执行的,同一时间只能有一个任务在执行,前一个 任务的延迟或异常都将会影响到之后的任务。
任务2本来要求在06秒的时候执行 但由于任务一 被推迟到08秒
如果出了异常呢?
任务一没有正确捕捉异常 导致timer结束
如果把线程池中线程数量改为1 他还是会串行执行
加一些异常 看看他会怎么处理
不会受到异常的影响
除了延时执行任务 也可以定时执行任务 比如每隔一秒执行任务
如果任务执行的时间长怎么办?
本来在11s应该执行第二次任务 但是由于第一次任务还没有执行完 所以没有办法执行 等第一个任务执行完再执行第二个任务 相当于两个任务紧挨着执行了 但好处是不会让任务执行时重叠
按照上一次任务结束的时间算的
输出分析:一开始,延时 1s,scheduleWithFixedDelay 的间隔是 上一个任务结束 <-> 延时 <-> 下一个任务开始 所以间隔都是 3s
整个线程池表现为:线程数固定,任务数多于线程数时,会放入无界队列排队。任务执行完毕,这些线 程也不会被释放。用来执行延迟或反复执行的任务
9)正确处理执行任务异常
方法1:主动捉异常
方法2:使用 Future
future做得很好,如果代码没有异常 get返回的是结果 有异常 返回的是异常信息
应用之定时任务
每周四18:00定时执行任务
10) Tomcat 线程池
Tomcat 在哪里用到了线程池呢
tomcat有两个部分:连接器部分对外沟通 和 container容器部分获得servlet组件
连接器部分用到了线程池
当浏览器向服务器发请求时 先经过limitlatch
- LimitLatch 用来限流,可以控制最大连接个数,类似 J.U.C 中的 Semaphore 后面再讲
- Acceptor 只负责【接收新的 socket 连接】
- Poller 只负责监听 socket channel 是否有【可读的 I/O 事件】
- 一旦可读,封装一个任务对象(socketProcessor),提交给 Executor 线程池处理
- Executor 线程池中的工作线程最终负责【处理请求】
Tomcat 线程池扩展了 ThreadPoolExecutor,行为稍有不同
- 如果总线程数达到 maximumPoolSize
- 这时不会立刻抛 RejectedExecutionException 异常
- 而是再次尝试将任务放入队列,如果还失败,才抛出 RejectedExecutionException 异常
源码 tomcat-7.0.42
TaskQueue.java
Connector 配置
Executor 线程配置
tomcat替换了之前的队列方法 用TashQueue替换 之前讲的是 无界队列不能使用救急线程而tomcat里可以
3. Fork/Join
1)概念
Fork/Join 是 JDK 1.7 加入的新的线程池实现,它体现的是一种分治思想,适用于能够进行任务拆分的 cpu 密集型 运算
所谓的任务拆分,是将一个大任务拆分为算法上相同的小任务,直至不能拆分可以直接求解。跟递归相关的一些计 算,如归并排序、斐波那契数列、都可以用分治思想进行求解
Fork/Join 在分治的基础上加入了多线程,可以把每个任务的分解和合并交给不同的线程来完成,进一步提升了运 算效率
Fork/Join 默认会创建与 cpu 核心数大小相同的线程池
2)使用
提交给 Fork/Join 线程池的任务需要继承 RecursiveTask(有返回值)或 RecursiveAction(没有返回值),例如下 面定义了一个对 1~n 之间的整数求和的任务
例如:求1-n之间整数的和 那么如何拆分成子任务呢
先创建mytask5 给线程池执行 调用compute
用图来表示
因为这些任务之间是相互依赖的,所以任务之间相互要等待结果 能不能让他们并行的执行呢?改进:
然后提交给 ForkJoinPool 来执行
结果
用图来表示
7.2 J.U.C
AQS原理
- 概述
全称是 AbstractQueuedSynchronizer,是阻塞式锁和相关的同步器工具的框架
特点:
- 用 state 属性来表示资源的状态(分独占模式和共享模式),子类需要定义如何维护这个状态,控制如何获取 锁和释放锁
- getState - 获取 state 状态
- setState - 设置 state 状态
- compareAndSetState - cas 机制设置 state 状态
- 独占模式是只有一个线程能够访问资源,而共享模式可以允许多个线程访问资源
- 提供了基于 FIFO 的等待队列,类似于 Monitor 的 EntryList
- 条件变量来实现等待、唤醒机制,支持多个条件变量,类似于 Monitor 的 WaitSet
子类主要实现这样一些方法(默认抛出UnsupportedOperationException)
- tryAcquire
- tryRelease
- tryAcquireShared
- tryReleaseShared
- isHeldExclusively
获取锁的姿势
释放锁的姿势
- 实现不可重入锁
自定义同步器
自定义锁:
有了自定义同步器,很容易复用 AQS ,实现一个功能完备的自定义锁
release和trurelease区别
tryrelease 不会唤醒等待队列中阻塞的线程
release 可以唤醒
这是自带的release方法
测试:
测试一个线程加两次锁:不可重入
ReentrantLock 原理
- 非公平锁实现原理
加锁解锁流程
先从构造器开始看,默认为非公平锁实现
NonfairSync 继承自 AQS
没有竞争时
第一个竞争出现时
Thread-1 执行了
-
CAS 尝试将 state 由 0 改为 1,结果失败
-
进入 tryAcquire 逻辑,这时 state 已经是1,结果仍然失败
-
接下来进入 addWaiter 逻辑,构造 Node 队列
- 图中黄色三角表示该 Node 的 waitStatus 状态,其中 0 为默认正常状态
- Node 的创建是懒惰的
- 其中第一个 Node 称为 Dummy(哑元)或哨兵,用来占位,并不关联线程
当前线程进入 acquireQueued 逻辑
-
acquireQueued 会在一个死循环中不断尝试获得锁,失败后进入 park 阻塞
-
如果自己是紧邻着 head(排第二位),那么再次 tryAcquire 尝试获取锁,当然这时 state 仍为 1,失败
-
进入 shouldParkAfterFailedAcquire 逻辑,将前驱 node,即 head 的 waitStatus 改为 -1,这次返回 false -1表示他有责任唤醒它的后继结点
-
shouldParkAfterFailedAcquire 执行完毕回到 acquireQueued ,再次 tryAcquire 尝试获取锁,当然这时 state 仍为 1,失败
-
当再次进入 shouldParkAfterFailedAcquire 时,这时因为其前驱 node 的 waitStatus 已经是 -1,这次返回 true
-
进入 parkAndCheckInterrupt, Thread-1 park(灰色表示)所以它尝试了大概三次 然后park
再次有多个线程经历上述过程竞争失败,变成这个样子
Thread-0 释放锁,进入 tryRelease 流程,如果成功
- 设置 exclusiveOwnerThread 为 null
- state = 0
当前队列不为 null,并且 head 的 waitStatus = -1,进入 unparkSuccessor 流程 唤醒后继结点
是否需要 unpark 是由当前节点的前驱节点的 waitStatus == Node.SIGNAL 来决定,而不是本节点的 waitStatus 决定
找到队列中离 head 最近的一个 Node(没取消的),unpark 恢复其运行,本例中即为 Thread-1
回到 Thread-1 的 acquireQueued 流程
如果加锁成功(没有竞争),会设置
- exclusiveOwnerThread 为 Thread-1,state = 1
- head 指向刚刚 Thread-1 所在的 Node,该 Node 清空 Thread
- 原本的 head 因为从链表断开,而可被垃圾回收
如果这时候有其它线程来竞争(非公平的体现),例如这时有 Thread-4 来了
如果不巧又被 Thread-4 占了先 (非公平锁)
- Thread-4 被设置为 exclusiveOwnerThread,state = 1
- Thread-1 再次进入 acquireQueued 流程,获取锁失败,重新进入 park 阻塞
- 可重入原理
- 可打断原理
不可打断模式(默认)
在此模式下,即使它被打断,仍会驻留在 AQS 队列中,一直要等到获得锁后方能得知自己被打断了(继续运行,只是打断标记设置为true)
线程在没法获得锁的时候 会调用acquireQueued 尝试失败 进入park阻塞 被打断后 parkAndCheckInterrupt返回true acquireQueued中的interrupted设置为true,然后再次进入循环 如果没获得锁 还是进入park阻塞 只有他获得锁的时候 他才会把打断标记作为结果返回 返回到acquire方法,执行if里面的内容 seflInterrupt
重新产生一次打断
可打断模式:
- 公平锁实现原理
先看一下非公平锁
再看一下公平锁
第一个线程准备添加老二入队列 创建了亚元结点 将head指向它 但还没来得及赋给尾结点时 会出现h!=t
这时来了另一个线程 发现h!=t,但是只有一个结点 所以他知道 老二还没来得及被加入进去 那我不能获取锁
- 条件变量实现原理
每个条件变量其实就对应着一个等待队列,其实现类是 ConditionObject
await 流程
开始 Thread-0 持有锁,调用 await,进入 ConditionObject 的 addConditionWaiter 流程
创建新的 Node 状态为 -2(Node.CONDITION),关联 Thread-0,加入等待队列尾部
接下来进入 AQS 的 fullyRelease 流程,释放同步器上的锁,为啥不用release,因为有可能发生了锁重入 state不是1了
unpark AQS 队列中的下一个节点,竞争锁,假设没有其他竞争线程,那么 Thread-1 竞争成功
park 阻塞 Thread-0
signal 流程
先看是否为锁的持有者
假设 Thread-1 要来唤醒 Thread-0
进入 ConditionObject 的 doSignal 流程,取得等待队列中第一个 Node,即 Thread-0 所在 Node
执行 transferForSignal 流程,将该 Node 加入 AQS 队列尾部,将 Thread-0 的 waitStatus 改为 0,Thread-3 的waitStatus 改为 -1
转移失败的情况:等待队列中的元素可能被打断或超时 他放弃了锁竞争 一旦被取消 返回false,进入循环 寻找下一个进行signal唤醒
enq方法把结点加入等待队列中 返回它的前驱结点 thread3
Thread-1 释放锁,进入 unlock 流程,略
读写锁
- ReentrantReadWriteLock
当读操作远远高于写操作时,这时候使用 读写锁 让读-读 可以并发,提高性能。 类似于数据库中的select …from … lock in share mode
提供一个数据容器类 内部分别使用读锁保护数据的read() 方法,写锁保护数据的 write() 方法
不加读锁,读写同时发生就出现并发问题,加了读锁,同时过来一个写锁的就会阻塞
修改一下 加个sleep
测试一下:
读读:
读写:
等到读锁释放掉锁 才能写入
写写:
给写也加一个延时
总结:读读可以并发 但是读写 写写 是互斥的
注意事项
- 读锁不支持条件变量 写锁支持
- 重入时升级不支持:即持有读锁的情况下去获取写锁,会导致获取写锁永久等待
- 重入时降级支持:即持有写锁的情况下去获取读锁
在写锁里降级为读锁 保证数据一致性
应用之缓存:
这样有多线程并发问题:
hashmap 不行 不是线程安全
多个线程要获取数据,都执行if(value!=null)发现缓存还没有 然后都进行查询数据库操作
update中 清空缓存 和 更新数据库 是两个操作
- 缓存更新策略
更新时,是先清缓存还是先更新数据库 先清缓存
先更新数据库
只有第一次出现不一致 后续都是获得的最新的 虽然不是完全一致 但也稍好点
补充一种情况,假设查询线程 A 查询数据时恰好缓存数据由于时间到期失效,或是第一次查询
这种情况的出现几率非常小,见 facebook 论文
- 读写锁实现一致性缓存
使用读写锁实现一个简单的按需加载缓存
写锁里面的那个if value==null 双重检查 防止多个线程都加载到这的时候每个线程都查询一次数据库
适合读取操作往往高于写操作
注意
- 以上实现体现的是读写锁的应用,保证缓存和数据库的一致性,但有下面的问题没有考虑
- 适合读多写少,如果写操作比较频繁,以上实现性能低
- 没有考虑缓存容量
- 没有考虑缓存过期
- 只适合单机
- 并发性还是低,目前只会用一把锁 提升一下:针对表一用一把锁 针对表二又另一把锁
- 更新方法太过简单粗暴,清空了所有 key(考虑按类型分区或重新设计 key)
- 乐观锁实现:用 CAS 去更新
读写锁原理:
- 图解流程
读写锁用的是同一个 Sycn 同步器,因此等待队列、state 等也是同一个
t1 w.lock,t2 r.lock
1) t1 成功上锁,流程与 ReentrantLock 加锁相比没有特殊之处,不同是写锁状态占了 state 的低 16 位,而读锁 使用的是 state 的高 16 位
c不等于0的情况 有可能别人加的是读锁 有可能别人加的写锁
w计算的写锁的数值 如果w==0 说明别人加的是读锁 与t1写锁互斥
如果w不等于0 说明别人加的是写锁 同时还要检查这个写锁是不是自己加的呢 锁重入
如果写锁加上新的acquire超出最大范围 抛异常
2)t2 执行 r.lock,这时进入读锁的 sync.acquireShared(1) 流程,首先会进入 tryAcquireShared 流程。如果有写 锁占据,那么 tryAcquireShared 返回 -1 表示失败
先检查写锁是否为0 然后看加写锁是不是自己 锁降级 在这个例子中,返回-1
tryAcquireShared 返回值表示
- -1 表示失败
- 0 表示成功,但后继节点不会继续唤醒
- 正数表示成功,而且数值是还有几个后继节点需要唤醒,读写锁返回 1
- 读写锁中就 -1 1
3)这时会进入 sync.doAcquireShared(1) 流程,首先也是调用 addWaiter 添加节点,不同之处在于节点被设置为 Node.SHARED 模式而非 Node.EXCLUSIVE 模式,注意此时 t2 仍处于活跃状态
4)t2 会看看自己的节点是不是老二,如果是,还会再次调用 tryAcquireShared(1) 来尝试获取锁
5)如果没有成功,在 doAcquireShared 内 for (;😉 循环一次,执行shouldParkAfterFailedAcquire,把前驱节点的 waitStatus 改为 -1,返回false,parkAndCheckInterrupt()不执行 所以再 for (;😉 循环一 次尝试 tryAcquireShared(1) 如果还不成功 ,shouldParkAfterFailedAcquire返回true,那么在 parkAndCheckInterrupt() 处 park
t3 r.lock,t4 w.lock
这种状态下,假设又有 t3 加读锁和 t4 加写锁,这期间 t1 仍然持有锁,就变成了下面的样子
t2 t3 读 shared共享状态
t4写 Ex独占状态
t1 w.unlock
这时会走到写锁的 sync.release(1) 流程,调用 sync.tryRelease(1) 成功,变成下面的样子 set owner为null
接下来执行唤醒流程 sync.unparkSuccessor,即让老二恢复运行,这时 t2 在 doAcquireShared 内 parkAndCheckInterrupt() 处恢复运行
进入到tryAcquireShared
这回再来一次 for (;😉 执行 tryAcquireShared 成功则让读锁计数加一 (compareAndSetState)return 1
这时 t2 已经恢复运行,接下来 t2 调用 setHeadAndPropagate(node, 1),它原本所在节点被置为头节点
事情还没完,在 setHeadAndPropagate 方法内还会检查下一个节点(s=node.next)是否是 shared,如果是则调用 doReleaseShared() 将 head 的状态从 -1 改为 0 并唤醒老二,这时 t3 在 doAcquireShared 内 parkAndCheckInterrupt() 处恢复运行
这回再来一次 for (;😉 执行 tryAcquireShared 成功则让读锁计数加一 现在变成了2
这时 t3 已经恢复运行,接下来 t3 调用 setHeadAndPropagate(node, 1),它原本所在节点被置为头节点
下一个节点不是 shared 了,因此不会继续唤醒 t4 所在节点
t2 r.unlock,t3 r.unlock
t2 进入 sync.releaseShared(1) 中,调用 tryReleaseShared(1) 让计数减一,但由于计数还不为零 所以不会执行doReleaseShared() return false
t3 进入 sync.releaseShared(1) 中,调用 tryReleaseShared(1) 让计数减一,这回计数为零了,进入 doReleaseShared() 将头节点从 -1 改为 0 并唤醒老二,即
之后 t4 在 acquireQueued 中 parkAndCheckInterrupt 处恢复运行,再次 for (;😉 这次自己是老二,并且没有其他 竞争,tryAcquire(1) 成功,修改头结点,写锁状态变成1,owner变成t4 流程结束
看一下tryAquire
StampedLock
该类自 JDK 8 加入,是为了进一步优化读性能,它的特点是在使用读锁、写锁时都必须配合【戳】使用
加解读锁
long stamp = lock.readLock();
lock.unlockRead(stamp);
加解写锁
long stamp = lock.writeLock();
lock.unlockWrite(stamp);
乐观读,StampedLock 支持 tryOptimisticRead() 方法(乐观读)(这个方法内没有加任何的锁),读取之前需要做一次 戳校验 如果校验通 过,表示这期间确实没有写操作,数据可以安全使用,如果校验没通过,说明数据被别人影响了,需要重新获取读锁,保证数据安全。
long stamp = lock.tryOptimisticRead();
// 验戳
if(!lock.validate(stamp)){
// 锁升级
}
例子:
读读并发
如果有写操作呢
注意
- StampedLock 不支持条件变量
- StampedLock 不支持可重入
Semaphore
基本使用
信号量,用来限制能同时访问共享资源的线程上限。
改进连接池:
Semaphore 原理
- 加锁解锁流程
Semaphore 有点像一个停车场,permits 就好像停车位数量,当线程获得了 permits 就像是获得了停车位,然后 停车场显示空余车位减一
刚开始,permits(state)为 3,这时 5 个线程来获取资源
先看构造方法
进入父类构造器 这个类是继承AQS 限制数 赋给了state
比如thread1 进来 available为3 acquire为1 剩余2 通过conpareAndSetState把3改为2 返回2
假设其中 Thread-1,Thread-2,Thread-4 cas 竞争成功 把state减为0,而 Thread-0 和 Thread-3 竞争失败,进入 AQS 队列 park 阻塞
对于thread0 remaining为-1 判断了 if(remaining<0|| 直接返回-1 不执行conpareAndSetState
然后执行doAqcuireSharedInterruptibly
这时 Thread-4 释放了 permits,状态如下
current 为0,next为1,把state从0 改为1 返回true
进入doReleaseShared
看头结点是否状态为-1,是的话,改为0,唤醒后继节点thread0
它是老二,尝试获得 成功 把state从1 改为 0 返回r=0,进入if块,把自己设为头结点,唤醒后继结点 虽然thread3被唤醒了 但是没有其他的线程release,state还是0,所以他尝试之后又进入阻塞
接下来 Thread-0 竞争成功,permits 再次设置为 0,设置自己为 head 节点,断开原来的 head 节点,unpark 接 下来的 Thread-3 节点,但由于 permits 是 0,因此 Thread-3 在尝试不成功后再次进入 park 状态
CountdownLatch
用来进行线程同步协作,等待所有线程完成倒计时后才恢复运行。
其中构造参数用来初始化等待计数值,await() 用来等待计数归零,countDown() 用来让计数减一
在latch.await()下面加一个 wait end 日志
可以配合线程池使用,改进如下
在线程池里面 因为有的线程要一直运行 所以不能用join 用这个countdownlatch较合适
应用之同步等待多线程准备完毕
模拟王者加载过程
先模拟一个线程
应用之同步等待多个远程调用结束
有时希望多次远程调用都执行完成了 才能向下运行
使用者要用到下面三个服务:把这三个信息汇总好了,才可以向下运行
改进一下:
主线程要获取其他线程的结果,用latch不够了,要用future 不获取结果的时候 用latch合适
CyclicBarrier
之前的例子:
我想让他循环三次
但这不好 因为每次循环 都创建了一次latch对象,能不能重置count 不能重用 所以可以使用cyclicBarrier
循环栅栏,用来进行线程协作,等待线程满足某个计数。构造时设置『计数个数』,每个线程执 行到某个需要“同步”的时刻调用 await() 方法进行等待,当等待的线程数满足『计数个数』时,继续执行 可以重用
cyclicbarrier 有一个参数是 其他的线程都执行完了 之后 再执行的任务
而且可以被重复使用 变为0之后 在调用await 恢复成2
线程数最好和计数一致 如果把线程数设为三 这时候 任务1 任务2 第二次的任务1执行 由于任务一的时间短 所以 任务一 和 第二次任务一 先执行完,这时候减为0了 所以不是真正的task1 和 task2 finish
线程安全集合类概述
线程安全集合类可以分为三大类:
- 遗留的线程安全集合如 Hashtable , Vector sychronized修饰的
- 使用 Collections 装饰的线程安全集合,如:
- Collections.synchronizedCollection
- Collections.synchronizedList
- Collections.synchronizedMap
- Collections.synchronizedSet
- Collections.synchronizedNavigableMap
- Collections.synchronizedNavigableSet
- Collections.synchronizedSortedMap
- Collections.synchronizedSortedSet
- java.util.concurrent.*
把不安全的map变成了安全的synchrondMap
重点介绍 java.util.concurrent.* 下的线程安全集合类,可以发现它们有规律,里面包含三类关键词: Blocking、CopyOnWrite、Concurrent
- Blocking 大部分实现基于锁,并提供用来阻塞的方法 让线程在不满足条件的时候阻塞 reentrylock锁
- CopyOnWrite 之类容器修改开销相对较重 适合读多写少
- Concurrent 类型的容器
- 内部很多操作使用 cas 优化,一般可以提供较高吞吐量
- 弱一致性
- 遍历时弱一致性,例如,当利用迭代器遍历时,如果容器发生修改,迭代器仍然可以继续进行遍 历,这时内容是旧的
- 求大小弱一致性,size 操作未必是 100% 准确
- 读取弱一致性 有可能读取的时候 其他人已经改了
遍历时如果发生了修改,对于非安全容器来讲,使用 fail-fast 机制也就是让遍历立刻失败,抛出 ConcurrentModificationException,不再继续遍历
而线程安全集合 不会失败 fail-safe
ConcurrentHashMap
练习:单词计数
生成测试数据
有线程安全问题
用concurrenthashmap也不行
每个方法是线程安全的 但是方法的组合不是线程安全的
解决:
但是性能不高
改进:
如果累加器没有 它创建一个累加器 如果有了 她返回对应的累加器
ConcurrentHashMap 原理
- JDK 7 HashMap 并发死链
测试代码
注意
- 要在 JDK 7 下运行,否则扩容机制和 hash 的计算方法都变了
- jdk7 中 新加的元素会放到链表的头部 8中是尾部
- 以下测试代码是精心准备的,不要随便改动
元素个数超过数组长度3/4会进行扩容
多线程下进行扩容 容易造成并发死链 内存溢出 程序卡死
死链复现
调试工具使用 idea
在 HashMap 源码 590 行加断点
int newCapacity = newTable.length;
断点的条件如下,目的是让 HashMap 在扩容为 32 时,并且线程为 Thread-0 或 Thread-1 时停下来
断点暂停方式选择 Thread,否则在调试 Thread-0 时,Thread-1 无法恢复运行
运行代码,程序在预料的断点位置停了下来
接下来进入扩容流程调试
在 HashMap 源码 594 行加断点
这是为了观察 e 节点和 next 节点的状态,Thread-0 单步执行到 594 行,再 594 处再添加一个断点(条件 Thread.currentThread().getName().equals(“Thread-0”))
这时可以在 Variables 面板观察到 e 和 next 变量,使用 view as -> Object 查看节点状态
在 Threads 面板选中 Thread-1 恢复运行,可以看到控制台输出新的内容如下,Thread-1 扩容已完成
这时 Thread-0 还停在 594 处, Variables 面板变量的状态已经变化为
因为e指向1 next指向35
为什么呢,因为 Thread-1 扩容时链表也是后加入的元素放入链表头,因此链表就倒过来了,但 Thread-1 虽然结 果正确,但它结束后 Thread-0 还要继续运行
接下来就可以单步调试(F8)观察死链的产生了
下一轮循环到 594,将 e 搬迁到 newTable 链表头
再看看源码
源码分析
HashMap 的并发死链发生在扩容时
假设 map 中初始元素是
小结:
- 究其原因,是因为在多线程环境下使用了非线程安全的 map 集合
- JDK 8 虽然将扩容算法做了调整,不再将元素加入链表头(而是保持与扩容前一样的顺序,这样避免了死链问题),但仍不意味着能 够在多线程环境下能够安全扩容,还会出现其它问题(如扩容丢数据)
- JDK 8 ConcurrentHashMap
重要属性和内部类
重要方法
forwardingnode用途:
扩容时 从后往前遍历 遍历完用forwardingnode作为旧的表bin头结点 还有第二个用途 当扩容进行中 别的线程get方法 发现想要get的那个位置已经有fnode,他就去新的表中查询
treebin 数据很多的时候用红黑树更方便 并且可以防止ddos 有黑客大量用相同的hash向表中填充进行攻击 用红黑树可以避免
通常链表长度超过8 但是数组长度小于64的时候 他会先扩容
扩容到64以后 改用红黑树来存储 当红黑树结点数小于6了 他又变回到原来的链表
treebin是红黑树的头结点 treenode是红黑树里面的每个结点
构造器分析
可以看到实现了懒惰初始化,在构造方法中仅仅计算了 table 的大小,以后在第一次使用时才会真正创建
负载因子:扩容阈值 3/4
初始容量小于并发度的时候 会把初始容量改为并发度大小
jdk8 懒惰初始化 必须2^n大小 hash表才能正常工作
get 流程
spread 负数有额外用途 所以转成正数
tabAt找到桶下标头结点
在扩容中 forwardingnode
put 流程
以下数组简称(table),链表简称(bin)
onlyIfAbsent 为true 不会新值覆盖旧值 false 新值覆盖旧值
发现有forwardingnode 帮忙扩容 因为扩容是以链表为单位进行的 所以每个线程可以帮忙锁住该链表 保证这个链表的线程安全
helptransfer帮忙锁住这个链表
只有桶下标发生了冲突 才会进入这个条件块中 只对这个链表的头结点进行加锁
fh>0 说明是普通链表
如果小于0 说明是红黑树
bincount不为0 说明里面的长度是大于一的
size计数 类似于longadder 设置多个累加单元 提高并发度
要保证线程安全 只能一个线程创建
else if里面用cas的方式 sizecontrol由正数改为-1 表示正在创建hash表 如果有一个线程成功了 就去创建 其他线程失败了就会再次进入循环 再次检查 发现如果表还没创建 sizecontrol已经为负数 表示有其他线程正在创建 他们就会yield 让出cpu使用权
sc = n - (n >>> 2) 计算下次扩容的阈值
扩容:
addcount两点:计数 扩容
size 计算流程
size 计算实际发生在 put,remove 改变集合元素的操作之中
- 没有竞争发生,向 baseCount 累加计数
- 有竞争发生,新建 counterCells,向其中的一个 cell 累加计数
- counterCells 初始有两个 cell
- 如果计数竞争比较激烈,会创建新的 cell 来累加计数
size()不是很准确 大概值
if nextTab为null 创建nextTable
else if f==null 说明这个链表已经处理完了 将链表头替换成fwd forwarddingnode
链表头有元素 就把链表头锁住 然后看 是普通结点 还是 红黑树
Java 8 数组(Node) +( 链表 Node | 红黑树 TreeNode ) 以下数组简称(table),链表简称(bin)
- 初始化,使用 cas 来保证并发安全,懒惰初始化 table
- 树化,当 table.length < 64 时,先尝试扩容,超过 64 时,并且 bin.length > 8 时,会将链表树化,树化过程 会用 synchronized 锁住链表头
- put,如果该 bin 尚未创建,只需要使用 cas 创建 bin;如果已经有了,锁住链表头进行后续 put 操作,元素 添加至 bin 的尾部
- get,无锁操作仅需要保证可见性,扩容过程中 get 操作拿到的是 ForwardingNode 它会让 get 操作在新 table 进行搜索
- 扩容,扩容时以 bin 为单位进行,需要对 bin 进行 synchronized,但这时妙的是其它竞争线程也不是无事可 做,它们会帮助把其它 bin 进行扩容,扩容时平均只有 1/6 的节点会把复制到新 table 中
- size,元素个数保存在 baseCount 中,并发时的个数变动保存在 CounterCell[] 当中。最后统计数量时累加 即可
- JDK 7 ConcurrentHashMap
它维护了一个 segment 数组,每个 segment 对应一把锁
- 优点:如果多个线程访问不同的 segment,实际是没有冲突的,这与 jdk8 中是类似的
- 缺点:Segments 数组默认大小为16,这个容量初始化指定后就不能改变了,并且不是懒惰初始化
构造器分析
构造完成,如下图所示
可以看到 ConcurrentHashMap 没有实现懒惰初始化,空间占用不友好
其中 this.segmentShift 和 this.segmentMask 的作用是决定将 key 的 hash 结果匹配到哪个 segment
例如,根据某一 hash 值求 segment 位置,先将高位向低位移动 this.segmentShift 位
如果segments大小为16 segmentshift = 32 - 4 = 28
结果再与 this.segmentMask 做位于运算,最终得到 1010 即下标为 10 的 segment
put 流程
segment 继承了可重入锁(ReentrantLock),它的 put 方法为
rehash 流程
发生在 put 中,因为此时已经获得了锁,因此 rehash 时不需要考虑线程安全
扩容情况:
- 链表中就一个结点 没有下一个结点 直接搬迁到新的table里
- else 过一遍链表 看看hash在扩容之后跟上一次有没有变化 改变的话就记录下来 把没变的移过去 剩余的新建
扩容完成之后 才加新结点进去
get 流程
get 时并未加锁,用了 UNSAFE 方法保证了可见性,扩容过程中,get 先发生就从旧表取内容,get 后发生就从新 表取内容
不能直接用volatile修饰 因为无论是segment还是链表头 他们都是在数组里的 是数组里的元素 光加volatile不行 所以用Unsafe
size 计算流程
- 计算元素个数前,先不加锁计算两次,如果前后两次结果如一样,认为个数正确返回
- 如果不一样,进行重试,重试次数超过 3,将所有 segment 锁住,重新计算个数返回
LinkedBlockingQueue 原理
- 基本的入队出队
初始化链表 last = head = new Node(null); Dummy 节点用来占位,item 为 null
当一个节点入队 last = last.next = node;
再来一个节点入队 last = last.next = node;
出队
h= head
first = h.next
h.next = h
head = first
- 加锁分析
高明之处在于用了两把锁和 dummy 节点
- 用一把锁,同一时刻,最多只允许有一个线程(生产者或消费者,二选一)执行
- 用两把锁,同一时刻,可以允许两个线程同时(一个生产者与一个消费者)执行
- 消费者与消费者线程仍然串行
- 生产者与生产者线程仍然串行
线程安全分析
- 当节点总数大于 2 时(包括 dummy 节点),putLock 保证的是 last 节点的线程安全,takeLock 保证的是 head 节点的线程安全。两把锁保证了入队和出队没有竞争
- 当节点总数等于 2 时(即一个 dummy 节点,一个正常节点)这时候,仍然是两把锁锁两个对象,不会竞争
- 当节点总数等于 1 时(就一个 dummy 节点)这时 take 线程会被 notEmpty 条件阻塞,有竞争,会阻塞
put 操作
take 操作
由 put 唤醒 put 是为了避免信号不足
- 性能比较
主要列举 LinkedBlockingQueue 与 ArrayBlockingQueue 的性能比较
- Linked 支持有界,Array 强制有界
- Linked 实现是链表,Array 实现是数组
- Linked 是懒惰的,而 Array 需要提前初始化 Node 数组
- Linked 每次入队会生成新 Node,而 Array 的 Node 是提前创建好的
- Linked 两把锁,Array 一把锁
ConcurrentLinkedQueue 原理
ConcurrentLinkedQueue 的设计与 LinkedBlockingQueue 非常像,也是
- 两把【锁】,同一时刻,可以允许两个线程同时(一个生产者与一个消费者)执行
- dummy 节点的引入让两把【锁】将来锁住的是不同对象,避免竞争
- 只是这【锁】使用了 cas 来实现
事实上,ConcurrentLinkedQueue 应用还是非常广泛的
例如之前讲的 Tomcat 的 Connector 结构时,Acceptor 作为生产者向 Poller 消费者传递事件信息时,正是采用了 ConcurrentLinkedQueue 将 SocketChannel 给 Poller 使用
CopyOnWriteArrayList
CopyOnWriteArraySet 是它的马甲 底层实现采用了 写入时拷贝 的思想,增删改操作会将底层数组拷贝一份,更 改操作在新数组上执行,这时不影响其它线程的并发读,读写分离。 只有写写会互斥,以新增为例:
这里的源码版本是 Java 11,在 Java 1.8 中使用的是可重入锁而不是 synchronized
其它读操作并未加锁,例如:
适合『读多写少』的应用场景 因为写的时候会拷贝 成本高
get 弱一致性
迭代器弱一致性
先打印 2 3
再打印 1 2 3