关于我们
书单推荐
新书推荐
|
Java并发编程的艺术 读者对象:JAVA语言程序设计人员
本书从并发编程的底层实现机制入手,围绕JDK源码、JVM、CPU等多角度详细介绍了设计Java并发程序的框架、原理、核心技术、设计模式与应用,同时辅以丰富的示例代码,使得开发人员能够更快地领悟Java并发编程的要领,利用Java平台的基础并发功能快速地构建大规模的并发应用。
适读人群 :*Java开发工程师、架构师、并发编程爱好者、开设相关课程的大专院校师生
(1)公认标准著作:第1版在广大读者和Java专家群体中均获得了超高口碑,是Java并发编程领域公认的标准性著作。
【第2版迎来重大更新:】 为了反映Java并发编程领域的最新变化,为了解决Java并发编程领域的最新难题,本书第2版修订和新增的内容超过50%。 (1)第4章更新并增加“JDK9内存顺序模型”; (2)第5章更新并增加“StampedLock”“LockSupport 工具”“Condition 接口”; (3)第6章更新并增加“JDK 8 中的 ConcurrentHashMap”; (4)第7章更新并增加“ JDK 8 中的原子更新新特性”; (5)第10章更新并增加“JDK 8 的FutureTask 实现”; (6)新增第12章“分布式编程基础”; (7)新增第13章“分布式锁”; (8)新增第14章“分布式系统架构”。
【为什么要写这本书】
【第2版与第1版的区别】
【本书特色】
【读者对象】
【如何阅读本书】
本书共14章,由三位作者共同完成。其中第1章、第5章和第13章由魏鹏编写,第4章和第10章由程晓明编写,第12章由三位作者共同编写,第14章由程晓明和方腾飞编写,其余7章由方腾飞编写。
方腾飞(花名:清英;英文名:kiral)
*魏鹏
*程晓明 前 言 第1章 Java并发编程基础 1 1.1 线程简介 1 1.1.1 什么是线程 1 1.1.2 为什么要使用多线程 2 1.1.3 线程优先级 3 1.1.4 线程的状态 4 1.1.5 Daemon线程 8 1.2 启动和终止线程 8 1.2.1 构造线程 9 1.2.2 启动线程 9 1.2.3 理解中断 9 1.2.4 过期的suspend()、resume()和 stop() 11 1.2.5 安全地终止线程 12 1.3 线程间通信 13 1.3.1 volatile和synchronized关键字 13 1.3.2 等待/通知机制 15 1.3.3 等待/通知的经典范式 18 1.3.4 管道输入/输出流 19 1.3.5 thread.join()的使用 20 1.3.6 ThreadLocal的使用 22 1.4 线程应用实例 23 1.4.1 等待超时模式 23 1.4.2 一个简单的数据库连接池示例 23 1.4.3 线程池技术及其示例 27 1.4.4 一个基于线程池技术的简单 Web服务器 30 1.5 本章小结 34 第2章 并发编程的挑战 35 2.1 上下文切换 35 2.1.1 多线程一定快吗 35 2.1.2 测试上下文切换次数和时长 37 2.1.3 如何减少上下文切换 37 2.1.4 减少上下文切换实战 38 2.2 死锁 39 2.3 资源限制的挑战 40 2.4 本章小结 41 第3章 Java并发机制的底层实现 原理 42 3.1 volatile的应用 42 3.2 synchronized的实现原理与应用 45 3.2.1 Java对象头 46 3.2.2 锁的升级与对比 47 3.3 原子操作的实现原理 50 3.4 本章小结 54 第4章 Java内存模型 55 4.1 Java内存模型基础 55 4.1.1 并发编程模型的两个关键 问题 55 4.1.2 Java内存模型的抽象结构 56 4.1.3 从源代码到指令序列的重 排序 57 4.1.4 并发编程模型的分类 58 4.1.5 happens-before简介 60 4.2 重排序 61 4.2.1 数据依赖性 62 4.2.2 as-if-serial语义 62 4.2.3 程序顺序规则 63 4.2.4 重排序对多线程的影响 63 4.3 顺序一致性 65 4.3.1 数据竞争与顺序一致性 65 4.3.2 顺序一致性内存模型 66 4.3.3 同步程序的顺序一致性效果 68 4.3.4 未同步程序的执行特性 69 4.4 volatile的内存语义 71 4.4.1 volatile的特性 72 4.4.2 volatile写-读建立的 happens-before关系 73 4.4.3 volatile写-读的内存语义 74 4.4.4 volatile内存语义的实现 76 4.4.5 JSR-133为什么要增强volatile的 内存语义 80 4.5 锁的内存语义 81 4.5.1 锁的释放-获取建立的 happens-before关系 81 4.5.2 锁的释放和获取的内存语义 81 4.5.3 锁内存语义的实现 83 4.5.4 concurrent包的实现 87 4.6 f?inal域的内存语义 89 4.6.1 f?inal域的重排序规则 89 4.6.2 写f?inal域的重排序规则 89 4.6.3 读f?inal域的重排序规则 90 4.6.4 f?inal域为引用类型 92 4.6.5 为什么f?inal引用不能在构造 函数中“逸出” 93 4.6.6 f?inal语义在处理器中的实现 94 4.6.7 JSR-133为什么要增强f?inal的 语义 95 4.7 happens-before 95 4.7.1 JMM的设计 95 4.7.2 happens-before的定义 97 4.7.3 happens-before规则 98 4.8 双重检查锁定与延迟初始化 100 4.8.1 双重检查锁定的由来 100 4.8.2 问题的根源 102 4.8.3 基于volatile的解决方案 104 4.8.4 基于类初始化的解决方案 105 4.9 Java内存模型综述 111 4.9.1 处理器的内存模型 111 4.9.2 各种内存模型之间的关系 112 4.9.3 JMM的内存可见性保证 114 4.9.4 JSR-133对旧内存模型的修补 115 4.10 JDK 9内存顺序模型 115 4.10.1 背景 115 4.10.2 Plain 116 4.10.3 Opaque 116 4.10.4 Release/Acquire 117 4.10.5 volatile 118 4.10.6 总结 118 4.11 本章小结 119 第5章 Java中的锁 120 5.1 Lock接口 120 5.2 队列同步器 122 5.2.1 队列同步器的接口与示例 122 5.2.2 队列同步器的实现分析 125 5.3 重入锁 136 5.4 读写锁 141 5.4.1 读写锁的接口与示例 141 5.4.2 读写锁的实现分析 143 5.5 StampedLock 146 5.5.1 StampedLock的接口与示例 147 5.5.2 StampedLock的实现分析 152 5.6 LockSupport工具 160 5.7 Condition接口 161 5.7.1 Condition的接口与示例 162 5.7.2 Condition的实现分析 164 5.8 本章小结 168 第6章 Java并发容器和框架 169 6.1 ConcurrentHashMap的实现 原理与使用 169 6.1.1 为什么要使用 ConcurrentHashMap 169 6.1.2 ConcurrentHashMap的结构 170 6.1.3 ConcurrentHashMap的 初始化 171 6.1.4 定位Segment 173 6.1.5 ConcurrentHashMap的操作 174 6.1.6 JDK 8中的 ConcurrentHashMap 175 6.2 ConcurrentLinkedQueue 175 6.2.1 ConcurrentLinkedQueue的 结构 176 6.2.2 入队列 176 6.2.3 出队列 179 6.3 Java中的阻塞队列 181 6.3.1 什么是阻塞队列 181 6.3.2 7个阻塞队列 182 6.3.3 阻塞队列的实现原理 186 6.4 Fork/Join框架 189 6.4.1 什么是Fork/Join框架 189 6.4.2 工作窃取算法 190 6.4.3 Fork/Join框架的设计 190 6.4.4 使用Fork/Join框架 191 6.4.5 Fork/Join框架的异常处理 192 6.4.6 Fork/Join框架的实现原理 193 6.5 本章小结 194 第7章 Java中的13个原子操作类 195 7.1 原子更新基本类型 195 7.2 原子更新数组类型 197 7.3 原子更新引用类型 198 7.4 原子更新字段类型 199 7.5 JDK 8中的原子更新新特性 200 7.6 本章小结 201 第8章 Java中的并发工具类 202 8.1 等待多线程完成的 CountDownLatch 202 8.2 同步屏障CyclicBarrier 204 8.2.1 CyclicBarrier简介 204 8.2.2 CyclicBarrier的应用场景 206 8.2.3 CyclicBarrier和 CountDownLatch的区别 208 8.3 控制并发线程数的Semaphore 209 8.4 线程间交换数据的Exchanger 210 8.5 本章小结 211 第9章 Java中的线程池 212 9.1 线程池的实现原理 212 9.2 线程池的使用 215 9.2.1 线程池的创建 215 9.2.2 向线程池提交任务 216 9.2.3 关闭线程池 217 9.2.4 合理地配置线程池 217 9.2.5 线程池的监控 218 9.3 本章小结 219 第10章 Executor框架 220 10.1 Executor框架简介 220 10.1.1 Executor框架的两级调度 模型 220 10.1.2 Executor框架的结构与成员 220 10.2 ThreadPoolExecutor详解 225 10.2.1 FixedThreadPool详解 225 10.2.2 SingleThreadExecutor 详解 226 10.2.3 CachedThreadPool详解 227 10.3 ScheduledThreadPoolExecutor ?详解 229 10.3.1 ScheduledThreadPoolExecutor的 运行机制 229 10.3.2 ScheduledThreadPoolExecutor的 实现 230 10.4 FutureTask详解 233 10.4.1 FutureTask简介 233 10.4.2 FutureTask的使用 235 10.4.3 JDK 6的FutureTask实现 236 10.4.4 JDK 8的FutureTask实现 238 10.5 本章小结 243 第11章 Java并发编程实践 244 11.1 生产者和消费者模式 244 11.1.1 生产者和消费者模式实战 245 11.1.2 多生产者和多消费者场景 247 11.1.3 线程池与生产者和消费者 模式 250 11.2 线上问题定位 250 11.3 性能测试 252 11.4 异步任务池 254 11.5 本章小结 256 第12章 分布式编程基础 257 12.1 分布式CAP原则 257 12.1.1 CAP原则简介 257 12.1.2 CAP原则证明 258 12.1.3 CAP原则思考 260 12.2 分布式事务:两阶段提交 262 12.2.1 分布式事务面临的挑战 262 12.2.2 拜占庭将军问题 263 12.2.3 两阶段提交协议 264 12.2.4 对两阶段提交的思考 265 12.3 分布式事务:TCC 266 12.3.1 TCC的主要优势 267 12.3.2 TCC的使用代价 269 12.3.3 支持TCC的Seata 270 12.3.4 一个基于Seata的参考 示例 273 12.4 分布式协议:RAFT 279 12.4.1 RAFT的运行流程 279 12.4.2 集群中断和恢复 280 12.5 分布式协议:Paxos 282 12.5.1 背景 282 12.5.2 Basic Paxos 285 12.5.3 Multi-Paxos 301 12.6 本章小结 306 第13章 分布式锁 308 13.1 什么是分布式锁 308 13.1.1 分布式锁的定义 308 13.1.2 使用分布式锁的原因 309 13.1.3 分布式锁的分类 309 13.2 实现分布式锁会遇到的问题 310 13.2.1 性能问题 311 13.2.2 正确性问题 313 13.2.3 可用性问题 313 13.2.4 成本问题 315 13.3 分布式锁框架 316 13.3.1 为什么需要分布式锁框架 317 13.3.2 分布式锁框架的组成 317 13.3.3 实现:基于Redis的 分布式锁 321 13.3.4 扩展:分布式锁访问日志 325 13.4 拉模式的分布式锁 327 13.4.1 什么是拉模式 327 13.4.2 拉模式需要注意的问题 329 13.4.3 Redis分布式锁实现 330 13.4.4 Redis分布式锁存在的 问题 333 13.4.5 扩展:本地热点锁 337 13.5 推模式的分布式锁 340 13.5.1 什么是推模式 341 13.5.2 ZooKeeper如何实现推模式的 分布式锁 343 13.5.3 Curator分布式锁 349 13.5.4 ZooKeeper分布式锁实现 351 13.5.5 ZooKeeper分布式锁存在的 问题 351 13.6 再看分布式锁 353 13.6.1 比选择推与拉更重要的 是什么 353 13.6.2 解锁胜于用锁 355 13.7 本章小结 357 第14章 分布式系统架构 358 14.1 分布式场景下的限流架构方案 358 14.1.1 限流算法 358 14.1.2 基于Redis的分布式限流 360 14.1.3 基于Sentinel的分布式 限流 365 14.2 分布式场景下的秒杀架构 方案 366 14.2.1 背景 366 14.2.2 需求分析 366 14.2.3 用例分析 367 14.2.4 秒杀流程图 367 14.2.5 关键设计:库存设计 368 14.2.6 关键设计:秒杀令牌 369 14.3 分布式场景下的高并发架构 方案 369 14.3.1 应对高并发的常用策略 369 14.3.2 减少强依赖 370 14.3.3 多层故障隔离 371 14.3.4 五种架构选型 372 14.3.5 三种缓存设计方案 372 14.4 分布式场景下的资损防控 372 14.4.1 资损的定义 372 14.4.2 如何进行资损防控 373 14.4.3 第一道防线:事前规避 373 14.4.4 第二道防线:事中定位 374 14.4.5 第三道防线:事后应急 375 14.4.6 如何进行资损演练 376 14.5 分布式场景下的稳定性保障 376 14.5.1 什么是稳定性保障 376 14.5.2 明确稳定性保障目标 376 14.5.3 如何进行稳定性保障 377 14.5.4 大促稳定性保障 380 14.6 本章小结 382
你还可能感兴趣
我要评论
|