1
- <!-- MarkdownTOC -->
1
+
2
+ <!-- @import "[TOC]" {cmd="toc" depthFrom=1 depthTo=6 orderedList=false} -->
3
+
4
+ <!-- code_chunk_output -->
2
5
3
6
- [ HashMap 简介] ( #hashmap-简介 )
4
7
- [ 底层数据结构分析] ( #底层数据结构分析 )
5
- - [ JDK1.8之前 ] ( #jdk18之前 )
6
- - [ JDK1.8之后 ] ( #jdk18之后 )
7
- - [ HashMap源码分析 ] ( #hashmap源码分析 )
8
+ - [ JDK1.8 之前 ] ( #jdk18-之前 )
9
+ - [ JDK1.8 之后 ] ( #jdk18-之后 )
10
+ - [ HashMap 源码分析 ] ( #hashmap-源码分析 )
8
11
- [ 构造方法] ( #构造方法 )
9
- - [ put方法] ( #put方法 )
10
- - [ get方法] ( #get方法 )
11
- - [ resize方法] ( #resize方法 )
12
- - [ HashMap常用方法测试] ( #hashmap常用方法测试 )
12
+ - [ put 方法] ( #put-方法 )
13
+ - [ get 方法] ( #get-方法 )
14
+ - [ resize 方法] ( #resize-方法 )
15
+ - [ HashMap 常用方法测试] ( #hashmap-常用方法测试 )
16
+
17
+ <!-- /code_chunk_output -->
13
18
14
- <!-- /MarkdownTOC -->
15
19
16
20
> 感谢 [ changfubai] ( https://github.com/changfubai ) 对本文的改进做出的贡献!
17
21
18
22
## HashMap 简介
19
- HashMap 主要用来存放键值对,它基于哈希表的Map接口实现,是常用的Java集合之一。
23
+
24
+ HashMap 主要用来存放键值对,它基于哈希表的 Map 接口实现,是常用的 Java 集合之一。
20
25
21
26
JDK1.8 之前 HashMap 由 数组+链表 组成的,数组是 HashMap 的主体,链表则是主要为了解决哈希冲突而存在的(“拉链法”解决冲突)。
D7AE
22
27
23
28
JDK1.8 之后 HashMap 的组成多了红黑树,在满足下面两个条件之后,会执行链表转红黑树操作,以此来加快搜索速度。
24
29
25
30
- 链表长度大于阈值(默认为 8)
26
- - HashMap数组长度超过64å
31
+ - HashMap 数组长度超过 64
27
32
28
33
## 底层数据结构分析
29
- ### JDK1.8之前
34
+
35
+ ### JDK1.8 之前
36
+
30
37
JDK1.8 之前 HashMap 底层是 ** 数组和链表** 结合在一起使用也就是 ** 链表散列** 。
31
38
32
- HashMap 通过 key 的 hashCode 经过扰动函数处理过后得到 hash 值,然后通过 ` (n - 1) & hash ` 判断当前元素存放的位置(这里的 n 指的是数组的长度),如果当前位置存在元素的话,就判断该元素与要存入的元素的 hash 值以及 key 是否相同,如果相同的话,直接覆盖,不相同就通过拉链法解决冲突。
39
+ HashMap 通过 key 的 hashCode 经过扰动函数处理过后得到 hash 值,然后通过 ` (n - 1) & hash ` 判断当前元素存放的位置(这里的 n 指的是数组的长度),如果当前位置存在元素的话,就判断该元素与要存入的元素的 hash 值以及 key 是否相同,如果相同的话,直接覆盖,不相同就通过拉链法解决冲突。
33
40
34
41
所谓扰动函数指的就是 HashMap 的 hash 方法。使用 hash 方法也就是扰动函数是为了防止一些实现比较差的 hashCode() 方法 换句话说使用扰动函数之后可以减少碰撞。
35
42
36
43
** JDK 1.8 HashMap 的 hash 方法源码:**
37
44
38
- JDK 1.8 的 hash方法 相比于 JDK 1.7 hash 方法更加简化,但是原理不变。
45
+ JDK 1.8 的 hash 方法 相比于 JDK 1.7 hash 方法更加简化,但是原理不变。
39
46
40
- ``` java
41
- static final int hash(Object key) {
42
- int h;
43
- // key.hashCode():返回散列值也就是hashcode
44
- // ^ :按位异或
45
- // >>>:无符号右移,忽略符号位,空位都以0补齐
46
- return (key == null ) ? 0 : (h = key. hashCode()) ^ (h >>> 16 );
47
- }
48
- ```
49
- 对比一下 JDK1.7的 HashMap 的 hash 方法源码.
47
+ ``` java
48
+ static final int hash(Object key) {
49
+ int h;
50
+ // key.hashCode():返回散列值也就是hashcode
51
+ // ^ :按位异或
52
+ // >>>:无符号右移,忽略符号位,空位都以0补齐
53
+ return (key == null ) ? 0 : (h = key. hashCode()) ^ (h >>> 16 );
54
+ }
55
+ ```
56
+
57
+ 对比一下 JDK1.7 的 HashMap 的 hash 方法源码.
50
58
51
59
``` java
52
60
static int hash(int h) {
@@ -65,57 +73,60 @@ static int hash(int h) {
65
73
66
74
![ jdk1.8之前的内部结构] ( https://my-blog-to-use.oss-cn-beijing.aliyuncs.com/2019-7/jdk1.8之前的内部结构.png )
67
75
68
- ### JDK1.8之后
76
+ ### JDK1.8 之后
77
+
69
78
相比于之前的版本,JDK1.8 以后在解决哈希冲突时有了较大的变化。
70
79
71
- 当链表长度大于阈值(默认为 8)时,会首先调用 ` treeifyBin() ` 方法,这个方法会根据 HashMap 数组来决定是否转换为红黑树。只有当数组长度大于或者等于 64 的情况下,才会执行转换红黑树操作,以减少搜索时间。否则,就是只是执行 ` resize() ` 方法对数组扩容。相关源码这里就不贴了,重点关注 ` treeifyBin() ` 方法即可!
80
+ 当链表长度大于阈值(默认为 8)时,会首先调用 ` treeifyBin() ` 方法,这个方法会根据 HashMap 数组来决定是否转换为红黑树。只有当数组长度大于或者等于 64 的情况下,才会执行转换红黑树操作,以减少搜索时间。否则,就是只是执行 ` resize() ` 方法对数组扩容。相关源码这里就不贴了,重点关注 ` treeifyBin() ` 方法即可!
72
81
73
82
![ ] ( https://oscimg.oschina.net/oscnet/up-bba283228693dae74e78da1ef7a9a04c684.png )
74
83
75
84
** 类的属性:**
85
+
76
86
``` java
77
87
public class HashMap <K,V> extends AbstractMap<K ,V > implements Map<K ,V > , Cloneable , Serializable {
78
88
// 序列号
79
- private static final long serialVersionUID = 362498820763181265L ;
89
+ private static final long serialVersionUID = 362498820763181265L ;
80
90
// 默认的初始容量是16
81
- static final int DEFAULT_INITIAL_CAPACITY = 1 << 4 ;
91
+ static final int DEFAULT_INITIAL_CAPACITY = 1 << 4 ;
82
92
// 最大容量
83
- static final int MAXIMUM_CAPACITY = 1 << 30 ;
93
+ static final int MAXIMUM_CAPACITY = 1 << 30 ;
84
94
// 默认的填充因子
85
95
static final float DEFAULT_LOAD_FACTOR = 0.75f ;
86
96
// 当桶(bucket)上的结点数大于这个值时会转成红黑树
87
- static final int TREEIFY_THRESHOLD = 8 ;
97
+ static final int TREEIFY_THRESHOLD = 8 ;
88
98
// 当桶(bucket)上的结点数小于这个值时树转链表
89
99
static final int UNTREEIFY_THRESHOLD = 6 ;
90
100
// 桶中结构转化为红黑树对应的table的最小大小
91
101
static final int MIN_TREEIFY_CAPACITY = 64 ;
92
102
// 存储元素的数组,总是2的幂次倍
93
- transient Node<k,v> [] table;
103
+ transient Node<k,v> [] table;
94
104
// 存放具体元素的集
95
105
transient Set<map. entry< k,v>> entrySet;
96
106
// 存放元素的个数,注意这个不等于数组的长度。
97
107
transient int size;
98
10000
108
// 每次扩容和更改map结构的计数器
99
- transient int modCount;
109
+ transient int modCount;
100
110
// 临界值 当实际大小(容量*填充因子)超过临界值时,会进行扩容
101
111
int threshold;
102
112
// 加载因子
103
113
final float loadFactor;
104
114
}
105
115
```
106
- - ** loadFactor加载因子**
107
116
108
- loadFactor加载因子是控制数组存放数据的疏密程度,loadFactor越趋近于1,那么 数组中存放的数据(entry)也就越多,也就越密,也就是会让链表的长度增加,loadFactor越小,也就是趋近于0,数组中存放的数据(entry)也就越少,也就越稀疏。
117
+ - ** loadFactor 加载因子**
118
+
119
+ loadFactor 加载因子是控制数组存放数据的疏密程度,loadFactor 越趋近于 1,那么 数组中存放的数据(entry)也就越多,也就越密,也就是会让链表的长度增加,loadFactor 越小,也就是趋近于 0,数组中存放的数据(entry)也就越少,也就越稀疏。
120
+
121
+ ** loadFactor 太大导致查找元素效率低,太小导致数组的利用率低,存放的数据会很分散。loadFactor 的默认值为 0.75f 是官方给出的一个比较好的临界值** 。
109
122
110
- ** loadFactor太大导致查找元素效率低,太小导致数组的利用率低,存放的数据会很分散。loadFactor的默认值为0.75f是官方给出的一个比较好的临界值** 。
111
-
112
- 给定的默认容量为 16,负载因子为 0.75。Map 在使用过程中不断的往里面存放数据,当数量达到了 16 * 0.75 = 12 就需要将当前 16 的容量进行扩容,而扩容这个过程涉及到 rehash、复制数据等操作,所以非常消耗性能。
123
+ 给定的默认容量为 16,负载因子为 0.75。Map 在使用过程中不断的往里面存放数据,当数量达到了 16 \* 0.75 = 12 就需要将当前 16 的容量进行扩容,而扩容这个过程涉及到 rehash、复制数据等操作,所以非常消耗性能。
113
124
114
125
- ** threshold**
115
126
116
- ** threshold = capacity * loadFactor** ,** 当Size >=threshold** 的时候,那么就要考虑对数组的扩增了,也就是说,这个的意思就是 ** 衡量数组是否需要扩增的一个标准** 。
127
+ ** threshold = capacity \ * loadFactor** ,** 当 Size >=threshold** 的时候,那么就要考虑对数组的扩增了,也就是说,这个的意思就是 ** 衡量数组是否需要扩增的一个标准** 。
117
128
118
- ** Node节点类源码 :**
129
+ ** Node 节点类源码 :**
119
130
120
131
``` java
121
132
// 继承自 Map.Entry<K,V>
@@ -158,7 +169,9 @@ static class Node<K,V> implements Map.Entry<K,V> {
158
169
}
159
170
}
160
171
```
172
+
161
173
** 树节点类源码:**
174
+
162
175
``` java
163
176
static final class TreeNode <K,V> extends LinkedHashMap .Entry<K ,V > {
164
177
TreeNode<K ,V > parent; // 父
@@ -177,7 +190,9 @@ static final class TreeNode<K,V> extends LinkedHashMap.Entry<K,V> {
177
190
r = p;
178
191
}
179
192
```
180
- ## HashMap 源码分析
193
+
194
+ ## HashMap 源码分析
195
+
181
196
### 构造方法
182
197
183
198
HashMap 中有四个构造方法,它们分别如下:
@@ -187,18 +202,18 @@ HashMap 中有四个构造方法,它们分别如下:
187
202
public HashMap() {
188
203
this . loadFactor = DEFAULT_LOAD_FACTOR ; // all other fields defaulted
189
204
}
190
-
205
+
191
206
// 包含另一个“Map”的构造函数
192
207
public HashMap(Map<? extends K , ? extends V > m) {
193
208
this . loadFactor = DEFAULT_LOAD_FACTOR ;
194
209
putMapEntries(m, false );// 下面会分析到这个方法
195
210
}
196
-
211
+
197
212
// 指定“容量大小”的构造函数
198
213
public HashMap(int initialCapacity) {
199
214
this (initialCapacity, DEFAULT_LOAD_FACTOR );
200
215
}
201
-
216
+
202
217
// 指定“容量大小”和“加载因子”的构造函数
203
218
public HashMap(int initialCapacity, float loadFactor) {
204
219
if (initialCapacity < 0 )
@@ -212,7 +227,7 @@ HashMap 中有四个构造方法,它们分别如下:
212
227
}
213
228
```
214
229
215
- ** putMapEntries方法 :**
230
+ ** putMapEntries 方法 :**
216
231
217
232
```java
218
233
final void putMapEntries(Map<? extends K , ? extends V > m, boolean evict) {
@@ -240,17 +255,22 @@ final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
240
255
}
241
256
}
242
257
```
243
- ### put方法
244
- HashMap 只提供了put用于添加元素,putVal方法只是给put方法调用的一个方法,并没有提供给用户使用。
245
258
246
- ** 对putVal方法添加元素的分析如下:**
259
+ ### put 方法
260
+
261
+ HashMap 只提供了 put 用于添加元素,putVal 方法只是给 put 方法调用的一个方法,并没有提供给用户使用。
262
+
263
+ ** 对 putVal 方法添加元素的分析如下:**
247
264
248
265
1. 如果定位到的数组位置没有元素 就直接插入。
249
- 2. 如果定位到的数组位置有元素就和要插入的key比较,如果key相同就直接覆盖,如果key不相同,就判断p是否是一个树节点 ,如果是就调用`e = ((TreeNode<K ,V > )p). putTreeVal(this , tab, hash, key, value)`将元素添加进入。如果不是就遍历链表插入(插入的是链表尾部)。
266
+ 2. 如果定位到的数组位置有元素就和要插入的 key 比较,如果 key 相同就直接覆盖,如果 key 不相同,就判断 p 是否是一个树节点 ,如果是就调用`e = ((TreeNode<K ,V > )p). putTreeVal(this , tab, hash, key, value)`将元素添加进入。如果不是就遍历链表插入(插入的是链表尾部)。
250
267
251
- ps : 下图有一个小问题,来自 [issue# 608 ](https : // github.com/Snailclimb/JavaGuide/issues/608)指出:直接覆盖之后应该就会 return,不会有后续操作。参考 JDK8 HashMap.java 658 行。
268
+ 说明 : 下图有两个小问题:
252
269
253
- ! [put方法](https: // my-blog-to-use.oss-cn-beijing.aliyuncs.com/2019-7/put方法.png)
270
+ - [issue#608 ](https: // github.com/Snailclimb/JavaGuide/issues/608)指出:直接覆盖之后应该就会 return,不会有后续操作。参考 JDK8 HashMap.java 658 行。
271
+ - 当链表长度大于阈值(默认为 8 )并且 HashMap 数组长度超过 64 的时候才会执行链表转红黑树的操作,否则就只是对数组扩容。参考 HashMap 的 `treeifyBin()` 方法
272
+
273
+ ! [ ](https: // my-blog-to-use.oss-cn-beijing.aliyuncs.com/2019-7/put方法.png)
254
274
255
275
```java
256
276
public V put(K key, V value) {
@@ -302,7 +322,7 @@ final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
302
322
}
303
323
}
304
324
// 表示在桶中找到key值、hash值与插入元素相等的结点
305
- if (e != null ) {
325
+ if (e != null ) {
306
326
// 记录e的value
307
327
V oldValue = e. value;
308
328
// onlyIfAbsent为false或者旧值为null
@@ -323,21 +343,21 @@ final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
323
343
// 插入后回调
324
344
afterNodeInsertion(evict);
325
345
return null ;
326
- }
346
+ }
327
347
```
328
348
329
- ** 我们再来对比一下 JDK1 . 7 put方法的代码 **
349
+ ** 我们再来对比一下 JDK1 . 7 put 方法的代码 **
330
350
331
- ** 对于put方法的分析如下 :**
351
+ ** 对于 put 方法的分析如下 :**
332
352
333
- - ①如果定位到的数组位置没有元素 就直接插入。
334
- - ②如果定位到的数组位置有元素,遍历以这个元素为头结点的链表,依次和插入的key比较,如果key相同就直接覆盖 ,不同就采用头插法插入元素。
353
+ - ① 如果定位到的数组位置没有元素 就直接插入。
354
+ - ② 如果定位到的数组位置有元素,遍历以这个元素为头结点的链表,依次和插入的 key 比较,如果 key 相同就直接覆盖 ,不同就采用头插法插入元素。
335
355
336
356
```java
337
357
public V put(K key, V value)
338
- if (table == EMPTY_TABLE ) {
339
- inflateTable(threshold);
340
- }
358
+ if (table == EMPTY_TABLE ) {
359
+ inflateTable(threshold);
360
+ }
341
361
if (key == null )
342
362
return putForNullKey(value);
343
363
int hash = hash(key);
@@ -348,7 +368,7 @@ public V put(K key, V value)
348
368
V oldValue = e. value;
349
369
e. value = value;
350
370
e. recordAccess(this );
351
- return oldValue;
371
+ return oldValue;
352
372
}
353
373
}
354
374
@@ -358,7 +378,8 @@ public V put(K key, V value)
358
378
}
359
379
```
360
380
361
- ### get方法
381
+ ### get 方法
382
+
362
383
```java
363
384
public V get(Object key) {
364
385
Node<K ,V > e;
@@ -389,8 +410,11 @@ final Node<K,V> getNode(int hash, Object key) {
389
410
return null ;
390
411
}
391
412
```
392
- ### resize方法
393
- 进行扩容,会伴随着一次重新hash分配,并且会遍历hash表中所有的元素,是非常耗时的。在编写程序中,要尽量避免resize。
413
+
414
+ ### resize 方法
415
+
416
+ 进行扩容,会伴随着一次重新 hash 分配,并且会遍历 hash 表中所有的元素,是非常耗时的。在编写程序中,要尽量避免 resize。
417
+
394
418
```java
395
419
final Node<K ,V > [] resize() {
396
420
Node<K ,V > [] oldTab = table;
@@ -409,7 +433,7 @@ final Node<K,V>[] resize() {
409
433
}
410
434
else if (oldThr > 0 ) // initial capacity was placed in threshold
411
435
newCap = oldThr;
412
- else {
436
+ else {
413
437
// signifies using defaults
414
438
newCap = DEFAULT_INITIAL_CAPACITY ;
415
439
newThr = (int )(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY );
@@ -433,7 +457,7 @@ final Node<K,V>[] resize() {
433
457
newTab[e. hash & (newCap - 1 )] = e;
434
458
else if (e instanceof TreeNode )
435
459
((TreeNode<K ,V > )e). split(this , newTab, j, oldCap);
436
- else {
460
+ else {
437
461
Node<K ,V > loHead = null , loTail = null ;
438
462
Node<K ,V > hiHead = null , hiTail = null ;
439
463
Node<K ,V > next;
@@ -473,7 +497,9 @@ final Node<K,V>[] resize() {
473
497
return newTab;
474
498
}
475
499
```
476
- ## HashMap 常用方法测试
500
+
501
+ ## HashMap 常用方法测试
502
+
477
503
```java
478
504
package map;
479
505
@@ -530,7 +556,7 @@ public class HashMapDemo {
530
556
for (java.util. Map . Entry<String , String > entry : entrys) {
531
557
System . out. println(entry. getKey() + " --" + entry. getValue());
532
558
}
533
-
559
+
534
560
/**
535
561
* HashMap其他常用方法
536
562
*/
@@ -547,4 +573,4 @@ public class HashMapDemo {
547
573
548
574
}
549
575
550
- ```
576
+ ```
0 commit comments