1.HashmapJAVA中HashMap
2.Java面试问题:HashMap的码分底层原理
3.用比喻的方法讲解一下 java 中 hashmap 的底层原理?
4.List LinkedList HashSet HashMap底层原理剖析
5.一文带你读懂HashMap的原理和结构
HashmapJAVA中HashMap
HashMap是Java中基于哈希表实现的Map接口的典型实现,它允许使用null键和值,码分但不具备同步性,码分且不保证映射的码分顺序。HashMap的码分主要性能取决于两个参数:初始容量和加载因子。初始容量决定哈希表创建时的码分花椒直播源码抓取桶数量,而加载因子则在表满之前允许的码分最大填充程度。如果迭代性能很重要,码分应避免设置过高的码分初始容量,以减少rehash操作的码分频率。 加载因子过高虽然减少了空间占用,码分但会增加查询成本,码分特别是码分在get和put操作中。在设置初始容量时,码分要考虑预计的码分映射条目数和加载因子,以优化rehash操作。如果一开始就提供足够的容量,可以减少自动扩容的次数,提高存储效率。 值得注意的是,HashMap是非线程安全的,需要外部同步来处理并发访问。如果需要在多线程环境下使用,通常需要对映射对象进行同步操作,或者使用Collections.synchronizedMap方法包装。 在处理并发时,HashMap的迭代器是快速失败的,这意味着在迭代过程中修改映射结构会抛出ConcurrentModificationException。这并非绝对安全,但可以帮助检测程序错误。重写hashCode方法在使用HashMap时至关重要,特别是当对象内容相同但地址不同的时候,需要确保相同内容的对象返回相同的哈希值。 重写hashCode和equals方法时,需要遵循“不为一原则”和“分散原则”,前者确保get操作能正确获取put的值,后者保证哈希值的分布均匀,提升HashMap性能。在Java中,对象的默认行为往往不够理想,重写这些核心方法是使用面向对象特性优化程序的关键。扩展资料
基于哈希表的无尽恐惧源码 Map 接口的实现。此实现提供所有可选的映射操作,并允许使用 null 值和 null 键。(除了非同步和允许使用 null 之外,HashMap 类与 Hashtable 大致相同。)此类不保证映射的顺序,特别是它不保证该顺序恒久不变。 此实现假定哈希函数将元素适当地分布在各桶之间,可为基本操作(get 和 put)提供稳定的性能。迭代 collection 视图所需的时间与 HashMap 实例的“容量”(桶的数量)及其大小(键-值映射关系数)成比例。所以,如果迭代性能很重要,则不要将初始容量设置得太高(或将加载因子设置得太低)。Java面试问题:HashMap的底层原理
JDK1.8中HashMap的put()和get()操作的过程
put操作:
①首先判断数组是否为空,如果数组为空则进行第一次扩容(resize)
②根据key计算hash值并与上数组的长度-1(int index = key.hashCode()&(length-1))得到键值对在数组中的索引。
③如果该位置为null,则直接插入
④如果该位置不为null,则判断key是否一样(hashCode和equals),如果一样则直接覆盖value
⑤如果key不一样,则判断该元素是否为 红黑树的节点,如果是,则直接在 红黑树中插入键值对
⑥如果不是 红黑树的节点,则就是 链表,遍历这个 链表执行插入操作,如果遍历过程中若发现key已存在,直接覆盖value即可。
如果 链表的长度大于等于8且数组中元素数量大于等于阈值,则将 链表转化为 红黑树,(先在 链表中插入再进行判断)
如果 链表的长度大于等于8且数组中元素数量小于阈值,则先对数组进行扩容,不转化为 红黑树。
⑦插入成功后,判断数组中元素的个数是否大于阈值(threshold),超过了就对数组进行扩容操作。
get操作:
①计算key的hashCode的值,找到key在数组中的位置
②如果该位置为null,就直接返回null
③否则,根据equals()判断key与当前位置的值是否相等,如果相等就直接返回。
④如果不等,再判断当前元素是否为树节点,如果是树节点就按 红黑树进行查找。
⑤否则,黑客篡改源码按照 链表的方式进行查找。
3.HashMap的扩容机制
4.HashMap的初始容量为什么是?
1.减少hash碰撞 (2n ,=2^4)
2.需要在效率和内存使用上做一个权衡。这个值既不能太小,也不能太大。
3.防止分配过小频繁扩容
4.防止分配过大浪费资源
5.HashMap为什么每次扩容都以2的整数次幂进行扩容?
因为Hashmap计算存储位置时,使用了(n - 1) & hash。只有当容量n为2的幂次方,n-1的二进制会全为1,位运算时可以充分散列,避免不必要的哈希冲突,所以扩容必须2倍就是为了维持容量始终为2的幂次方。
6.HashMap扩容后会重新计算Hash值吗?
①JDK1.7
JDK1.7中,HashMap扩容后,所有的key需要重新计算hash值,然后再放入到新数组中相应的位置。
②JDK1.8
在JDK1.8中,HashMap在扩容时,需要先创建一个新数组,然后再将旧数组中的数据转移到新数组上来。
此时,旧数组中的数据就会根据(e.hash & oldCap),数据的hash值与扩容前数组的长度进行与操作,根据结果是否等于0,分为2类。
1.等于0时,该节点放在新数组时的位置等于其在旧数组中的位置。
2.不等于0时,该节点在新数组中的位置等于其在旧数组中的位置+旧数组的长度。
7.HashMap中当 链表长度大于等于8时,会将 链表转化为 红黑树,为什么是8?
如果 hashCode 分布良好,也就是 hash 计算的结果离散好的话,那么 红黑树这种形式是很少会被用到的,因为各个值都均匀分布,很少出现 链表很长的情况。在理想情况下, 链表长度符合泊松分布,各个长度的命中概率依次递减,当长度为 8 的时候,概率仅为 0.。这是密道转存源码一个小于千万分之一的概率,通常我们的 Map 里面是不会存储这么多的数据的,所以通常情况下,并不会发生从 链表向 红黑树的转换。
8.HashMap为什么线程不安全?
1.在JDK1.7中,当并发执行扩容操作时会造成死循环和数据丢失的情况。
在JDK1.7中,在多线程情况下同时对数组进行扩容,需要将原来数据转移到新数组中,在转移元素的过程中使用的是头插法,会造成死循环。
2.在JDK1.8中,在并发执行put操作时会发生数据覆盖的情况。
如果线程A和线程B同时进行put操作,刚好这两条不同的数据hash值一样,并且该位置数据为null,所以这线程A、B都会通过判断,将执行插入操作。
假设一种情况,线程A进入后还未进行数据插入时挂起,而线程B正常执行,从而正常插入数据,然后线程A获取CPU时间片,此时线程A不用再进行hash判断了,问题出现:线程A会把线程B插入的数据给覆盖,发生线程不安全。
9.为什么HashMapJDK1.7中扩容时要采用头插法,JDK1.8又改为尾插法?
JDK1.7的HashMap在实现resize()时,新table[ ]的列表队头插入。
这样做的目的是:避免尾部遍历。
避免尾部遍历是为了避免在新列表插入数据时,遍历到队尾的位置。因为,直接插入的效率更高。
对resize()的设计来说,本来就是要创建一个新的table,列表的顺序不是很重要。但如果要确保插入队尾,还得遍历出 链表的队尾位置,然后插入,是华兴cnc源码一种多余的损耗。
直接采用队头插入,会使得 链表数据倒序。
JDK1.8采用尾插法是避免在多线程环境下扩容时采用头插法出现死循环的问题。
.HashMap是如何解决哈希冲突的?
拉链法(链地址法)
为了解决碰撞,数组中的元素是单向 链表类型。当 链表长度大于等于8时,会将 链表转换成 红黑树提高性能。
而当 链表长度小于等于6时,又会将 红黑树转换回单向 链表提高性能。
.HashMap为什么使用 红黑树而不是B树或 平衡二叉树AVL或二叉查找树?
1.不使用二叉查找树
二叉 排序树在极端情况下会出现线性结构。例如:二叉 排序树左子树所有节点的值均小于根节点,如果我们添加的元素都比根节点小,会导致左子树线性增长,这样就失去了用树型结构替换 链表的初衷,导致查询时间增长。所以这是不用二叉查找树的原因。
2.不使用 平衡二叉树
平衡二叉树是严格的平衡树, 红黑树是不严格平衡的树, 平衡二叉树在插入或删除后维持平衡的开销要大于 红黑树。
红黑树的虽然查询性能略低于 平衡二叉树,但在插入和删除上性能要优于 平衡二叉树。
选择 红黑树是从功能、性能和开销上综合选择的结果。
3.不使用B树/B+树
HashMap本来是数组+ 链表的形式, 链表由于其查找慢的特点,所以需要被查找效率更高的树结构来替换。
如果用B/B+树的话,在数据量不是很多的情况下,数据都会“挤在”一个结点里面,这个时候遍历效率就退化成了 链表。
.HashMap和Hashtable的异同?
①HashMap是⾮线程安全的,Hashtable是线程安全的。
Hashtable 内部的⽅法基本都经过 synchronized 修饰。
②因为线程安全的问题,HashMap要⽐Hashtable效率⾼⼀点。
③HashMap允许键和值是null,而Hashtable不允许键或值是null。
HashMap中,null 可以作为键,这样的键只有 ⼀个,可以有 ⼀个或多个键所对应的值为 null。
HashTable 中 put 进的键值只要有 ⼀个 null,直接抛出 NullPointerException。
④ Hashtable默认的初始 大小为,之后每次扩充,容量变为原来的2n+1。
HashMap默认的初始 大⼩为,之后每次扩充,容量变为原来的2倍。
⑤创建时如果给定了容量初始值,那么 Hashtable 会直接使⽤你给定的 ⼤⼩, ⽽ HashMap 会将其扩充为2的幂次⽅ ⼤⼩。
⑥JDK1.8 以后的 HashMap 在解决哈希冲突时当 链表⻓度 大于等于8时,将 链表转化为红⿊树,以减少搜索时间。Hashtable没有这样的机制。
Hashtable的底层,是以数组+ 链表的形式来存储。
⑦HashMap的父类是AbstractMap,Hashtable的父类是Dictionary
相同点:都实现了Map接口,都存储k-v键值对。
.HashMap和HashSet的区别?
HashSet 底层就是基于 HashMap 实现的。(HashSet 的源码⾮常⾮常少,因为除了 clone() 、 writeObject() 、 readObject() 是 HashSet ⾃⼰不得不实现之外,其他⽅法都是直接调用 HashMap 中的⽅法)
1.HashMap实现了Map接口,HashSet实现了Set接口
2.HashMap存储键值对,HashSet存储对象
3.HashMap调用put()向map中添加元素,HashSet调用add()方法向Set中添加元素。
4.HashMap使用键key计算hashCode的值,HashSet使用对象来计算hashCode的值,在hashCode相等的情况下,使用equals()方法来判断对象的相等性。
5.HashSet中的元素由HashMap的key来保存,而HashMap的value则保存了一个静态的Object对象。
.HashSet和TreeSet的区别?
相同点:HashSet和TreeSet的元素都是不能重复的,并且它们都是线程不安全的。
不同点:
①HashSet中的元素可以为null,但TreeSet中的元素不能为null
②HashSet不能保证元素的排列顺序,TreeSet支持自然 排序、定制 排序两种 排序方式
③HashSet底层是采用 哈希表实现的,TreeSet底层是采用 红黑树实现的。
④HashSet的add,remove,contains方法的时间复杂度是 O(1),TreeSet的add,remove,contains方法的时间复杂度是 O(logn)
.HashMap的遍历方式?
①通过map.keySet()获取key,根据key获取到value
②通过map.keySet()遍历key,通过map.values()遍历value
③通过Map.Entry(String,String) 获取,然后使用entry.getKey()获取到键,通过entry.getValue()获取到值
④通过Iterator
用比喻的方法讲解一下 java 中 hashmap 的底层原理?
Java中的HashMap可以看作是一个盒子,这个盒子里面存放着很多抽屉。每个抽屉都有一个标签,用来表示抽屉里的物品。当我们要把一些物品放入盒子中时,我们首先根据物品的特征确定一个标签,然后把物品放入对应的抽屉里。
在HashMap中,标签被称为“键(key)”,物品被称为“值(value)”。当我们要将一个键值对放入HashMap时,首先会根据键的特征计算出一个哈希值(hash value),这个哈希值就相当于标签。然后,根据哈希值找到对应的抽屉,将键值对放入抽屉中。
但是,由于可能会有多个键的哈希值相同,这就相当于多个键要放入同一个抽屉中。为了解决这个问题,HashMap使用了链表(LinkedList)的数据结构。当发生哈希冲突时,新的键值对会被添加到链表的末尾。这样,在查找某个键的值时,首先会根据键的哈希值找到对应的抽屉,然后再在链表中查找对应的键值对。
当HashMap中的键值对数量逐渐增多时,链表可能会变得很长,从而导致查找效率下降。为了解决这个问题,Java 8引入了红黑树(Red-Black Tree)的数据结构。当链表中的键值对数量超过一定阈值时,链表会被转换为红黑树。这样,在查找键值对时,可以通过红黑树的特性进行快速查找,提高了HashMap的性能。
总结起来,HashMap的底层原理可以比喻为一个盒子,其中包含很多抽屉。每个抽屉上有一个标签,用来表示抽屉里的物品。当要放入一个键值对时,首先根据键的哈希值找到对应的抽屉,然后将键值对放入抽屉中。当发生哈希冲突时,会使用链表或红黑树的方式解决。这样,我们在需要查找某个键对应的值时,可以快速定位到对应的抽屉,然后再在链表或红黑树中查找。
List LinkedList HashSet HashMap底层原理剖析
ArrayList底层数据结构采用数组。数组在Java中连续存储,因此查询速度快,时间复杂度为O(1),插入数据时可能会慢,特别是需要移动位置时,时间复杂度为O(N),但末尾插入时时间复杂度为O(1)。数组需要固定长度,ArrayList默认长度为,最大长度为Integer.MAX_VALUE。在添加元素时,如果数组长度不足,则会进行扩容。JDK采用复制扩容法,通过增加数组容量来提升性能。若数组较大且知道所需存储数据量,可设置数组长度,或者指定最小长度。例如,设置最小长度时,扩容长度变为原有容量的1.5倍,从增加到。
LinkedList底层采用双向列表结构。链表存储为物理独立存储,因此插入操作的时间复杂度为O(1),且无需扩容,也不涉及位置挪移。然而,查询操作的时间复杂度为O(N)。LinkedList的add和remove方法中,add默认添加到列表末尾,无需移动元素,相对更高效。而remove方法默认移除第一个元素,移除指定元素时则需要遍历查找,但与ArrayList相比,无需执行位置挪移。
HashSet底层基于HashMap。HashMap在Java 1.7版本之前采用数组和链表结构,自1.8版本起,则采用数组、链表与红黑树的组合结构。在Java 1.7之前,链表使用头插法,但在高并发环境下可能会导致链表死循环。从Java 1.8开始,链表采用尾插法。在创建HashSet时,通常会设置一个默认的负载因子(默认值为0.),当数组的使用率达到总长度的%时,会进行数组扩容。HashMap的put方法和get方法的源码流程及详细逻辑可能较为复杂,涉及哈希算法、负载因子、扩容机制等核心概念。
一文带你读懂HashMap的原理和结构
本文旨在深入剖析Java中的Map类,特别是HashMap。在探索之前,我们先思考几个关键点,它们常在面试中被提及:Hash是什么,HashMap的继承关系,底层数据结构,JDK 1.8的优化,扩容机制,以及解决冲突的方法。了解这些,对你的工作或求职大有裨益。
首先,让我们从HashMap的定义开始。HashMap是Java中的哈希表,它的目标是提供快速的查询、存储和修改性能。哈希表原理是利用hash函数将数据转换为数组的索引,从而实现快速访问。在Java中,HashMap位于`java.util`包中,其继承自`AbstractMap`和`Cloneable`,但不直接实现`Collection`接口。
早期的HashMap(JDK 1.7之前)使用数组和链表来处理hash冲突。每个`Entry`对象存储键值对,如果冲突,就在数组对应位置形成链表。然而,当冲突过多导致链表过长,查询效率会降低。为解决这个问题,JDK 1.8引入了红黑树,但并非所有情况都使用,而是根据性能优化进行选择。
接下来会深入讲解HashMap的底层结构变化、扩容机制、性能分析,以及如何在实际操作中正确使用。这些知识点在面试中是常见的考察内容。如果你对这些话题感兴趣,记得继续关注后续内容。谢谢!