Java学习者论坛

 找回密码
 立即注册

QQ登录

只需一步,快速开始

手机号码,快捷登录

恭喜Java学习者论坛(https://www.javaxxz.com)已经为数万Java学习者服务超过8年了!积累会员资料超过10000G+
成为本站VIP会员,下载本站10000G+会员资源,购买链接:点击进入购买VIP会员
JAVA高级面试进阶视频教程Java架构师系统进阶VIP课程

分布式高可用全栈开发微服务教程

Go语言视频零基础入门到精通

Java架构师3期(课件+源码)

Java开发全终端实战租房项目视频教程

SpringBoot2.X入门到高级使用教程

大数据培训第六期全套视频教程

深度学习(CNN RNN GAN)算法原理

Java亿级流量电商系统视频教程

互联网架构师视频教程

年薪50万Spark2.0从入门到精通

年薪50万!人工智能学习路线教程

年薪50万!大数据从入门到精通学习路线年薪50万!机器学习入门到精通视频教程
仿小米商城类app和小程序视频教程深度学习数据分析基础到实战最新黑马javaEE2.1就业课程从 0到JVM实战高手教程 MySQL入门到精通教程
查看: 550|回复: 0

[算法学习]java HashMap深度分析

[复制链接]
  • TA的每日心情
    开心
    2021-3-12 23:18
  • 签到天数: 2 天

    [LV.1]初来乍到

    发表于 2014-12-1 00:05:49 | 显示全部楼层 |阅读模式
    java.util.HashMap是很常见的类,前段时间公司系统由于对HashMap使用不当,导致cpu百分之百,在并发环境下使用HashMap 而没有做同步,可能会引起死循环,关于这一点,sun的官方网站上已有阐述,这并非是bug。

    HashMap的数据结构
              HashMap主要是用数组来存储数据的,我们都知道它会对key进行哈希运算,哈系运算会有重复的哈希值,对于哈希值的冲突,HashMap采用链表来解决的。在HashMap里有这样的一句属性声明:
    transient Entry[] table;
    Entry就是HashMap存储数据所用的类,它拥有的属性如下
    final K key;
    V value;
    final int hash;
    Entry<K,V> next;  
      
       
       
         
       

         
       
      
        看到next了吗?next就是为了哈希冲突而存在的。比如通过哈希运算,一个新元素应该在数组的第10个位置,但是第10个位置已经有Entry,那么好吧,将新加的元素也放到第10个位置,将第10个位置的原有Entry赋值给当前新加的 Entry的next属性。数组存储的是链表,链表是为了解决哈希冲突的,这一点要注意。


    几个关键的属性
    存储数据的数组
    transient Entry[] table; 这个上面已经讲到了
    默认容量
    static final int DEFAULT_INITIAL_CAPACITY = 16;
    最大容量
    static final int MAXIMUM_CAPACITY = 1 << 30;
    默认加载因子,加载因子是一个比例,当HashMap的数据大小>=容量*加载因子时,HashMap会将容量扩容
    static final float DEFAULT_LOAD_FACTOR = 0.75f;
    当实际数据大小超过threshold时,HashMap会将容量扩容,threshold=容量*加载因子
    int threshold;
    加载因子
    final float loadFactor;


    HashMap的初始过程
    构造函数1
         public HashMap(int initialCapacity, float loadFactor) {
             if (initialCapacity < 0)
                 throw new IllegalArgumentException("Illegal initial capacity: " +
                                                    initialCapacity);
             if (initialCapacity > MAXIMUM_CAPACITY)
                 initialCapacity = MAXIMUM_CAPACITY;
             if (loadFactor <= 0 || Float.isNaN(loadFactor))
                 throw new IllegalArgumentException("Illegal load factor: " +
                                                    loadFactor);

             // Find a power of 2 >= initialCapacity
             int capacity = 1;
             while (capacity < initialCapacity)
                 capacity <<= 1;
       
             this.loadFactor = loadFactor;
             threshold = (int)(capacity * loadFactor);
             table = new Entry[capacity];
             init();
         }

    重点注意这里
    while (capacity < initialCapacity)
                 capacity <<= 1;

    capacity才是初始容量,而不是initialCapacity,这个要特别注意,如果执行new HashMap(9,0.75);那么HashMap的初始容量是16,而不是9,想想为什么吧。

    构造函数2
    public HashMap(int initialCapacity) {
             this(initialCapacity, DEFAULT_LOAD_FACTOR);
         }

    构造函数3,全部都是默认值
        public HashMap() {
             this.loadFactor = DEFAULT_LOAD_FACTOR;
             threshold = (int)(DEFAULT_INITIAL_CAPACITY * DEFAULT_LOAD_FACTOR);
             table = new Entry[DEFAULT_INITIAL_CAPACITY];
             init();
         }

    构造函数4
       public HashMap(Map<? extends K, ? extends V> m) {
             this(Math.max((int) (m.size() / DEFAULT_LOAD_FACTOR) + 1,
                           DEFAULT_INITIAL_CAPACITY), DEFAULT_LOAD_FACTOR);
             putAllForCreate(m);
         }


    如何哈希
             HashMap并不是直接将对象的hashcode作为哈希值的,而是要把key的hashcode作一些运算以得到最终的哈希值,并且得到的哈希值也不是在数组中的位置哦,无论是get还是put还是别的方法,计算哈希值都是这一句:
    int hash = hash(key.hashCode());
    hash函数如下:
       static int hash(int h) {
         return useNewHash ? newHash(h) : oldHash(h);
         }
    useNewHash声明如下:
        private static final boolean useNewHash;
         static { useNewHash = false; }
    这说明useNewHash其实一直为false且不可改变的,hash函数里对 useNewHash的判断真是多余的。
         private static int oldHash(int h) {
             h += ~(h << 9);
             h ^=  (h >>> 14);
             h +=  (h << 4);
             h ^=  (h >>> 10);
             return h;
         }

         private static int newHash(int h) {
             // This function ensures that hashCodes that differ only by
             // constant multiples at each bit position have a bounded
             // number of collisions (approximately 8 at default load factor).
             h ^= (h >>> 20) ^ (h >>> 12);
             return h ^ (h >>> 7) ^ (h >>> 4);
         }

    其实HashMap的哈希函数会一直都是oldHash。


    如果确定数据的位置
    看下面两行
           int hash = hash(k.hashCode());
           int i = indexFor(hash, table.length);
    第一行,上面讲过了,是得到哈希值,第二行,则是根据哈希指计算元素在数组中的位置了,位置的计算是将哈希值和数组长度按位与运算。
        static int indexFor(int h, int length) {
             return h & (length-1);
         }

    put方法到底作了什么?
        public V put(K key, V value) {
         if (key == null)
             return putForNullKey(value);
             int hash = hash(key.hashCode());
             int i = indexFor(hash, table.length);
             for (Entry<K,V> e = table; e != null; e = e.next) {
                 Object k;
                 if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
                     V oldValue = e.value;
                     e.value = value;
                     e.recordAccess(this);
                     return oldValue;
                 }
             }

             modCount++;
             addEntry(hash, key, value, i);
             return null;
         }
    如果key为NULL,则是单独处理的,看看putForNullKey方法:
         private V putForNullKey(V value) {
             int hash = hash(NULL_KEY.hashCode());
             int i = indexFor(hash, table.length);

             for (Entry<K,V> e = table; e != null; e = e.next) {
                 if (e.key == NULL_KEY) {
                     V oldValue = e.value;
                     e.value = value;
                     e.recordAccess(this);
                     return oldValue;
                 }
             }

             modCount++;
             addEntry(hash, (K) NULL_KEY, value, i);
             return null;
         }
    NULL_KEY的声明:static final Object NULL_KEY = new Object();
    这一段代码是处理哈希冲突的,就是说,在数组某个位置的对象可能并不是唯一的,它是一个链表结构,根据哈希值找到链表后,还要对链表遍历,找出key相等的对象,替换它,并且返回旧的值。
           for (Entry<K,V> e = table; e != null; e = e.next) {
                 if (e.key == NULL_KEY) {
                     V oldValue = e.value;
                     e.value = value;
                     e.recordAccess(this);
                     return oldValue;
                 }
             }
    如果遍历完了该位置的链表都没有找到有key相等的,那么将当前对象增加到链表里面去
       modCount++;
       addEntry(hash, (K) NULL_KEY, value, i);
       return null;
    且看看addEntry方法
         void addEntry(int hash, K key, V value, int bucketIndex) {
         Entry<K,V> e = table[bucketIndex];
             table[bucketIndex] = new Entry<K,V>(hash, key, value, e);
             if (size++ >= threshold)
                 resize(2 * table.length);
         }
    table[bucketIndex] = new Entry<K,V>(hash, key, value, e);新建一个Entry对象,并放在当前位置的Entry链表的头部,看看下面的 Entry构造函数就知道了,注意红色部分。
          Entry(int h, K k, V v, Entry<K,V> n) {
                 value = v;
                 next = n;
                 key = k;
                 hash = h;
             }

    如何扩容?
             当put一个元素时,如果达到了容量限制,HashMap就会扩容,新的容量永远是原来的2倍。
    上面的put方法里有这样的一段:
    if (size++ >= threshold)
                 resize(2 * table.length);
    这是扩容判断,要注意,并不是数据尺寸达到HashMap的最大容量时才扩容,而是达到 threshold指定的值时就开始扩容, threshold=最大容量*加载因子。 看看resize方法
         void resize(int newCapacity) {
             Entry[] oldTable = table;
             int oldCapacity = oldTable.length;
             if (oldCapacity == MAXIMUM_CAPACITY) {
                 threshold = Integer.MAX_VALUE;
                 return;
             }

             Entry[] newTable = new Entry[newCapacity];
             transfer(newTable);
             table = newTable;
             threshold = (int)(newCapacity * loadFactor);
         }
    重点看看红色部分的 transfer方法
         void transfer(Entry[] newTable) {
             Entry[] src = table;
             int newCapacity = newTable.length;
             for (int j = 0; j < src.length; j++) {
                 Entry<K,V> e = src[j];
                 if (e != null) {
                     src[j] = null;
                     do {
                         Entry<K,V> next = e.next;
                         int i = indexFor(e.hash, newCapacity);
                         e.next = newTable;
                         newTable = e;
                         e = next;
                     } while (e != null);
                 }
             }
         }
    tranfer方法将所有的元素重新哈希,因为新的容量变大,所以每个元素的哈希值和位置都是不一样的。


    正确的使用HashMap

    1:不要在并发场景中使用HashMap
                HashMap是线程不安全的,如果被多个线程共享的操作,将会引发不可预知的问题,据sun的说法,在扩容时,会引起链表的闭环,在get元素时,就会无限循环,后果是cpu100%。
    看看get方法的红色部分
    public V get(Object key) {
         if (key == null)
             return getForNullKey();
             int hash = hash(key.hashCode());
             for (Entry<K,V> e = table[indexFor(hash, table.length)];
                  e != null;
                  e = e.next) {
                 Object k;
                 if (e.hash == hash && ((k = e.key) == key || key.equals(k)))
                     return e.value;
             }
             return null;
         }

    2:如果数据大小是固定的,那么最好给HashMap设定一个合理的容量值
             根据上面的分析,HashMap的初始默认容量是16,默认加载因子是0.75,也就是说,如果采用HashMap的默认构造函数,当增加数据时,数据实际容量超过10*0.75=12时,HashMap就扩容,扩容带来一系列的运算,新建一个是原来容量2倍的数组,对原有元素全部重新哈希,如果你的数据有几千几万个,而用默认的HashMap构造函数,那结果是非常悲剧的,因为HashMap不断扩容,不断哈希,在使用HashMap的场景里,不会是多个线程共享一个HashMap,除非对HashMap包装并同步,由此产生的内存开销和cpu开销在某些情况下可能是致命的。

      
      
       
       

         
       

         
       
      
    复制代码
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    QQ|手机版|Java学习者论坛 ( 声明:本站资料整理自互联网,用于Java学习者交流学习使用,对资料版权不负任何法律责任,若有侵权请及时联系客服屏蔽删除 )

    GMT+8, 2025-2-25 04:31 , Processed in 0.305567 second(s), 36 queries .

    Powered by Discuz! X3.4

    © 2001-2017 Comsenz Inc.

    快速回复 返回顶部 返回列表