无法登陆建设银行网站,网页什么设计,湖南省重点建设项目办公室网站,如何注册或购买一个域名使用ConcurrentHashMap
我们为什么要使用 ConcurrentHashMap呢#xff1f; 原因有三#xff1a; 并发编程中HashMap会导致死循环#xff1b;HashTable效率又非常低#xff1b;ConcurrentHashMap的锁分段技术可有效提升并发访问率。在并发编程使用HashMap会导致死循环。
在多线…ConcurrentHashMap
我们为什么要使用 ConcurrentHashMap呢 原因有三 并发编程中HashMap会导致死循环HashTable效率又非常低ConcurrentHashMap的锁分段技术可有效提升并发访问率。在并发编程使用HashMap会导致死循环。
在多线程环境下使用HashMap进行put操作会引起 死循环导致CPU利用率接近100%所以在并发情况下不能使用HashMap。
是因为多线程会导致HashMap的Entry链表形成 环形数据结构一旦形成环形数据结构Entry的next节点永远不为空就会产生死循环获取Entry。
以下代码将会输出死循环
示例
public static void main(String[] args) throws InterruptedException {long time System.currentTimeMillis();HashMapString, String map new HashMap(2);Thread t new Thread(() - {for (int i 0; i 100000; i) {new Thread(() - {for (int j 0; j 1000; j) {String s UUID.randomUUID().toString();map.put(s, s);}}, ftf i).start();}}, ftf);t.start();t.join();System.out.println(System.currentTimeMillis() - time);
}线程安全的HashTable效率非常低。
HashTable容器使用synchronized来保证线程安全但在线程竞争激烈的情况下HashTable的效率非常低下。因为当一个线程访问HashTable的同步方法其他线程也访问HashTable的同步方法时会进入阻塞或轮询状态。如线程1使用put进行元素添加线程2不但不能使用put方法添加元素也不能使用get方法来获取元素所以竞争越激烈效率越低。
ConcurrentHashMap的锁分段技术可有效提升并发访问率 HashTable容器在竞争激烈的并发环境下表现出效率低下的原因是 所有访问HashTable的线程都必须竞争同一把锁。
而ConcurrentHashMap所使用的锁分段技术将数据分成一段一段地存储然后给每一段数据配一把锁当一个线程占用锁访问其中一个段数据的时候其他段的数据也能被其他线程访问。
ConcureentLinkedQueue
在并发编程中有时候需要使用线程安全的队列。 如果要实现一个线程安全的队列有两种方式 使用阻塞算法使用阻塞算法的队列可以用一个锁入队和出队用同一把锁或两个锁入队和出队用不同的锁等方式来实现。使用非阻塞算法非阻塞的实现方式则可以使用循环CAS的方式来实现。ConcurrentLinkedQueue是一个基于链接节点的无界线程安全队列它采用FIFO的规则对节点进行排序当我们添加一个元素的时候它会添加到队列的尾部当我们获取一个元素时它会返回队列头部的元素。
ConcurrentLinkedQueue由head节点和tail节点组成每个节点Node由节点元素item和指向下一个节点next的引用组成节点与节点之间就是通过这个next关联起来从而组成一张链表结构的队列。
默认情况下head节点存储的元素为空tail节点等于head节点。
transient volatile NodeE head;
private transient volatile NodeE tail;入队列
入队列就是将入队节点添加到队列的尾部。 添加元素1队列更新head节点的next节点为元素1节点。又因为tail节点默认情况下等于head节点所以它们的next节点都指向元素1节点。
添加元素2队列首先设置元素1节点的next节点为元素2节点然后更新tail节点指向元素2节点。
添加元素3设置tail节点的next节点为元素3节点。
添加元素4设置元素3的next节点为元素4节点然后将tail节点指向元素4节点。
通过上图我们发现入队主要做两件事情 将入队节点设置成当前队列尾节点的下一个节点更新tail节点如果tail节点的next节点不为空则将入队节点设置成tail节点如果tail节点的next节点为空则将入队节点设置成tail的next节点所以tail节点不总是尾节点示例 入队列
public boolean add(E e) {return offer(e);
}
public boolean offer(E e) {final NodeE newNode newNode(Objects.requireNonNull(e));for (NodeE t tail, p t;;) {NodeE q p.next;if (q null) {if (casNext(p, null, newNode)) {if (p ! t) casTail(t, newNode); return true;}}else if (p q)p (t ! (t tail)) ? t : head;elsep (p ! t t ! (t tail)) ? t : q;}
}构建了一个新的节点newNode 如果tail节点的next节点为空则通过CAS将newNode设置为tail的next节点设置成功之后在更新tail为newNode节点。否则继续重试上一步。出队列
出队列的就是从队列里返回一个节点元素并清空该节点对元素的引用。 示例出队列
public E poll() {restartFromHead:for (;;) {for (NodeE h head, p h, q;;) {E item p.item;if (item ! null casItem(p, item, null)) {if (p ! h) updateHead(h, ((q p.next) ! null) ? q : p);return item;}else if ((q p.next) null) {updateHead(h, p);return null;}else if (p q)continue restartFromHead;elsep q;}}
}首先获取head节点的元素item然后判断是否为空 如果为空表示另外一个线程已经进行了一次出队操作将该节点的元素取走。如果不为空则使用CAS的方式将头节点的引用设置成null如果CAS成功则直接返回头节点的元素item如果不成功表示另外一个线程已经进行了一次出队操作更新了head节点导致元素发生了变化需要重新获取头节点。Java中的阻塞队列
什么是阻塞队列
阻塞队列BlockingQueue是一个支持以下两个附加操作的队列 支持阻塞的插入方法当队列满时队列会阻塞插入元素的线程直到队列不满。支持阻塞的移除方法在队列为空时获取元素的线程会等待队列变为非空。阻塞队列常用于生产者和消费者的场景生产者是向队列里添加元素的线程消费者是从队列里取元素的线程。阻塞队列就是生产者用来存放元素、消费者用来获取元素的容器。
在阻塞队列不可用时这两个附加操作提供了以下4种处理方式 抛出异常队列满时再添加元素会抛出IllegalStateException(“Queue full”)异常当队列为空时从队列里获取元素会抛出NoSuchElementException异常。
返回特殊值往队列插入元素时返回ture表示插入成功。从队列里移除元素即取出元素如果没有则返回null。
一直阻塞当阻塞队列满时如果生产者线程往队列里put元素队列会一直阻塞生产者线程直到队列可用或者响应中断退出。当队列空时如果消费者线程从队列里take元素队列会阻塞住消费者线程直到队列不为空。
超时退出当阻塞队列满时如果生产者线程往队列里插入元素队列会阻塞生产者线程一段时间如果超过了指定的时间time生产者线程就会退出。 如果是无界阻塞队列队列不可能会出现满的情况所以使用put或offer方法永远不会被阻塞而且使用offer方法时该方法永远返回true。Java里的阻塞队列
ArrayBlockingQueue一个由数组结构组成的有界阻塞队列。 按照FIFO的原则对元素进行排序。 默认情况下不保证线程公平的访问队列。 公平访问 队列是指阻塞的线程可以 按照阻塞的先后顺序访问队列即先阻塞线程先访问队列。
非公平性是对先等待的线程是非公平的当队列可用时阻塞的线程都有争夺访问队列的资格有可能先阻塞的线程最后才访问队列。
为了保证公平性通常会降低吞吐量。我们可以使用以下代码创建一个公平的阻塞队列
ArrayBlockingQueue fairQueue new ArrayBlockingQueue(1000,true);public ArrayBlockingQueue(int capacity, boolean fair) {if (capacity 0)throw new IllegalArgumentException();this.items new Object[capacity];lock new ReentrantLock(fair);notEmpty lock.newCondition();notFull lock.newCondition();
}
访问者的公平性是使用可重入锁实现的。
LinkedBlockingQueue一个由链表结构组成的有界 阻塞队列。 此队列的默认和最大长度为Integer.MAX_VALUE。此队列按照FIFO的原则对元素进行排序。
PriorityBlockingQueue一个支持优先级排序的 无界 阻塞队列。 默认情况下元素采取 自然顺序升序排列。 也可以自定义类实现compareTo()方法来指定元素排序规则或者初始化PriorityBlockingQueue时指定构造参数Comparator来对元素进行排序。需要注意的是不能保证同优先级元素的顺序。
DelayQueue一个使用优先级队列实现的 无界 阻塞队列。
DelayQueue是一个支持 延时获取元素 的 无界 阻塞队列。
队列使用PriorityQueue来实现。队列中的元素必须实现Delayed接口在创建元素时可以指定多久才能从队列中获取当前元素。只有在延迟期满时才能从队列中提取元素。 可以将DelayQueue运用在以下应用场景:
缓存系统的设计可以用DelayQueue保存缓存元素的有效期使用一个线程循环查询DelayQueue一旦能从DelayQueue中获取元素时表示缓存有效期到了。
定时任务调度使用DelayQueue保存当天将会执行的任务和执行时间一旦从DelayQueue中获取到任务就开始执行比如TimerQueue就是使用DelayQueue实现的。
DelayQueue的使用可以参考ScheduledThreadPoolExecutor里ScheduledFutureTask类的实现
在对象创建的时候初始化基本数据。
private static final AtomicLong sequencer new AtomicLong();
ScheduledFutureTask(Runnable r, V result, long ns, long period) {super(r, result);this.time ns;this.period period;this.sequenceNumber sequencer.getAndIncrement();
}实现getDelay方法该方法返回当前元素还需要延时多长时间单位是纳秒。
public long getDelay(TimeUnit unit) {return unit.convert(time - now(), TimeUnit.NANOSECONDS);
}实现compareTo方法来指定元素的顺序。
public int compareTo(Delayed other) {if (other this) {return 0;}if (other instanceof ScheduledFutureTask) {ScheduledFutureTask x (ScheduledFutureTask) other;long diff time - x.time;if (diff 0L) {return -1;} else if (diff 0L) {return 1;} else {return sequenceNumber x.sequenceNumber ? -1 : 1;}} else {long d getDelay(TimeUnit.NANOSECONDS) - other.getDelay(TimeUnit.NANOSECONDS);return Long.compare(d, 0L);}
}如何实现延时阻塞队列
public E take() throws InterruptedException {final ReentrantLock lock this.lock;lock.lockInterruptibly();try {for (;;) {E first q.peek();if (first null)available.await();else {long delay first.getDelay(NANOSECONDS);if (delay 0L)return q.poll();first null; if (leader ! null)//变量leader是一个等待获取队列头部元素的线程available.await();else {Thread thisThread Thread.currentThread();leader thisThread;try {available.awaitNanos(delay);} finally {if (leader thisThread)leader null;}}}}} finally {if (leader null q.peek() ! null)available.signal();lock.unlock();}
}
变量leader是一个等待获取队列头部元素的线程。 如果leader ! null表示已经有线程在等待获取队列的头元素。所以使用await()方法让当前线程等待信号。 如果 leader null则把当前线程设置成leader并使用awaitNanos()方法让当前线程等待接收信号或等待delay时间。
SynchronousQueue一个不存储元素的阻塞队列。 每一个put操作必须等待一个take操作否则不能继续添加元素。 使用以下构造方法的fair来创建是否公平性访问的SynchronousQueue如果设置为true则等待的线程会采用FIFO的顺序访问队列。
public SynchronousQueue(boolean fair) {transferer fair ? new TransferQueueE() : new TransferStackE();
}SynchronousQueue可以看成是一个传球手负责把生产者线程处理的数据直接传递给消费者线程。
队列本身并不存储任何元素非常适合传递性场景。 SynchronousQueue的吞吐量高于LinkedBlockingQueue和ArrayBlockingQueue。
LinkedTransferQueue一个由 链表 结构组成的 无界 阻塞队列。 相对于其他阻塞队列LinkedTransferQueue多了tryTransfer和transfer方法。
transfer 如果当前有消费者正在等待接收元素take()或poll(long timeout, TimeUnit unit)transfer方法可以把生产者传入的元素立刻transfer传输给消费者。 如果没有消费者在等待接收元素transfer方法会将元素存放在队列的tail节点并等到该元素被消费者消费了才返回。
transfer方法的关键代码示例
Node pred tryAppend(s, haveData);
...
return awaitMatch(s, pred, e, (how TIMED), nanos);
解说
第一行代码是试图把存放当前元素的s节点作为tail节点。
第二行代码是让CPU自旋等待消费者消费元素。因为自旋会消耗CPU所以自旋一定的次数后使用Thread.yield()方法来暂停当前正在执行的线程并执行其他线程。
tryTransfer
tryTransfer(E e)方法是用来试探生产者传入的元素是否能直接传给消费者。如果没有消费者等待接收元素则返回false。 和transfer方法的区别是tryTransfer(E e)方法无论消费者是否接收方法立即返回而transfer方法是必须等到消费者消费了才返回。 对于带有时间限制的tryTransfer(E e, long timeout, TimeUnit unit)方法相当于在timeout时间内进行tryTransfer(E e)如果超时还没消费元素则返回false如果在超时时间内消费了元素则返回true。
LinkedBlockingDeque一个由 链表 结构组成的 双向 阻塞队列。
所谓双向队列指的是可以从队列的两端插入和移出元素。双向队列因为多了一个操作队列的入口在多线程同时入队时也就减少了一半的竞争。 相比其他的阻塞队列LinkedBlockingDeque多了addFirst、addLast、offerFirst、offerLast、peekFirst和peekLast等方法。 以First单词结尾的方法表示插入、获取peek或移除双端队列的 第一个元素。 以Last单词结尾的方法表示插入、获取或移除双端队列的 最后一个元素。
阻塞队列的实现原理
即为使用通知模式实现。就是当生产者往满的队列里添加元素时会阻塞住生产者当消费者消费了一个队列中的元素后会通知生产者当前队列可用。
以下是ArrayBlockingQueue的相关代码我们可以看到它是用Condition来实现的
示例
public ArrayBlockingQueue(int capacity, boolean fair) {...notEmpty lock.newCondition();notFull lock.newCondition();
}
public void put(E e) throws InterruptedException {Objects.requireNonNull(e);final ReentrantLock lock this.lock;lock.lockInterruptibly();try {while (count items.length)notFull.await();enqueue(e);} finally {lock.unlock();}
}
public E take() throws InterruptedException {final ReentrantLock lock this.lock;lock.lockInterruptibly();try {while (count 0)notEmpty.await();return dequeue();} finally {lock.unlock();}
}
private void enqueue(E x) {final Object[] items this.items;items[putIndex] x;if (putIndex items.length) putIndex 0;count;notEmpty.signal();
}
private E dequeue() {final Object[] items this.items;SuppressWarnings(unchecked)E x (E) items[takeIndex];items[takeIndex] null;if (takeIndex items.length) takeIndex 0;count--;if (itrs ! null)itrs.elementDequeued();notFull.signal();return x;
}
Fork / Join 框架
Fork/Join框架是 Java 7提供的一个用于并行执行任务的框架是一个 把大任务分割成若干个小任务最终汇总每个小任务结果后得到大任务结果 的框架。
比如计算12…10000可以分割成10个子任务每个子任务分别对1000个数进行求和最终汇总这10个子任务的结果。
工作窃取算法
工作窃取work-stealing算法是指某个线程从其他队列里窃取任务来执行。
比如 我们把一个大任务分成 10 个小任务 让 10个线程分别执行一个任务可能线程1执行的任务很快就完成了线程2 执行的比较慢这时候线程1就可以去线程2的任务队列里面去取任务来继续工作以提高效率。
工作窃取算法的优缺点
优点充分利用线程进行并行计算减少了线程间的竞争。
缺点在某些情况下还是存在竞争比如双端队列里只有一个任务时。并且该算法会消耗了更多的系统资源比如创建多个线程和多个双端队列。
Fork/Join框架的设计
分割任务
执行任务并合并结果
Fork/Join使用以下两个类来完成以上两件事情
ForkJoinTask 我们要使用ForkJoin框架必须首先创建一个ForkJoin任务。它提供在任务中执行 fork()和join()操作的机制。通常情况下我们不需要直接继承ForkJoinTask类只需要继承它的子类Fork/Join框架提供了以下两个子类RecursiveAction 用于没有返回结果的任务。RecursiveTask用于有返回结果的任务。ForkJoinPool ForkJoinTask需要通过ForkJoinPool来执行。任务分割出的子任务会添加到当前工作线程所维护的双端队列中进入队列的头部。 当一个工作线程的队列里暂时没有任务时它会随机从其他工作线程的队列的尾部获取一个任务。
使用Fork/Join框架
下面我们示例使用Fork/Join框架计算 1234 设置的分割的阈值是2即1234会被分割为12 和 34两个任务因为有返回结果所以我们需要使用RecursiceTask
public class TestRecursiveTask extends RecursiveTaskInteger {/*** 阈值*/private static final int THRESHOLD 2;private int start;private int end;public TestRecursiveTask(int start, int end) {this.start start;this.end end;}public static void main(String[] args) {ForkJoinPool forkJoinPool new ForkJoinPool();// 生成一个计算任务负责计算1234TestRecursiveTask task new TestRecursiveTask(1, 4);// 执行一个任务FutureInteger result forkJoinPool.submit(task);try {System.out.println(result.get());} catch (Exception e) {e.printStackTrace();}}Overrideprotected Integer compute() {int sum 0;// 如果任务足够小就计算任务boolean canCompute (end - start) THRESHOLD;System.out.println(start --- end);if (canCompute) {for (int i start; i end; i) {sum i;}} else {// 如果任务大于阈值就分裂成两个子任务计算int middle (start end) / 2;TestRecursiveTask leftTask new TestRecursiveTask(start, middle);TestRecursiveTask rightTask new TestRecursiveTask(middle 1, end);// 执行子任务leftTask.fork();rightTask.fork();// 等待子任务执行完并得到其结果int leftResult leftTask.join();int rightResult rightTask.join();// 合并子任务sum leftResult rightResult;}return sum;}
}
输出结果
1---4
1---2
3---4
10通过上述例子我们进一步了解ForkJoinTaskForkJoinTask与一般任务的主要区别在于它需要实现compute方法在这个方法里首先需要判断任务是否足够小如果足够小就直接执行任务。如果不足够小就必须分割成两个子任务每个子任务在调用fork方法时又会进入compute方法看看当前子任务是否需要继续分割成子任务如果不需要继续分割则执行当前子任务并返回结果。使用join方法会等待子任务执行完并得到其结果。
Fork/Join框架的异常处理
ForkJoinTask在执行的时候可能会抛出异常但是我们没办法在主线程里直接捕获异常所以ForkJoinTask提供了isCompletedAbnormally()方法来检查任务是否已经抛出异常或已经被取消了并且可以通过ForkJoinTask的getException方法获取异常。
示例
if (task.isCompletedAbnormally()) {System.out.println(task.getException());
}getException方法返回Throwable对象如果任务被取消了则返回CancellationException。如果任务没有完成或者没有抛出异常则返回null。
Fork/Join框架的实现原理
ForkJoinPool由ForkJoinTask数组和ForkJoinWorkerThread数组组成ForkJoinTask数组负责将存放程序提交给ForkJoinPool的任务而ForkJoinWorkerThread数组负责执行这些任务。
ForkJoinTask的fork方法实现原理
示例
public final ForkJoinTaskV fork() {Thread t;if ((t Thread.currentThread()) instanceof ForkJoinWorkerThread)((ForkJoinWorkerThread)t).workQueue.push(this);elseForkJoinPool.common.externalPush(this);return this;
}workQueue.push方法
通过a[(al - 1) s] task;把任务存入数组里 然后通过p.signalWork();来唤醒一个工作线程来执行任务
final void push(ForkJoinTask? task) {U.storeFence(); int s top, al, d; ForkJoinTask?[] a;if ((a array) ! null (al a.length) 0) {a[(al - 1) s] task; top s 1;ForkJoinPool p pool;if ((d base - s) 0 p ! null) {U.fullFence();p.signalWork();}else if (al d 1)growArray();}
}common.externalPush方法
通过q.sharedPush(task)把任务存入数组 然后通过signalWork();来唤醒一个工作线程来执行任务
final void externalPush(ForkJoinTask? task) {...for (;;) {WorkQueue q; int wl, k, stat;int rs runState;WorkQueue[] ws workQueues;if (rs 0 || ws null || (wl ws.length) 0)tryInitialize(true);else if ((q ws[k (wl - 1) r SQMASK]) null)tryCreateExternalQueue(k);else if ((stat q.sharedPush(task)) 0)break;else if (stat 0) {signalWork();break;}else r ThreadLocalRandom.advanceProbe(r);}
}
final int sharedPush(ForkJoinTask? task) {int stat;if (U.compareAndSwapInt(this, QLOCK, 0, 1)) {int b base, s top, al, d; ForkJoinTask?[] a;if ((a array) ! null (al a.length) 0 al - 1 (d b - s) 0) {a[(al - 1) s] task;top s 1; qlock 0;stat (d 0 b base) ? d : 0;}else {growAndSharedPush(task);stat 0;}}elsestat 1;return stat;
}
ForkJoinTask的join方法实现原理 任务是已完成状态的话就返回子类重写的getRawResult()的值。
public final X join() {int s;if ((s doJoin() DONE_MASK) ! NORMAL)reportException(s);return getRawResult();
}
private void reportException(int s) {if (s CANCELLED)throw new CancellationException();if (s EXCEPTIONAL)rethrow(getThrowableException());
}
public abstract X getRawResult();通过doJoin()获取任务的状态。
static final int NORMAL 0xf0000000; // must be negative 已完成
static final int CANCELLED 0xc0000000; // must be NORMAL 被取消
static final int EXCEPTIONAL 0x80000000; // must be CANCELLED 信号
static final int SIGNAL 0x00010000; // must be 1 16 出现异常private int doJoin() {int s; Thread t; ForkJoinWorkerThread wt; ForkJoinPool.WorkQueue w;s status;if (s 0) {return s;} else {if ((t Thread.currentThread()) instanceof ForkJoinWorkerThread) {wt (ForkJoinWorkerThread) t;w wt.workQueuq;s doExec();if (w.tryUnpush(this) s 0) {return s;} else {return wt.pool.awaitJoin(w, this, 0L);}} else {return externalAwaitDone();}}
}
了解更多关注我哟