La libération du verrouillage - l'établissement se produit avant la relation
Le verrouillage est le mécanisme de synchronisation le plus important dans la programmation simultanée Java. En plus de permettre l'exécution mutuellement exclusive de sections critiques, les verrous permettent également au thread qui libère le verrou d'envoyer des messages au thread qui acquiert le même verrou.
Ce qui suit est un exemple de code pour l'acquisition de libération de verrou :
class MonitorExample { int a = 0; public synchronized void writer() { //1 a++; //2 } //3 public synchronized void reader() { //4 int i = a; //5 …… } //6 }
Supposons que le thread A exécute la méthodewriter(), puis que le thread B exécute la méthode reader(). Selon la règle de l'ordre du programme, la relation qui se produit avant contenue dans ce processus peut être divisée en deux catégories :
Selon la règle de l'ordre du programme, 1 se produit avant 2, 2 se produit avant 3, 4 se produit avant 5, 5 se produit avant ; 6.
Selon les règles de verrouillage du moniteur, 3 se produit avant 4.
Selon la transitivité de arrive avant, 2 arrive avant 5.
La représentation graphique de ce qui précède se produit avant la relation est la suivante :
Dans la figure ci-dessus, les deux nœuds liés par chaque flèche représentent un se produit avant relation. Les flèches noires représentent les règles d'ordre des programmes ; les flèches orange représentent les règles de verrouillage du moniteur et les flèches bleues représentent les garanties d'occurrence fournies par la combinaison de ces règles.
La figure ci-dessus montre qu'après que le thread A a libéré le verrou, le thread B acquiert ensuite le même verrou. Dans l’image ci-dessus, 2 arrive avant 5. Par conséquent, toutes les variables partagées visibles par le thread A avant de libérer le verrou deviendront immédiatement visibles par le thread B une fois que le thread B aura acquis le même verrou.
Sémantique mémoire de libération et d'acquisition du verrou
Lorsqu'un thread libère le verrou, JMM actualisera les variables partagées dans la mémoire locale correspondant au thread vers la mémoire principale. En prenant le programme MonitorExample ci-dessus comme exemple, une fois que le thread A a libéré le verrou, le diagramme d'état des données partagées est le suivant :
Lorsque le thread acquiert le verrou, JMM will Le paramètre interne n’est pas valide. Par conséquent, le code de la section critique protégée par le moniteur doit lire les variables partagées dans la mémoire principale. Ce qui suit est un diagramme schématique de l'état de l'acquisition du verrou :
En comparant la sémantique de la mémoire de l'acquisition de la libération du verrou et la sémantique de la mémoire de l'écriture-lecture volatile, il peut être vu que : la libération du verrou et l'écriture volatile sont liées La même sémantique de mémoire l'acquisition de verrou et la lecture volatile ont la même sémantique de mémoire ;
Ce qui suit est un résumé de la sémantique de la mémoire de la libération et de l'acquisition du verrou :
Le thread A libère un verrou. Essentiellement, le thread A émet un message (thread A) concernant les modifications apportées aux variables partagées.
Le thread B acquiert un verrou. En substance, le thread B reçoit un message envoyé par un thread précédent (modifications des variables partagées avant de libérer le verrou).
Le thread A libère le verrou, puis le thread B acquiert le verrou. Ce processus est essentiellement le thread A qui envoie un message au thread B via la mémoire principale.
Implémentation de la sémantique de la mémoire de verrouillage
Cet article utilisera le code source de ReentrantLock pour analyser le mécanisme d'implémentation spécifique de la sémantique de la mémoire de verrouillage.
Veuillez consulter l'exemple de code ci-dessous :
class ReentrantLockExample { int a = 0; ReentrantLock lock = new ReentrantLock(); public void writer() { lock.lock(); //获取锁 try { a++; } finally { lock.unlock(); //释放锁 } } public void reader () { lock.lock(); //获取锁 try { int i = a; …… } finally { lock.unlock(); //释放锁 } } }
Dans ReentrantLock, appelez la méthode lock() pour acquérir le verrou ; appelez la méthode unlock() pour libérer le verrou.
L'implémentation de ReentrantLock s'appuie sur le framework de synchronisation Java AbstractQueuedSynchronizer (appelé AQS dans cet article). AQS utilise une variable volatile entière (nommée state) pour maintenir l'état de synchronisation. Nous verrons bientôt que cette variable volatile est la clé de l'implémentation de la sémantique de la mémoire ReentrantLock. Voici le diagramme de classes de ReentrantLock (seules les parties pertinentes pour cet article sont dessinées) :
ReentrantLock est divisé en verrouillage équitable et verrouillage injuste. Nous analysons d'abord le verrouillage équitable. verrouillage.
Lors de l'utilisation de fair lock, la méthode appelant la trace de la méthode de verrouillage lock() est la suivante :
ReentrantLock : lock()
FairSync : lock()
AbstractQueuedSynchronizer : acquire(int arg)
ReentrantLock: tryAcquire(int acquires)
Le verrouillage démarre en fait à l'étape 4. Voici le code source de cette méthode :
protected final boolean tryAcquire(int acquires) { final Thread current = Thread.currentThread(); int c = getState(); //获取锁的开始,首先读volatile变量state if (c == 0) { if (isFirst(current) && compareAndSetState(0, acquires)) { setExclusiveOwnerThread(current); return true; } } else if (current == getExclusiveOwnerThread()) { int nextc = c + acquires; if (nextc < 0) throw new Error("Maximum lock count exceeded"); setState(nextc); return true; } return false; }
Comme nous pouvons le voir sur le code source ci-dessus, la méthode de verrouillage lit d'abord l'état de la variable volatile.
Lors de l'utilisation de Fair Lock, la méthode appelant la trace de la méthode de déverrouillage unlock() est la suivante :
ReentrantLock : unlock()
AbstractQueuedSynchronizer : release(int arg)
Sync : tryRelease (int releases )
Libérez le verrou à l'étape 3. Voici le code source de cette méthode :
protected final boolean tryRelease(int releases) { int c = getState() - releases; if (Thread.currentThread() != getExclusiveOwnerThread()) throw new IllegalMonitorStateException(); boolean free = false; if (c == 0) { free = true; setExclusiveOwnerThread(null); } setState(c); //释放锁的最后,写volatile变量state return free; }
从上面的源代码我们可以看出,在释放锁的最后写volatile变量state。
公平锁在释放锁的最后写volatile变量state;在获取锁时首先读这个volatile变量。根据volatile的happens-before规则,释放锁的线程在写volatile变量之前可见的共享变量,在获取锁的线程读取同一个volatile变量后将立即变的对获取锁的线程可见。
现在我们分析非公平锁的内存语义的实现。
非公平锁的释放和公平锁完全一样,所以这里仅仅分析非公平锁的获取。
使用公平锁时,加锁方法lock()的方法调用轨迹如下:
ReentrantLock : lock()
NonfairSync : lock()
AbstractQueuedSynchronizer : compareAndSetState(int expect, int update)
在第3步真正开始加锁,下面是该方法的源代码:
protected final boolean compareAndSetState(int expect, int update) { return unsafe.compareAndSwapInt(this, stateOffset, expect, update); }
该方法以原子操作的方式更新state变量,本文把java的compareAndSet()方法调用简称为CAS。JDK文档对该方法的说明如下:如果当前状态值等于预期值,则以原子方式将同步状态设置为给定的更新值。此操作具有 volatile 读和写的内存语义。
这里我们分别从编译器和处理器的角度来分析,CAS如何同时具有volatile读和volatile写的内存语义。
前文我们提到过,编译器不会对volatile读与volatile读后面的任意内存操作重排序;编译器不会对volatile写与volatile写前面的任意内存操作重排序。组合这两个条件,意味着为了同时实现volatile读和volatile写的内存语义,编译器不能对CAS与CAS前面和后面的任意内存操作重排序。
下面我们来分析在常见的intel x86处理器中,CAS是如何同时具有volatile读和volatile写的内存语义的。
下面是sun.misc.Unsafe类的compareAndSwapInt()方法的源代码:
public final native boolean compareAndSwapInt(Object o, long offset, int expected, int x);
可以看到这是个本地方法调用。这个本地方法在openjdk中依次调用的c++代码为:unsafe.cpp,atomic.cpp和atomicwindowsx86.inline.hpp。这个本地方法的最终实现在openjdk的如下位置:openjdk-7-fcs-src-b147-27jun2011\openjdk\hotspot\src\oscpu\windowsx86\vm\ atomicwindowsx86.inline.hpp(对应于windows操作系统,X86处理器)。下面是对应于intel x86处理器的源代码的片段:
// Adding a lock prefix to an instruction on MP machine // VC++ doesn't like the lock prefix to be on a single line // so we can't insert a label after the lock prefix. // By emitting a lock prefix, we can define a label after it. #define LOCK_IF_MP(mp) __asm cmp mp, 0 \ __asm je L0 \ __asm _emit 0xF0 \ __asm L0: inline jint Atomic::cmpxchg (jint exchange_value, volatile jint* dest, jint compare_value) { // alternative for InterlockedCompareExchange int mp = os::is_MP(); __asm { mov edx, dest mov ecx, exchange_value mov eax, compare_value LOCK_IF_MP(mp) cmpxchg dword ptr [edx], ecx } }
如上面源代码所示,程序会根据当前处理器的类型来决定是否为cmpxchg指令添加lock前缀。如果程序是在多处理器上运行,就为cmpxchg指令加上lock前缀(lock cmpxchg)。反之,如果程序是在单处理器上运行,就省略lock前缀(单处理器自身会维护单处理器内的顺序一致性,不需要lock前缀提供的内存屏障效果)。
intel的手册对lock前缀的说明如下:
确保对内存的读-改-写操作原子执行。在Pentium及Pentium之前的处理器中,带有lock前缀的指令在执行期间会锁住总线,使得其他处理器暂时无法通过总线访问内存。很显然,这会带来昂贵的开销。从Pentium 4,Intel Xeon及P6处理器开始,intel在原有总线锁的基础上做了一个很有意义的优化:如果要访问的内存区域(area of memory)在lock前缀指令执行期间已经在处理器内部的缓存中被锁定(即包含该内存区域的缓存行当前处于独占或以修改状态),并且该内存区域被完全包含在单个缓存行(cache line)中,那么处理器将直接执行该指令。由于在指令执行期间该缓存行会一直被锁定,其它处理器无法读/写该指令要访问的内存区域,因此能保证指令执行的原子性。这个操作过程叫做缓存锁定(cache locking),缓存锁定将大大降低lock前缀指令的执行开销,但是当多处理器之间的竞争程度很高或者指令访问的内存地址未对齐时,仍然会锁住总线。
禁止该指令与之前和之后的读和写指令重排序。
把写缓冲区中的所有数据刷新到内存中。
上面的第2点和第3点所具有的内存屏障效果,足以同时实现volatile读和volatile写的内存语义。
经过上面的这些分析,现在我们终于能明白为什么JDK文档说CAS同时具有volatile读和volatile写的内存语义了。
现在对公平锁和非公平锁的内存语义做个总结:
公平锁和非公平锁释放时,最后都要写一个volatile变量state。
公平锁获取时,首先会去读这个volatile变量。
非公平锁获取时,首先会用CAS更新这个volatile变量,这个操作同时具有volatile读和volatile写的内存语义。
从本文对ReentrantLock的分析可以看出,锁释放-获取的内存语义的实现至少有下面两种方式:
利用volatile变量的写-读所具有的内存语义。
利用CAS所附带的volatile读和volatile写的内存语义。
concurrent包的实现
由于java的CAS同时具有 volatile 读和volatile写的内存语义,因此Java线程之间的通信现在有了下面四种方式:
A线程写volatile变量,随后B线程读这个volatile变量。
A线程写volatile变量,随后B线程用CAS更新这个volatile变量。
A线程用CAS更新一个volatile变量,随后B线程用CAS更新这个volatile变量。
A线程用CAS更新一个volatile变量,随后B线程读这个volatile变量。
Java的CAS会使用现代处理器上提供的高效机器级别原子指令,这些原子指令以原子方式对内存执行读-改-写操作,这是在多处理器中实现同步的关键(从本质上来说,能够支持原子性读-改-写指令的计算机器,是顺序计算图灵机的异步等价机器,因此任何现代的多处理器都会去支持某种能对内存执行原子性读-改-写操作的原子指令)。同时,volatile变量的读/写和CAS可以实现线程之间的通信。把这些特性整合在一起,就形成了整个concurrent包得以实现的基石。如果我们仔细分析concurrent包的源代码实现,会发现一个通用化的实现模式:
首先,声明共享变量为volatile;
然后,使用CAS的原子条件更新来实现线程之间的同步;
同时,配合以volatile的读/写和CAS所具有的volatile读和写的内存语义来实现线程之间的通信。
AQS,非阻塞数据结构和原子变量类(java.util.concurrent.atomic包中的类),这些concurrent包中的基础类都是使用这种模式来实现的,而concurrent包中的高层类又是依赖于这些基础类来实现的。从整体来看,concurrent包的实现示意图如下:
以上就是Java内存模型深度解析:锁的内容,更多相关内容请关注PHP中文网(www.php.cn)!