Heim  >  Artikel  >  Java  >  Eingehende Analyse des Java-Speichermodells: Sperren

Eingehende Analyse des Java-Speichermodells: Sperren

黄舟
黄舟Original
2016-12-29 11:45:001287Durchsuche

Sperren Sie die Freigabe – das Festgelegte wird vor der Beziehung abgerufen.

Sperren ist der wichtigste Synchronisationsmechanismus in der gleichzeitigen Java-Programmierung. Sperren ermöglichen nicht nur die sich gegenseitig ausschließende Ausführung kritischer Abschnitte, sondern ermöglichen es dem Thread, der die Sperre aufhebt, auch, Nachrichten an den Thread zu senden, der dieselbe Sperre erhält.

Das Folgende ist ein Beispielcode für die Sperrfreigabe-Erfassung:

class MonitorExample {
    int a = 0;

    public synchronized void writer() {  //1
        a++;                             //2
    }                                    //3

    public synchronized void reader() {  //4
        int i = a;                       //5
        ……
    }                                    //6
}

Angenommen, Thread A führt die Writer()-Methode aus und Thread B führt dann die Reader()-Methode aus. Gemäß der Regel „passiert vor“ kann die in diesem Prozess enthaltene Beziehung „passiert vor“ in zwei Kategorien unterteilt werden:
Gemäß der Programmreihenfolgeregel passiert 1 vor 2, 2 passiert vor 3; 4 passiert vor 5, 5 passiert vor 6.
Gemäß den Überwachungssperrregeln geschieht 3 vor 4.
Gemäß der Transitivität von passiert vorher, 2 passiert vor 5.

Die grafische Darstellung der oben genannten „Schiebt vor“-Beziehung sieht wie folgt aus:

Eingehende Analyse des Java-Speichermodells: Sperren

In der obigen Abbildung stellen die beiden durch jeden Pfeil verbundenen Knoten ein Geschehen davor dar Beziehung. Schwarze Pfeile stellen Regeln für die Programmreihenfolge dar; orangefarbene Pfeile stellen Regeln für die Monitorsperre dar, und blaue Pfeile stellen die Garantien dar, die durch die Kombination dieser Regeln gewährleistet werden.

Die obige Abbildung zeigt, dass Thread B anschließend dieselbe Sperre erhält, nachdem Thread A die Sperre aufgehoben hat. Im Bild oben passiert 2 vor 5. Daher werden alle gemeinsam genutzten Variablen, die für Thread A vor dem Aufheben der Sperre sichtbar waren, sofort für Thread B sichtbar, nachdem Thread B dieselbe Sperre erworben hat.

Speichersemantik der Sperrenfreigabe und -erfassung

Wenn ein Thread die Sperre aufhebt, aktualisiert JMM die gemeinsam genutzten Variablen im lokalen Speicher, die dem Thread entsprechen, im Hauptspeicher. Am Beispiel des obigen MonitorExample-Programms sieht das Statusdiagramm der gemeinsam genutzten Daten nach dem Aufheben der Sperre durch Thread A wie folgt aus:

Eingehende Analyse des Java-Speichermodells: Sperren

Wenn der Thread die Sperre erhält, JMM will Die interne Einstellung ist ungültig. Daher muss der durch den Monitor geschützte kritische Abschnittscode die gemeinsam genutzten Variablen aus dem Hauptspeicher lesen. Das Folgende ist ein schematisches Diagramm des Status der Sperrenerfassung:

Eingehende Analyse des Java-Speichermodells: Sperren

Vergleicht man die Speichersemantik der Sperrenfreigabe-Erfassung und die Speichersemantik des flüchtigen Schreibens/Lesens, kann dies der Fall sein Ich habe gesehen, dass: Sperrenfreigabe und flüchtiges Schreiben miteinander verbunden sind. Die gleiche Speichersemantik ist die gleiche Speichersemantik.

Das Folgende ist eine Zusammenfassung der Speichersemantik der Sperrenfreigabe und des Sperrenerwerbs:
Thread A gibt eine Sperre frei. Im Wesentlichen gibt Thread A eine (Thread A)-Nachricht über Änderungen an gemeinsam genutzten Variablen aus.
Thread B erhält eine Sperre. Im Wesentlichen empfängt Thread B eine Nachricht, die von einem vorherigen Thread gesendet wurde (Änderungen an gemeinsam genutzten Variablen, bevor die Sperre aufgehoben wird).
Thread A gibt die Sperre frei und dann erhält Thread B die Sperre. Bei diesem Vorgang sendet Thread A im Wesentlichen eine Nachricht an Thread B über den Hauptspeicher.

Implementierung der Sperrspeichersemantik

In diesem Artikel wird der Quellcode von ReentrantLock verwendet, um den spezifischen Implementierungsmechanismus der Sperrspeichersemantik zu analysieren.

Bitte sehen Sie sich den Beispielcode unten an:

class ReentrantLockExample {
int a = 0;
ReentrantLock lock = new ReentrantLock();

public void writer() {
    lock.lock();         //获取锁
    try {
        a++;
    } finally {
        lock.unlock();  //释放锁
    }
}

public void reader () {
    lock.lock();        //获取锁
    try {
        int i = a;
        ……
    } finally {
        lock.unlock();  //释放锁
    }
}
}

Rufen Sie in ReentrantLock die lock()-Methode auf, um die Sperre zu erhalten; rufen Sie die unlock()-Methode auf, um die Sperre aufzuheben.

Die Implementierung von ReentrantLock basiert auf dem Java-Synchronizer-Framework AbstractQueuedSynchronizer (in diesem Artikel als AQS bezeichnet). AQS verwendet eine ganzzahlige flüchtige Variable (benannter Zustand), um den Synchronisationsstatus aufrechtzuerhalten. Wir werden bald sehen, dass diese flüchtige Variable der Schlüssel zur Implementierung der ReentrantLock-Speichersemantik ist. Das Folgende ist das Klassendiagramm von ReentrantLock (nur die für diesen Artikel relevanten Teile werden gezeichnet):

Eingehende Analyse des Java-Speichermodells: Sperren

ReentrantLock ist in faire Sperren und unfaire Sperren unterteilt. Wir analysieren zunächst die Messe sperren.

Bei Verwendung von Fair Lock lautet der Methodenaufruf-Trace der Sperrmethode lock() wie folgt:
ReentrantLock : lock()
FairSync : lock()
AbstractQueuedSynchronizer : acquire(int arg)
ReentrantLock: tryAcquire(int acquires)

Das Sperren beginnt tatsächlich in Schritt 4. Das Folgende ist der Quellcode dieser Methode:

protected final boolean tryAcquire(int acquires) {
    final Thread current = Thread.currentThread();
    int c = getState();   //获取锁的开始,首先读volatile变量state
    if (c == 0) {
        if (isFirst(current) &&
            compareAndSetState(0, acquires)) {
            setExclusiveOwnerThread(current);
            return true;
        }
    }
    else if (current == getExclusiveOwnerThread()) {
        int nextc = c + acquires;
        if (nextc < 0)  
            throw new Error("Maximum lock count exceeded");
        setState(nextc);
        return true;
    }
    return false;
}

Wie wir sehen können Im obigen Quellcode liest die Sperrmethode zunächst den Status der flüchtigen Variablen.

Bei Verwendung von Fair Lock lautet der Methodenaufruf-Trace der Entsperrmethode unlock() wie folgt:
ReentrantLock: unlock()
AbstractQueuedSynchronizer: release(int arg)
Sync: tryRelease (int releases)

Geben Sie die Sperre in Schritt 3 auf. Hier ist der Quellcode dieser Methode:

protected final boolean tryRelease(int releases) {
    int c = getState() - releases;
    if (Thread.currentThread() != getExclusiveOwnerThread())
        throw new IllegalMonitorStateException();
    boolean free = false;
    if (c == 0) {
        free = true;
        setExclusiveOwnerThread(null);
    }
    setState(c);           //释放锁的最后,写volatile变量state
    return free;
}

从上面的源代码我们可以看出,在释放锁的最后写volatile变量state。

公平锁在释放锁的最后写volatile变量state;在获取锁时首先读这个volatile变量。根据volatile的happens-before规则,释放锁的线程在写volatile变量之前可见的共享变量,在获取锁的线程读取同一个volatile变量后将立即变的对获取锁的线程可见。

现在我们分析非公平锁的内存语义的实现。

非公平锁的释放和公平锁完全一样,所以这里仅仅分析非公平锁的获取。

使用公平锁时,加锁方法lock()的方法调用轨迹如下:
ReentrantLock : lock()
NonfairSync : lock()
AbstractQueuedSynchronizer : compareAndSetState(int expect, int update)

在第3步真正开始加锁,下面是该方法的源代码:

protected final boolean compareAndSetState(int expect, int update) {
    return unsafe.compareAndSwapInt(this, stateOffset, expect, update);
}

该方法以原子操作的方式更新state变量,本文把java的compareAndSet()方法调用简称为CAS。JDK文档对该方法的说明如下:如果当前状态值等于预期值,则以原子方式将同步状态设置为给定的更新值。此操作具有 volatile 读和写的内存语义。

这里我们分别从编译器和处理器的角度来分析,CAS如何同时具有volatile读和volatile写的内存语义。

前文我们提到过,编译器不会对volatile读与volatile读后面的任意内存操作重排序;编译器不会对volatile写与volatile写前面的任意内存操作重排序。组合这两个条件,意味着为了同时实现volatile读和volatile写的内存语义,编译器不能对CAS与CAS前面和后面的任意内存操作重排序。

下面我们来分析在常见的intel x86处理器中,CAS是如何同时具有volatile读和volatile写的内存语义的。

下面是sun.misc.Unsafe类的compareAndSwapInt()方法的源代码:

public final native boolean compareAndSwapInt(Object o, long offset,
                                              int expected,
                                              int x);

可以看到这是个本地方法调用。这个本地方法在openjdk中依次调用的c++代码为:unsafe.cpp,atomic.cpp和atomicwindowsx86.inline.hpp。这个本地方法的最终实现在openjdk的如下位置:openjdk-7-fcs-src-b147-27jun2011\openjdk\hotspot\src\oscpu\windowsx86\vm\ atomicwindowsx86.inline.hpp(对应于windows操作系统,X86处理器)。下面是对应于intel x86处理器的源代码的片段:

// Adding a lock prefix to an instruction on MP machine
// VC++ doesn&#39;t like the lock prefix to be on a single line
// so we can&#39;t insert a label after the lock prefix.
// By emitting a lock prefix, we can define a label after it.
#define LOCK_IF_MP(mp) __asm cmp mp, 0  \
                       __asm je L0      \
                       __asm _emit 0xF0 \
                       __asm L0:

inline jint     Atomic::cmpxchg    (jint     exchange_value, volatile jint*     dest, jint     compare_value) {
  // alternative for InterlockedCompareExchange
  int mp = os::is_MP();
  __asm {
    mov edx, dest
    mov ecx, exchange_value
    mov eax, compare_value
    LOCK_IF_MP(mp)
    cmpxchg dword ptr [edx], ecx
  }
}

如上面源代码所示,程序会根据当前处理器的类型来决定是否为cmpxchg指令添加lock前缀。如果程序是在多处理器上运行,就为cmpxchg指令加上lock前缀(lock cmpxchg)。反之,如果程序是在单处理器上运行,就省略lock前缀(单处理器自身会维护单处理器内的顺序一致性,不需要lock前缀提供的内存屏障效果)。

intel的手册对lock前缀的说明如下:
确保对内存的读-改-写操作原子执行。在Pentium及Pentium之前的处理器中,带有lock前缀的指令在执行期间会锁住总线,使得其他处理器暂时无法通过总线访问内存。很显然,这会带来昂贵的开销。从Pentium 4,Intel Xeon及P6处理器开始,intel在原有总线锁的基础上做了一个很有意义的优化:如果要访问的内存区域(area of memory)在lock前缀指令执行期间已经在处理器内部的缓存中被锁定(即包含该内存区域的缓存行当前处于独占或以修改状态),并且该内存区域被完全包含在单个缓存行(cache line)中,那么处理器将直接执行该指令。由于在指令执行期间该缓存行会一直被锁定,其它处理器无法读/写该指令要访问的内存区域,因此能保证指令执行的原子性。这个操作过程叫做缓存锁定(cache locking),缓存锁定将大大降低lock前缀指令的执行开销,但是当多处理器之间的竞争程度很高或者指令访问的内存地址未对齐时,仍然会锁住总线。
禁止该指令与之前和之后的读和写指令重排序。
把写缓冲区中的所有数据刷新到内存中。

上面的第2点和第3点所具有的内存屏障效果,足以同时实现volatile读和volatile写的内存语义。

经过上面的这些分析,现在我们终于能明白为什么JDK文档说CAS同时具有volatile读和volatile写的内存语义了。

现在对公平锁和非公平锁的内存语义做个总结:
公平锁和非公平锁释放时,最后都要写一个volatile变量state。
公平锁获取时,首先会去读这个volatile变量。
非公平锁获取时,首先会用CAS更新这个volatile变量,这个操作同时具有volatile读和volatile写的内存语义。

从本文对ReentrantLock的分析可以看出,锁释放-获取的内存语义的实现至少有下面两种方式:
利用volatile变量的写-读所具有的内存语义。
利用CAS所附带的volatile读和volatile写的内存语义。

concurrent包的实现

由于java的CAS同时具有 volatile 读和volatile写的内存语义,因此Java线程之间的通信现在有了下面四种方式:
A线程写volatile变量,随后B线程读这个volatile变量。
A线程写volatile变量,随后B线程用CAS更新这个volatile变量。
A线程用CAS更新一个volatile变量,随后B线程用CAS更新这个volatile变量。
A线程用CAS更新一个volatile变量,随后B线程读这个volatile变量。

Java的CAS会使用现代处理器上提供的高效机器级别原子指令,这些原子指令以原子方式对内存执行读-改-写操作,这是在多处理器中实现同步的关键(从本质上来说,能够支持原子性读-改-写指令的计算机器,是顺序计算图灵机的异步等价机器,因此任何现代的多处理器都会去支持某种能对内存执行原子性读-改-写操作的原子指令)。同时,volatile变量的读/写和CAS可以实现线程之间的通信。把这些特性整合在一起,就形成了整个concurrent包得以实现的基石。如果我们仔细分析concurrent包的源代码实现,会发现一个通用化的实现模式:
首先,声明共享变量为volatile;
然后,使用CAS的原子条件更新来实现线程之间的同步;
同时,配合以volatile的读/写和CAS所具有的volatile读和写的内存语义来实现线程之间的通信。

AQS,非阻塞数据结构和原子变量类(java.util.concurrent.atomic包中的类),这些concurrent包中的基础类都是使用这种模式来实现的,而concurrent包中的高层类又是依赖于这些基础类来实现的。从整体来看,concurrent包的实现示意图如下:

Eingehende Analyse des Java-Speichermodells: Sperren

 以上就是Java内存模型深度解析:锁的内容,更多相关内容请关注PHP中文网(www.php.cn)!


Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn