Heim >häufiges Problem >Leistungsoptimierung auf sehr niedrigem Niveau: Lassen Sie die CPU Ihren Code schneller ausführen
Zuerst müssen wir wissen: Wenn die CPU
auf den Speicher zugreift, greift sie nicht direkt auf den Speicher zu, sondern zuerst auf den Cache (cache
). CPU
访问内存时,不是直接去访问内存的,而是先访问缓存(cache
)。
当缓存中已经有了我们要的数据时,CPU
就会直接从缓存中读数据,而不是从内存中读。
CPU
和缓存的关系如下:
缓存分为一级、二级、三级,最靠近CPU的是一级缓存,最远的是内存,离CPU越近速度越快。
访问速度上,L1>L2>L3>内存,缓存比内存速度要快得非常多。
如果CPU操作的数据在缓存中,则直接从缓存中读取,这个过程就叫缓存命中。
因此提升性能的关键,就是要提高缓存命中率。下面来看如何提高缓存命中率。
来看一个实例,有一个N*N
CPU
liest die Daten direkt aus dem Cache, anstatt sie aus dem Speicher zu lesen.
N*N
zweidimensionales Array, zum Beispiel: 🎜int array[N][N];🎜Verwenden Sie nun zwei for-Schleifen, um dieses Array zu durchlaufen und auf den Inhalt jedes Elements zuzugreifen: 🎜
for(i = 0; i < N; i+=1) { for(j = 0; j < N; j+=1) { array[i][j] = 0;//速度快 //array[j][i] = 0;//速度慢 } }
有两种访问方式:array[i][j]
和array[j][i]
。
在性能上,array[i][j]
会比array[j][i]
执行地更快,并且速度相差8倍。
首先数组在内存上是连续的,假设N等于2,则array[2][2]
在内存中的排布是:
array[0][0]、array[0][1]、array[1][0]、array[1][1]、
以array[i][j]
方式访问,即按内存中的顺序访问,当访问array[0][0]
时,CPU就已经把数组的剩余三个数据(array[0][1]
、array[1][0]
、array[1][1]
)加载到了缓存当中。
当继续访问后三个元素时,CPU会直接从缓存中读取数据,而不需要从内存中读取(cache命中)。因此速度会很快。
如果以array[j][i]
方式访问数组,则访问顺序为:
array[0][0]、array[1][0]、array[0][1]、array[1][1]
此时访问顺序是跳跃的,并不是按数组在内存中的的排布顺序来访问。如果N很大的话,那么执行array[j][i]
时,array[j+1][i]
的内容是没法读进缓存里的,等到要访问array[j+1][i]
时就只能从内存中读取。
所以array[j][i]
的速度会慢于array[i][j]
。
刚刚提到,如果这个二维数组的N很大,array[j+1][i]
的内容是没法读到缓存里的,那CPU一次能够将多少数据加载进缓存里呢?
这个其实跟cache line
有关,cache line
代表缓存一次载入数据的大小。可以通过以下命令查看cache line
为多大:
cat /sys/devices/system/cpu/cpu0/cache/index0/coherency_line_size
cache line
为64
,代表CPU缓存一次数据的大小为64字节。
Beim Besuch von array[0][0]
, die Anzahl der vom Element belegten Bytes ist kleiner als CPU
Nachfolgend Elemente werden der Reihe nach ergänzt und die folgenden array [1] [0]
Lesen Sie den Inhalt zusammen in den Cache, bis er ausreicht64
Bytes. array[0][0]
时,该元素所占用的字节数不到64
字节,CPU
就会按顺序补足后续元素,就会把后面的array[0][1]
、array[1][0]
等内容一起读到缓存里,直到凑够64
字节。
正因如此,按顺序访问的array[i][j]
才会比不按顺序访问的array[j][i]
array[j][i]
ist schnell. 🎜Mal sehen, warum die Geschwindigkeit 8
倍。我们知道,二维数组中,第一维元素放的是地址,第二维元素才是数据。64
位系统中,地址占用8
个字节,cache line
为64
的话,地址已经占用了8
字节,那每个cache line
最多能载入不到8
个二维数组元素,N
很大的情况下,他们的性能平均下来就会相差将近8
mal unterschiedlich ist.
Fazit: Der Zugriff in der Reihenfolge des Speicherlayouts kann die Trefferquote im Datencache verbessern.
Worüber wir vorhin gesprochen haben, war der Datencache. Schauen wir uns nun an, wie wir die Trefferquote des Anweisungscache verbessern können.
有一个数组array
,数组元素内容为0-255
之间的随机数:
int array[N]; for (i = 0; i < TESTN; i++) array[i] = rand() % 256;
现在,要把数组中数字小于128的元素置为0,并且对数组排序。
大家应该都能想到,有两种方法:
for(i = 0; i < N; i++) { if (array [i] < 128) array[i] = 0; } sort(array, array +N);
先排序后遍历的速度会比较快,为什么?
因为在for
循环中会执行很多次if
分支判断语句,而CPU
拥有分支预测器。
如果分支预测器可以预测接下来要执行的分支(执行if
还是执行else
),那么就可以提前把这些指令放到缓存中,CPU执行的时候就会很快了。
如果一个数组的内容完全随机的话,那么分支预测器就很难进行正确的预测。但如果数组内容是有序的,它就会根据历史命中数据的情况对未来进行预测,那命中率就会很高,所以先排序后遍历的速度会比较快。
怎么验证指令缓存命中率的情况呢?
在Perf
性能分析工具进行验证。通过branch-loads-misses
事件,可以分别统计出分支预测成功的次数 strong>和分支预测失败的次数,通过L1-icache-load-misses
事件也能统计一级缓存中指令未命中的次数.但是,这些性能事件都属于硬件事件,perf
工具能否统计这些事件取决于CPU
likely
和unwahrscheinlich
宏,并且它们都出现if
语句中,这两个宏的作用就是为了提高性能。Linux
下,可以使用Perf
性能分析工具进行验证。通过-e
选项,指定branch-loads
和branch-loads-misses
事件,可以分别统计出分支预测成功的次数和分支预测失败的次数,通过L1-icache-load-misses
事件也能统计一级缓存中指令未命中的次数。但是,这些性能事件都属于硬件事件,perf
工具能否统计这些事件取决于CPU
是否支持以及芯片原厂是否去实现了该接口,我看很多都是不支持或者没实现的。
另外,在Linux内核中,可以看到大量的likely
和unlikely
宏,并且它们都出现if
语句中,这两个宏的作用就是为了提高性能。
这是显示预测概率的宏,如果你觉得CPU的分支预测不准,但if
中条件为"真"的概率很高,那么你就可以使用likely()
if
中条件为"真"的概率很高,那么你就可以使用#define likely(x) __builtin_expect(!!(x), 1)
#define unlikely(x) __builtin_expect(!!(x), 0)
if (likely(a == 1)) …提高多核CPU下的缓存命中率
首先要清楚,一级缓存、二级缓存是每颗核心独享的,三级缓存则面向所有核心。
但多核CPU下的系统有个特点,存在CPU核心迁移问题。
Zum Beispiel wird der Prozess A
在时间片内使用CPU
核心1
,自然填满了CPU
核心1
的一、二级缓存,但基于调度策略,时间片结束后,CPU
核心1
会被让出,防止某些进程饿死。如果此时CPU
核心1
很忙,那么进程A
很可能就会被调度到CPU
核心2
上运行。这样的话,无论我们怎么优化代码,也只能在一个时间片内高效地使用CPU
First- und Second-Level-Cache in der nächsten Zeitscheibe mit Cache-Effizienzproblemen konfrontiert sein.
In diesem Fall können Sie erwägen, den Prozess zur Ausführung an die CPU zu binden.
cpu-migrations
, Das istDie Anzahl der CPU-Migrationen perf
工具也提供了这类性能事件的统计,叫cpu-migrations
,即CPU迁移次数。CPU迁移次数多的话,缓存效率就会低。
将进程绑定CPU运行,性能也会得到提升。
总结
这些是CPU
. Wenn die Anzahl der CPU-Migrationen groß ist, ist die Cache-Effizienz gering.
Binden Sie den Prozess zur Ausführung an die CPU und die Leistung wird ebenfalls verbessert.
Zusammenfassung
Dies sind Der Einfluss des CPU
-Cache auf die Leistung ist bereits ein sehr niedriges Niveau Leistungsoptimierung, egal welche Programmiersprache gültig ist.
Verstehen Sie Caching wirklich. Ich glaube, dass Ihr Verständnis der darunter liegenden Ebene eine große Hilfe sein wird.
- Daten-Cache-Trefferquote verbessern
: Kontinuierliche Speicherdaten sequenziell verarbeiten
- Befehlscache-Trefferquote verbessern
: Regelmäßige bedingte Verzweigung
Cache-Trefferquote von Multi-Core-CPUs verbessern
Das obige ist der detaillierte Inhalt vonLeistungsoptimierung auf sehr niedrigem Niveau: Lassen Sie die CPU Ihren Code schneller ausführen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!