Nous devons d'abord savoir, Lorsque le processeur
accède à la mémoire, il n'accède pas directement à la mémoire, mais accède d'abord au cache (cache
). CPU
访问内存时,不是直接去访问内存的,而是先访问缓存(cache
)。
当缓存中已经有了我们要的数据时,CPU
就会直接从缓存中读数据,而不是从内存中读。
CPU
和缓存的关系如下:
缓存分为一级、二级、三级,最靠近CPU的是一级缓存,最远的是内存,离CPU越近速度越快。
访问速度上,L1>L2>L3>内存,缓存比内存速度要快得非常多。
如果CPU操作的数据在缓存中,则直接从缓存中读取,这个过程就叫缓存命中。
因此提升性能的关键,就是要提高缓存命中率。下面来看如何提高缓存命中率。
来看一个实例,有一个N*N
CPU
lira les données directement depuis le cache au lieu de lire depuis la mémoire.
CPU
et cache La relation est la suivante : 🎜🎜Le cache est divisé en niveaux un et niveau deux Niveau 1 et niveau 3, celui le plus proche du CPU est le cache de niveau 1, et le plus éloigné est la mémoire. Plus il est proche du CPU, plus il est rapide. 🎜🎜En termes de vitesse d'accès, L1>L2>L3>mémoire, le cache est beaucoup plus rapide que la mémoire. 🎜🎜Si les données exploitées par le CPU se trouvent dans le cache, elles sont lues directement à partir du cache. Ce processus est appelé accès au cache. 🎜🎜La clé pour améliorer les performances est donc d'augmenter le taux de réussite du cache. Voyons comment améliorer le taux de réussite du cache. 🎜🎜🎜🎜🎜Améliorer le taux de réussite du cache de données🎜🎜 🎜🎜🎜Regardons un exemple, il y a un N*N
tableau bidimensionnel, par exemple : 🎜int array[N][N];🎜Utilisez maintenant deux boucles for pour parcourir ce tableau et accéder au contenu de chaque élément : 🎜
for(i = 0; i < N; i+=1) { for(j = 0; j < N; j+=1) { array[i][j] = 0;//速度快 //array[j][i] = 0;//速度慢 } }
有两种访问方式:array[i][j]
和array[j][i]
。
在性能上,array[i][j]
会比array[j][i]
执行地更快,并且速度相差8倍。
首先数组在内存上是连续的,假设N等于2,则array[2][2]
在内存中的排布是:
array[0][0]、array[0][1]、array[1][0]、array[1][1]、
以array[i][j]
方式访问,即按内存中的顺序访问,当访问array[0][0]
时,CPU就已经把数组的剩余三个数据(array[0][1]
、array[1][0]
、array[1][1]
)加载到了缓存当中。
当继续访问后三个元素时,CPU会直接从缓存中读取数据,而不需要从内存中读取(cache命中)。因此速度会很快。
如果以array[j][i]
方式访问数组,则访问顺序为:
array[0][0]、array[1][0]、array[0][1]、array[1][1]
此时访问顺序是跳跃的,并不是按数组在内存中的的排布顺序来访问。如果N很大的话,那么执行array[j][i]
时,array[j+1][i]
的内容是没法读进缓存里的,等到要访问array[j+1][i]
时就只能从内存中读取。
所以array[j][i]
的速度会慢于array[i][j]
。
刚刚提到,如果这个二维数组的N很大,array[j+1][i]
的内容是没法读到缓存里的,那CPU一次能够将多少数据加载进缓存里呢?
这个其实跟cache line
有关,cache line
代表缓存一次载入数据的大小。可以通过以下命令查看cache line
为多大:
cat /sys/devices/system/cpu/cpu0/cache/index0/coherency_line_size
cache line
为64
,代表CPU缓存一次数据的大小为64字节。
Lors de la visite de array[0][0]
, le nombre d'octets occupés par l'élément est inférieur à 64
octets, CPU
Suivant les éléments seront complétés dans l'ordre, et les éléments suivants array[0 ][1]
, array [1] [0]
Lisez ensemble le contenu dans le cache jusqu'à ce que suffisamment64
octets. array[0][0]
时,该元素所占用的字节数不到64
字节,CPU
就会按顺序补足后续元素,就会把后面的array[0][1]
、array[1][0]
等内容一起读到缓存里,直到凑够64
字节。
正因如此,按顺序访问的array[i][j]
才会比不按顺序访问的array[j][i]
array[i ][j ]
sera meilleur que ceux consultés dans le désordrearray[j][i]
est rapide. 🎜Voyons pourquoi la vitesse est différente 8
倍。我们知道,二维数组中,第一维元素放的是地址,第二维元素才是数据。64
位系统中,地址占用8
个字节,cache line
为64
的话,地址已经占用了8
字节,那每个cache line
最多能载入不到8
个二维数组元素,N
很大的情况下,他们的性能平均下来就会相差将近8
fois.
Conclusion : l'accès dans l'ordre de disposition de la mémoire peut améliorer le taux de réussite du cache de données.
Ce dont nous avons parlé plus tôt était le cache de données, voyons maintenant comment améliorer le taux de réussite du cache d'instructions.
有一个数组array
,数组元素内容为0-255
之间的随机数:
int array[N]; for (i = 0; i < TESTN; i++) array[i] = rand() % 256;
现在,要把数组中数字小于128的元素置为0,并且对数组排序。
大家应该都能想到,有两种方法:
for(i = 0; i < N; i++) { if (array [i] < 128) array[i] = 0; } sort(array, array +N);
先排序后遍历的速度会比较快,为什么?
因为在for
循环中会执行很多次if
分支判断语句,而CPU
拥有分支预测器。
如果分支预测器可以预测接下来要执行的分支(执行if
还是执行else
),那么就可以提前把这些指令放到缓存中,CPU执行的时候就会很快了。
如果一个数组的内容完全随机的话,那么分支预测器就很难进行正确的预测。但如果数组内容是有序的,它就会根据历史命中数据的情况对未来进行预测,那命中率就会很高,所以先排序后遍历的速度会比较快。
怎么验证指令缓存命中率的情况呢?
在Linux
下,可以使用Perf
性能分析工具进行验证。通过-e
选项,指定branch-loads
和branche-chargements-manqués
事件,可以分别统计出分支预测成功的次数 strong>和分支预测失败的次数,通过 L1-icache-load-misses
Oui,perf
工具能否统计这些事件取决于CPU
Linux
下,可以使用Perf
性能分析工具进行验证。通过-e
选项,指定branch-loads
和branch-loads-misses
事件,可以分别统计出分支预测成功的次数和分支预测失败的次数,通过L1-icache-load-misses
事件也能统计一级缓存中指令未命中的次数。但是,这些性能事件都属于硬件事件,perf
工具能否统计这些事件取决于CPU
是否支持以及芯片原厂是否去实现了该接口,我看很多都是不支持或者没实现的。
另外,在Linux内核中,可以看到大量的likely
和unlikely
宏,并且它们都出现if
语句中,这两个宏的作用就是为了提高性能。
这是显示预测概率的宏,如果你觉得CPU的分支预测不准,但if
中条件为"真"的概率很高,那么你就可以使用likely()
probable
和peu probable
宏,并且它们都出现if
语句中,这两个宏的作用就是为了提高性能。🎜🎜这是显示预测概率的宏,如果你Processus de gestion du processeur ,但if
中条件为"真" likely()
括起来,以此提升性能。🎜#define likely(x) __builtin_expect(!!(x), 1) #define unlikely(x) __builtin_expect(!!(x), 0) if (likely(a == 1)) …
首先要清楚,一级缓存、二级缓存是每颗核心独享的,三级缓存则面向所有核心。
但多核CPU下的系统有个特点,存在CPU核心迁移问题。
Par exemple, le processus A
在时间片内使用CPU
核心1
,自然填满了CPU
核心1
的一、二级缓存,但基于调度策略,时间片结束后,CPU
核心1
会被让出,防止某些进程饿死。如果此时CPU
核心1
很忙,那么进程A
很可能就会被调度到CPU
核心2
上运行。这样的话,无论我们怎么优化代码,也只能在一个时间片内高效地使用CPU
le cache de premier et deuxième niveaux sera confronté à des problèmes d'efficacité du cache dans la prochaine tranche de temps.
Dans ce cas, vous pouvez envisager de lier le processus au CPU pour qu'il s'exécute.
perf
fournit également ce type de performances. Les statistiques des événements sont appelées migrations de processeur
, C'estLe nombre de migrations de CPU perf
工具也提供了这类性能事件的统计,叫cpu-migrations
,即CPU迁移次数。CPU迁移次数多的话,缓存效率就会低。
将进程绑定CPU运行,性能也会得到提升。
这些是CPU
. Si le nombre de migrations de processeur est important, l'efficacité du cache sera faible.
L'impact du cache CPU
sur les performances, c'est déjà un niveau très bas optimisation des performances, quel que soit le langage de programmation valide. Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!