Maison >Tutoriel système >Linux >Optimiser l'opération d'allocation de mémoire de curl
Aujourd'hui, j'ai fait un autre petit changement dans libcurl[1] pour qu'il fasse moins de mallocs. Cette fois, les fonctions génériques de liste chaînée sont converties en moins de mallocs (c'est vraiment ce que devraient être les fonctions de liste chaînée).
Recherche mallocIl y a quelques semaines, j'ai commencé à m'intéresser à l'allocation de mémoire. C'est facile car nous utilisons des systèmes de débogage et de journalisation de la mémoire dans curl depuis des années. Utilisez la version debug de curl et exécutez ce script dans mon répertoire de build :
#!/bin/sh export CURL_MEMDEBUG=$HOME/tmp/curlmem.log ./src/curl http://localhost ./tests/memanalyze.pl -v $HOME/tmp/curlmem.log
Pour curl 7.53.1, cela représente environ 115 allocations de mémoire. Est-ce trop ou pas assez ?
Le journal mémoire est très basique. Pour vous donner une idée, voici un exemple d'extrait :
MEM getinfo.c:70 free((nil)) MEM getinfo.c:73 free((nil)) MEM url.c:294 free((nil)) MEM url.c:297 strdup(0x559e7150d616) (24) = 0x559e73760f98 MEM url.c:294 free((nil)) MEM url.c:297 strdup(0x559e7150d62e) (22) = 0x559e73760fc8 MEM multi.c:302 calloc(1,480) = 0x559e73760ff8 MEM hash.c:75 malloc(224) = 0x559e737611f8 MEM hash.c:75 malloc(29152) = 0x559e737a2bc8 MEM hash.c:75 malloc(3104) = 0x559e737a9dc8Vérifier les journaux
Puis j'ai fouillé plus profondément dans les logs et j'ai réalisé que de nombreuses petites allocations de mémoire étaient faites sur la même ligne de code. Nous avons évidemment des modèles de code assez stupides dans lesquels nous allouons une structure, puis ajoutons cette structure à une liste chaînée ou un hachage, puis ce code ajoute ensuite une autre petite structure, et ainsi de suite, le faisant souvent en boucle. (Ce que je dis ici, c'est nous, pour ne blâmer personne, bien sûr, la majeure partie de la responsabilité incombe à moi...)
Ces deux opérations d'allocation se produiront toujours par paires et seront lancées en même temps. J'ai décidé de résoudre ces problèmes. Faire de très petites allocations (moins de 32 octets) est également un gaspillage, car beaucoup de données seront utilisées (au sein du système malloc) pour garder une trace de cette petite zone de mémoire. Sans parler du tas de débris.
Donc, corriger ce code de hachage et de liste chaînée pour ne pas utiliser malloc est un moyen rapide et facile d'éliminer plus de 20 % des mallocs pour le transfert le plus simple « curl http://localhost ».
À ce stade, je trie toutes les opérations d'allocation de mémoire par taille et vérifie toutes les plus petites opérations d'allocation. Une partie importante se trouve dans curl_multi_wait(), qui est une fonction qui est généralement appelée à plusieurs reprises dans la boucle principale de transfert de boucles. Pour la plupart des cas typiques, je convertis cela en utilisant une pile [2]. C'est une bonne chose d'éviter malloc dans de nombreux appels de fonction répétés.
RecompteMaintenant, comme le montre le script ci-dessus, la même commande curl localhost est passée de 115 opérations d'allocation avec curl 7.53.1 à 80 opérations d'allocation sans rien sacrifier. Facilement une amélioration de 26%. Pas mal du tout !
Depuis que j'ai modifié curl_multi_wait(), je voulais aussi voir comment cela améliorait réellement certains transferts légèrement plus avancés. J'ai utilisé l'exemple de code multi-double.c[3], ajouté un appel pour initialiser l'enregistrement mémoire, lui ai fait utiliser curl_multi_wait() et téléchargé ces deux URL en parallèle :
http://www.example.com/ http://localhost/512M
Le deuxième fichier contient 512 mégaoctets de zéros, le premier fichier est une page HTML publique de 600 octets. Il s'agit du code count-malloc.c[4].
Tout d'abord, j'ai utilisé 7.53.1 pour tester l'exemple ci-dessus et vérifié à l'aide du script memanalyze :
Mallocs: 33901 Reallocs: 5 Callocs: 24 Strdups: 31 Wcsdups: 0 Frees: 33956 Allocations: 33961 Maximum allocated: 160385
D'accord, il a donc utilisé un total de 160 Ko de mémoire et plus de 33 900 opérations d'allocation. Et il télécharge plus de 512 mégaoctets de données, il dispose donc d'un malloc tous les 15 Ko de données. Est-ce bon ou mauvais ?
De retour dans git master, il s'agit désormais de la version 7.54.1-DEV - car nous ne savons pas vraiment de quel numéro de version il s'agira lorsque nous publierons la prochaine version. Il pourrait s'agir de 7.54.1 ou 7.55.0, ce n'est pas encore confirmé. Je m'éloigne du sujet, j'ai exécuté à nouveau le même exemple multi-double.c modifié, j'ai à nouveau exécuté memanalyze sur le journal de la mémoire, et voici le rapport :
Mallocs: 69 Reallocs: 5 Callocs: 24 Strdups: 31 Wcsdups: 0 Frees: 124 Allocations: 129 Maximum allocated: 153247
Je l'ai regardé deux fois avec incrédulité. Ce qui s'est passé? Pour vérifier, je ferais mieux de le relancer. Peu importe le nombre de fois que je l'exécute, le résultat est toujours le même.
33961 contre 129Dans un transfert typique, curl_multi_wait() est appelée plusieurs fois, et au moins une opération d'allocation de mémoire se produit normalement pendant le transfert, donc la suppression de cette seule petite opération d'allocation a un impact très important sur le compteur. Les transferts normaux effectuent également des déplacements de données vers et depuis des listes chaînées et des opérations de hachage, mais ils sont désormais également pour la plupart sans malloc. En termes simples : les opérations d'allocation restantes ne sont pas effectuées dans la boucle de transfert, elles ont donc peu d'importance.
La boucle précédente a alloué 263 fois le nombre d'opérations que l'exemple actuel. Autrement dit : le nouveau représente 0,37% du nombre d'opérations d'allocation de l'ancien.
另外还有一点好处,新的内存分配量更少,总共减少了 7KB(4.3%)。
malloc 重要吗?在几个 G 内存的时代里,在传输中有几个 malloc 真的对于普通人有显著的区别吗?对 512MB 数据进行的 33832 个额外的 malloc 有什么影响?
为了衡量这些变化的影响,我决定比较 localhost 的 HTTP 传输,看看是否可以看到任何速度差异。localhost 对于这个测试是很好的,因为没有网络速度限制,更快的 curl 下载也越快。服务器端也会相同的快/慢,因为我将使用相同的测试集进行这两个测试。
我相同方式构建了 curl 7.53.1 和 curl 7.54.1-DEV,并运行这个命令:
curl http://localhost/80GB -o /dev/null
下载的 80GB 的数据会尽可能快地写到空设备中。
我获得的确切数字可能不是很有用,因为它将取决于机器中的 CPU、使用的 HTTP 服务器、构建 curl 时的优化级别等,但是相对数字仍然应该是高度相关的。新代码对决旧代码!
7.54.1-DEV 反复地表现出更快 30%!我的早期版本是 2200MB/秒增加到当前版本的超过 2900 MB/秒。
这里的要点当然不是说它很容易在我的机器上使用单一内核以超过 20GB/秒的速度来进行 HTTP 传输,因为实际上很少有用户可以通过 curl 做到这样快速的传输。关键在于 curl 现在每个字节的传输使用更少的 CPU,这将使更多的 CPU 转移到系统的其余部分来执行任何需要做的事情。或者如果设备是便携式设备,那么可以省电。
关于 malloc 的成本:512MB 测试中,我使用旧代码发生了 33832 次或更多的分配。旧代码以大约 2200MB/秒的速率进行 HTTP 传输。这等于每秒 145827 次 malloc - 现在它们被消除了!600 MB/秒的改进意味着每秒钟 curl 中每个减少的 malloc 操作能额外换来多传输 4300 字节。
去掉这些 malloc 难吗?一点也不难,非常简单。然而,有趣的是,在这个旧项目中,仍然有这样的改进空间。我有这个想法已经好几年了,我很高兴我终于花点时间来实现。感谢我们的测试套件,我可以有相当大的信心做这个“激烈的”内部变化,而不会引入太可怕的回归问题。由于我们的 API 很好地隐藏了内部,所以这种变化可以完全不改变任何旧的或新的应用程序……
(是的,我还没在版本中发布该变更,所以这还有风险,我有点后悔我的“这很容易”的声明……)
注意数字curl 的 git 仓库从 7.53.1 到今天已经有 213 个提交。即使我没有别的想法,可能还会有一次或多次的提交,而不仅仅是内存分配对性能的影响。
还有吗?还有其他类似的情况么?
也许。我们不会做很多性能测量或比较,所以谁知道呢,我们也许会做更多的愚蠢事情,我们可以收手并做得更好。有一个事情是我一直想做,但是从来没有做,就是添加所使用的内存/malloc 和 curl 执行速度的每日“监视” ,以便更好地跟踪我们在这些方面不知不觉的回归问题。
补遗,4/23(关于我在 hacker news、Reddit 和其它地方读到的关于这篇文章的评论)
有些人让我再次运行那个 80GB 的下载,给出时间。我运行了三次新代码和旧代码,其运行“中值”如下:
旧代码:
real 0m36.705s user 0m20.176s sys 0m16.072s
新代码:
real 0m29.032s user 0m12.196s sys 0m12.820s
承载这个 80GB 文件的服务器是标准的 Apache 2.4.25,文件存储在 SSD 上,我的机器的 CPU 是 i7 3770K 3.50GHz 。
有些人也提到 alloca() 作为该补丁之一也是个解决方案,但是 alloca() 移植性不够,只能作为一个孤立的解决方案,这意味着如果我们要使用它的话,需要写一堆丑陋的 #ifdef。
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!