Lamba LRT

WBOY
WBOYoriginal
2024-08-21 06:14:05465parcourir

Avertissement : tout contenu publié est destiné à rappeler ou à maintenir mes connaissances et j'espère qu'il pourra également vous aider dans votre cheminement d'apprentissage.
Cet article est en ligne et sera mis à jour périodiquement.
Si vous trouvez des défauts ou remarquez qu'il manque quelque chose, aidez-moi à m'améliorer :)


Avez-vous déjà pensé que nous sommes de plus en plus exigeants concernant les performances de nos applications ?
Chaque jour nous sommes encouragés à les rendre plus rapides et avec cela, nous sommes amenés à évaluer des solutions et des architectures qui nous permettent d'atteindre le résultat.


L'idée est donc d'apporter un court article, informant d'une nouvelle évolution qui peut nous aider à avoir une augmentation considérable des performances dans les applications sans serveur dans AWS Lambda. Cette solution est LLRT Javascript.

LLRT Javascript (Javascript d'exécution à faible latence)

Un nouveau runtime Javascript est en cours de développement par l'équipe aws.
Il est actuellement expérimental et des efforts sont déployés pour tenter de publier une version stable d'ici la fin de 2024.

voir la description présentée par AWS :

LLRT (Low Latency Runtime) est un runtime JavaScript léger conçu pour répondre à la demande croissante d'applications sans serveur rapides et efficaces. LLRT offre un démarrage jusqu'à 10 fois plus rapide et un coût global jusqu'à 2 fois inférieur par rapport aux autres environnements d'exécution JavaScript exécutés sur AWS Lambda
Il est construit dans Rust, utilisant QuickJS comme moteur JavaScript, garantissant une utilisation efficace de la mémoire et un démarrage rapide.

Voyez qu'ils visent à fournir quelque chose jusqu'à 10 fois plus rapide que les autres environnements d'exécution JS.

Toute cette construction est réalisée à l'aide de Rust, qui est un langage hautes performances, et de QuickJS, qui est un moteur JavaScript léger et performant conçu pour être petit, efficace et compatible avec la dernière spécification ECMAScript récente, notamment. des fonctionnalités modernes telles que les classes, l'async/wait et les modules. De plus, une approche qui n'utilise pas JIT est utilisée. Par conséquent, au lieu d'allouer des ressources pour la compilation juste à temps, il conserve ces ressources pour exécuter des tâches dans le code lui-même.

Mais ne vous inquiétez pas, tout n'est pas rose, ce sont des compromis (horrible jeu de mots, je sais mdr).
Par conséquent, il y a quelques points importants à considérer avant de penser à adopter LLRT JS. Découvrez ce qu'AWS dit :

Il existe de nombreux cas où LLRT présente des inconvénients de performances notables par rapport aux environnements d'exécution basés sur JIT, tels que le traitement de données volumineuses, les simulations de Monte Carlo ou l'exécution de tâches avec des centaines de milliers ou des millions d'itérations. LLLRT est plus efficace lorsqu'il est appliqué à des fonctions sans serveur plus petites dédiées à des tâches telles que la transformation des données, le traitement en temps réel, les intégrations de services AWS, l'autorisation, la validation, etc. Il est conçu pour compléter les composants existants plutôt que de remplacer complètement tout. Notamment, étant donné que les API prises en charge sont basées sur la spécification Node.js, le retour à des solutions alternatives nécessite des ajustements de code minimes.

De plus, l'idée est que LLRT JS ne remplace pas node.js et ne le sera jamais non plus.

Voir :

LLRT ne prend en charge qu'une fraction des API Node.js. Il ne s'agit PAS d'un remplacement de Node.js, et ce ne le sera jamais. Vous trouverez ci-dessous un aperçu général des API et modules partiellement pris en charge. Pour plus de détails, consultez la documentation de l'API.


Tests d'évaluation

En tenant compte de l'applicabilité mentionnée par AWS lui-même, nous effectuerons deux tests pour évaluer et comparer LLRT avec NodeJS. L'un des tests concernera le calcul des nombres premiers et l'autre concernera un simple appel API.

Pourquoi utiliser le calcul des nombres premiers ?
La réponse est que le traitement complexe requis pour identifier les nombres premiers résulte de la nécessité d’effectuer de nombreuses opérations mathématiques (divisions) pour vérifier la primalité, de la distribution imprévisible des nombres premiers et de la complexité croissante de la taille des nombres. Ces facteurs se combinent pour faire de la vérification de primalité et de la recherche de nombres premiers une tâche à forte intensité de calcul, en particulier à grande échelle.


Pratique alors...

Créez la première fonction lambda avec nodejs :

Lamba LLRT

Maintenant, créons la fonction avec LLRT JS. J'ai choisi d'utiliser l'option calque.

Créer le calque :
Lamba LLRT

Créez ensuite la fonction :
Lamba LLRT

Et ajoutez cette couche à la fonction LLRT JS créée :
Lamba LLRT

Pour le test des nombres premiers, nous utiliserons le code suivant :

let isLambdaWarm = false
export async function handler(event)  {

    const limit = event.limit || 100000;  // Defina um limite alto para aumentar a complexidade
    const primes = [];
    const startTime = Date.now()
    const isPrime = (num) => {
        if (num <= 1) return false;
        if (num <= 3) return true;
        if (num % 2 === 0 || num % 3 === 0) return false;
        for (let i = 5; i * i <= num; i += 6) {
            if (num % i === 0 || num % (i + 2) === 0) return false;
        }
        return true;
    };

    for (let i = 2; i <= limit; i++) {
        if (isPrime(i)) {
            primes.push(i);
        }
    }

  const endTime = Date.now() - startTime

    const response = {
        statusCode: 200,
        body: JSON.stringify({
            executionTime: `${endTime} ms`,
            isLambdaWarm: `${isLambdaWarm}`
        }),
    };


    if (!isLambdaWarm) { 
        isLambdaWarm = true
    }

    return response;
};


Et pour les tests API, nous utiliserons le code ci-dessous :

let isLambdaWarm = false
export async function handler(event) {

  const url = event.url || 'https://jsonplaceholder.typicode.com/posts/1'
  console.log('starting fetch url', { url })
  const startTime = Date.now()

  let resp;
  try {
    const response = await fetch(url)
    const data = await response.json()
    const endTime = Date.now() - startTime
    resp = {
      statusCode: 200,
      body: JSON.stringify({
        executionTime: `${endTime} ms`,
        isLambdaWarm: `${isLambdaWarm}`
      }),
    }
  }
  catch (error) {
    resp = {
      statusCode: 500,
      body: JSON.stringify({
        message: 'Error fetching data',
        error: error.message,
      }),
    }
  }

  if (!isLambdaWarm) {
    isLambdaWarm = true
  }

  return resp;
};

Résultats des tests

L'objectif est ici plus pédagogique, notre échantillon pour chaque test est donc constitué de 15 données de démarrage à chaud et 1 donnée de démarrage à froid.

Consommation de mémoire

LLRT JS - pour les deux tests, la même quantité de mémoire a été consommée : 23 Mo.

NodeJS - pour le test des nombres premiers, nodejs a commencé à consommer 69 Mo et est passé à 106 Mo.
Pour le test API, le minimum était de 86 Mo et le maximum de 106 Mo.

Délai d'exécution
après avoir supprimé les valeurs aberrantes, voici le résultat :

Lamba LLRT

Lamba LLRT

Rapport final

Consommation de mémoire - pour la consommation de mémoire, il a été observé que LLRT utilisait mieux les ressources disponibles par rapport à nodejs.

Performances - nous avons remarqué que dans le scénario de traitement élevé, le nœud maintenait des performances beaucoup plus élevées que LLRT, à la fois en démarrage à froid et en démarrage à chaud.
Pour le scénario de traitement inférieur, LLRT présentait un certain avantage, notamment en démarrage à froid.

Attendons ensuite les résultats finaux et espérons que nous pourrons avoir des améliorations encore plus significatives, mais c'est formidable de voir la flexibilité de JS et de voir tout ce qu'il peut et doit encore nous apporter.


J'espère que cela vous a plu et vous a aidé à améliorer votre compréhension de quelque chose ou même à ouvrir la voie à de nouvelles connaissances. Je compte sur vous pour vos critiques et suggestions afin que nous puissions améliorer le contenu et le maintenir toujours à jour pour la communauté.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Article précédent:Nouveau framework front-end ?Article suivant:Nouveau framework front-end ?