Maison >Opération et maintenance >Apache >Que signifie l'obtention du diplôme de la Fondation Apache ?
Depuis sa création en 1999, l'Apache Software Foundation a réussi à établir son propre écosystème solide. De nombreux excellents projets open source ont émergé dans sa communauté, et de plus en plus de projets nationaux et étrangers viennent dans cette communauté open source internationale pour incubation.
Il est rapporté que tous les projets Apache doivent actuellement être incubés par des incubateurs et répondre à une série d'exigences de qualité avant de pouvoir obtenir leur diplôme. Les projets diplômés de l'incubateur deviendront soit des projets de haut niveau de manière indépendante, soit des sous-projets d'autres projets de haut niveau. (Apprentissage recommandé : utilisation d'Apache)
La Apache Software Foundation a annoncé que Apache Pulsar a obtenu son diplôme d'incubation et est devenu un nouveau projet de haut niveau de la fondation.
Pulsar est une plate-forme distribuée de publication/abonnement de messages conçue pour l'évolutivité et la flexibilité et garantissant l'absence de perte de données. Le projet a été open source par Yahoo en 2015 et soumis à l'Apache Incubator en juin 2017.
L'objectif initial de Pulsar était de créer un système de messagerie évolutif multi-tenant, et en tant que telle, son architecture unique qui sépare la zone de service et la couche de stockage s'est avérée être un avantage clé. Cette architecture à deux niveaux permet à Pulsar de fournir une approche extrêmement simplifiée des opérations de cluster, permettant aux opérateurs de faire évoluer facilement le cluster et de remplacer les nœuds défaillants, ou de fournir une plus grande disponibilité en écriture et en lecture.
L'Apache Software Foundation a annoncé que Apache Airflow a obtenu son diplôme d'incubation et est devenu un nouveau projet de haut niveau de la Fondation.
Apache Airflow est un système d'automatisation et de planification de flux de travail flexible et évolutif qui peut orchestrer et gérer des centaines de pétaoctets de flux de données. Les projets peuvent facilement orchestrer des flux de travail informatiques complexes, et grâce à une planification intelligente, une gestion des bases de données et des dépendances, une gestion des erreurs et une journalisation, Airflow peut automatiser la gestion des ressources depuis des serveurs uniques jusqu'aux clusters à grande échelle.
Le projet est écrit en Python et est hautement évolutif, capable d'exécuter des tâches écrites dans d'autres langages et permet l'intégration avec des architectures et des projets couramment utilisés, tels qu'AWS S3, Docker, Kubernetes, MySQL, Postgres, etc. .
Apache Airflow a été lancé par Airbnb en 2014 et soumis à Apache pour incubation en mars 2016.
Il semblerait qu'Apache Airflow soit actuellement utilisé par plus de 200 organisations, dont Adobe, Airbnb, Astronomer, Etsy, Google, ING, Lyft, NYC City Planning, Paypal, Polidea, Qubole, Quizlet, Reddit, Répondre, Solita, Square, Twitter, etc.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!