Maison >Java >javaDidacticiel >Pourquoi Hadoop utilise-t-il Java ?
Le fondateur de Hadoop est Doug Cutting, le fondateur de Lucene. Doug Cutting a développé Lucene en 2000, soit seulement 5 ans après le lancement officiel du langage Java (1995). Vous pouvez imaginer à quel point le langage Java était nouveau. cette fois-là. Et cool !
Selon l'auto-évaluation de Doug Cutting, son objectif principal en développant des logiciels à cette époque était de gagner de l'argent pour subvenir aux besoins de sa famille. À cette époque, les nombreuses nouvelles fonctionnalités de Java gagnaient naturellement la faveur des jeunes ingénieurs.
Doug Cutting est également le fondateur de la célèbre bibliothèque de moteurs de recherche basée sur Java Apache Lucene. Hadoop était à l'origine utilisé pour le célèbre moteur de recherche open source Apache Nutch, et Nutch lui-même est basé sur Lucene et est également un sous-projet de Lucene. Il est donc naturel que Hadoop soit basé sur Java, donc Hadoop est écrit en Java.
Hadoop est écrit en Java, donc Hadoop prend naturellement en charge les tâches d'écriture du langage Java. Cependant, dans les applications réelles, parfois, en raison de l'utilisation de bibliothèques tierces non Java ou pour d'autres raisons, C/C++ ou autre. Langage pour écrire des tâches MapReduce. À ce stade, vous devrez peut-être utiliser certains outils fournis par Hadoop.
Si vous souhaitez écrire des tâches MpaReduce en C/C++, les outils que vous pouvez utiliser incluent Hadoop Streaming ou Hadoop Pipes.
Si vous souhaitez écrire des tâches MapReduce en Python, vous pouvez utiliser Hadoop Streaming ou Pydoop.
Si vous souhaitez utiliser d'autres langages, tels que shell, php, ruby, etc., vous pouvez utiliser Hadoop Streaming.
Développeurs JVM/JDK demandant de l'aide
Nous recommandons fortement à toute personne disposant d'un test JVM/JDK de production de compiler et d'exécuter Hadoop.
Cela constitue un test de performance et de stress fantastique. Alors que Hadoop devient une application back-end critique pour les centres de données, une bonne prise en charge de Hadoop est importante.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!