Heim > Artikel > Betrieb und Instandhaltung > Was ist Apache Hadoop?
Apache Hadoop ist ein Framework zum Ausführen von Anwendungen auf großen Clustern, die auf Allzweck-Hardware basieren. Es implementiert das Map/Reduce-Programmierparadigma, bei dem Rechenaufgaben in kleine Blöcke (mehrmals) aufgeteilt und auf verschiedenen Knoten ausgeführt werden. Darüber hinaus bietet es auch ein verteiltes Dateisystem (HDFS), in dem Daten auf Rechenknoten gespeichert werden, um eine extrem hohe aggregierte Bandbreite über mehrere Rechenzentren hinweg bereitzustellen.
Einführung in das Apache Hadoop-Framework
Viele Anbieter, die Apache Hadoop Big Data-Geschäfte anbieten, wetteifern definitiv um Geschäfte mit Unternehmen . Schließlich handelt es sich bei großen Apache-Hadoop-Daten nicht um die kleinste Datensammlung, aber Apache-Hadoop-Big-Data muss möglichst viele Vorteile der Datenverwaltung nutzen. Wenn Sie nach einer Definition für die Bereitstellung von Apache Hadoop für Big Data suchen, ist dies nicht die vollständige Definition von Apache Hadoop. Sie benötigen eine wachsende Apache-Hadoop-Rechenzentrumsinfrastruktur, um all diesen wachsenden Daten gerecht zu werden.
Dieser Big-Data-Boom begann wirklich mit dem verteilten Dateisystem Apache Hadoop und läutete die Ära der massiven Apache Hadoop-Datenanalyse ein, die auf einer kostengünstigen Skalierung von Servern mithilfe relativ kostengünstiger lokaler Festplattencluster basiert. Unabhängig davon, wie schnell sich das Unternehmen entwickelt, kann Apache Hadoop und Apache Hadoop-bezogene Big-Data-Lösungen eine kontinuierliche Analyse verschiedener Rohdaten gewährleisten.
Das Problem besteht darin, dass Sie, sobald Sie mit Apache Hadoop Big Data beginnen möchten, feststellen werden, dass traditionelle Apache Hadoop-Datenprojekte, einschließlich der bekannten Probleme bei der Unternehmensdatenverwaltung, wieder auftauchen, wie beispielsweise die Sicherheit von Apache Hadoop Daten. Zuverlässigkeit, Leistung und wie man Daten schützt.
Obwohl Apache Hadoop HDFS ausgereift ist, gibt es immer noch viele Lücken, um den Unternehmensanforderungen gerecht zu werden. Wenn es um die Produktproduktionsdatenerfassung für Apache Hadoop Big Data geht, stellt sich heraus, dass die Produkte auf diesen Speicherclustern möglicherweise nicht die Abrechnung mit den niedrigsten Kosten bieten.
Der kritischste Punkt hierbei ist tatsächlich, wie große Unternehmen Apache Hadoop Big Data wiederbeleben. Natürlich möchten wir nicht einfach Apache Hadoop Big Data-Kopien kopieren, verschieben und sichern. Das Kopieren von Apache Hadoop Big Data ist eine große Aufgabe. Wir müssen Apache Hadoop-Datenbanken mit noch höheren Anforderungen an Sicherheit und Umsicht verwalten. Behalten Sie also nicht so viele Apache Hadoop-Details bei, die kleiner sind als die kleinen. Wenn wir unsere kritischen Geschäftsprozesse auf dem neuen Apache Hadoop Big Data Store aufbauen würden, bräuchten wir dessen gesamte betriebliche Ausfallsicherheit und hohe Leistung.
Weitere Informationen zu Apache finden Sie in der Spalte Apache-Verwendungsanleitung!
Das obige ist der detaillierte Inhalt vonWas ist Apache Hadoop?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!