hbase verlässt sich auf „HDFS“, um zugrunde liegende Daten zu speichern. HBase verwendet Hadoop HDFS als Dateispeichersystem, um HBase eine hochzuverlässige zugrunde liegende Speicherunterstützung zu bieten. HDFS verfügt über eine hohe Fehlertoleranz und ist für den Einsatz auf kostengünstiger Hardware konzipiert.
HBase – Hadoop Database ist ein äußerst zuverlässiges, leistungsstarkes, spaltenorientiertes, skalierbares verteiltes Speichersystem, das die HBase-Technologie nutzt, um große strukturierte Speichercluster auf günstigen PC-Servern aufzubauen.
hbase verlässt sich auf „HDFS“, um zugrunde liegende Daten zu speichern.
HBase ist eine Open-Source-Implementierung von Google Bigtable, das GFS als Dateispeichersystem verwendet. HBase verwendet Hadoop HDFS als Dateispeichersystem. Google führt MapReduce aus, um große Datenmengen in Bigtable zu verarbeiten HBase verwendet auch Hadoop MapReduce, um große Datenmengen in HBase zu verarbeiten. Als kollaborativen Dienst nutzt HBase auch Zookeeper.
Das obige Bild beschreibt jede Schicht des Systems im Hadoop EcoSystem. Darunter befindet sich HBase in der strukturierten Speicherschicht, Hadoop HDFS bietet hochzuverlässige zugrunde liegende Speicherunterstützung für HBase, Hadoop MapReduce bietet leistungsstarke Rechenfunktionen für HBase und Zookeeper bietet stabile Dienste und Failover-Mechanismen für HBase.HDFS
Hadoop Distributed File System (HDFS) bezieht sich auf ein verteiltes Dateisystem (Distributed File System), das für die Ausführung auf Allzweckhardware (Commodity-Hardware) konzipiert ist. Es hat viele Gemeinsamkeiten mit bestehenden verteilten Dateisystemen. Gleichzeitig ist aber auch der Unterschied zu anderen verteilten Dateisystemen offensichtlich. HDFS ist ein äußerst fehlertolerantes System, das für den Einsatz auf kostengünstigen Maschinen geeignet ist. HDFS kann einen Datenzugriff mit hohem Durchsatz ermöglichen und eignet sich sehr gut für Anwendungen mit großen Datensätzen. HDFS lockert einige POSIX-Einschränkungen, um den Zweck des Streamings von Dateisystemdaten zu erreichen. HDFS wurde ursprünglich als Infrastruktur für das Suchmaschinenprojekt Apache Nutch entwickelt. HDFS ist Teil des Apache Hadoop Core-Projekts.
HDFS zeichnet sich durch hohe Fehlertoleranz aus und ist für den Einsatz auf kostengünstiger Hardware konzipiert. Und es bietet einen hohen Durchsatz für den Zugriff auf Anwendungsdaten, geeignet für Anwendungen mit großen Datenmengen. HDFS lockert die POSIX-Anforderungen, sodass ein Streaming-Zugriff auf Daten im Dateisystem erreicht werden kann. HDFS verwendet ein Master/Slave-Strukturmodell. Ein HDFS-Cluster besteht aus einem NameNode und mehreren DataNodes. Der NameNode dient als Hauptserver und verwaltet den Namensraum des Dateisystems, während der DataNode im Cluster die gespeicherten Daten verwaltet.Das obige ist der detaillierte Inhalt vonWorauf hbase angewiesen ist, um zugrunde liegende Daten zu speichern. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!