Heim  >  Artikel  >  Worauf hbase angewiesen ist, um zugrunde liegende Daten zu speichern

Worauf hbase angewiesen ist, um zugrunde liegende Daten zu speichern

青灯夜游
青灯夜游Original
2020-11-17 11:28:5414859Durchsuche

hbase verlässt sich auf „HDFS“, um zugrunde liegende Daten zu speichern. HBase verwendet Hadoop HDFS als Dateispeichersystem, um HBase eine hochzuverlässige zugrunde liegende Speicherunterstützung zu bieten. HDFS verfügt über eine hohe Fehlertoleranz und ist für den Einsatz auf kostengünstiger Hardware konzipiert.

Worauf hbase angewiesen ist, um zugrunde liegende Daten zu speichern

HBase – Hadoop Database ist ein äußerst zuverlässiges, leistungsstarkes, spaltenorientiertes, skalierbares verteiltes Speichersystem, das die HBase-Technologie nutzt, um große strukturierte Speichercluster auf günstigen PC-Servern aufzubauen.

hbase verlässt sich auf „HDFS“, um zugrunde liegende Daten zu speichern.

HBase ist eine Open-Source-Implementierung von Google Bigtable, das GFS als Dateispeichersystem verwendet. HBase verwendet Hadoop HDFS als Dateispeichersystem. Google führt MapReduce aus, um große Datenmengen in Bigtable zu verarbeiten HBase verwendet auch Hadoop MapReduce, um große Datenmengen in HBase zu verarbeiten. Als kollaborativen Dienst nutzt HBase auch Zookeeper.

Worauf hbase angewiesen ist, um zugrunde liegende Daten zu speichern

Das obige Bild beschreibt jede Schicht des Systems im Hadoop EcoSystem. Darunter befindet sich HBase in der strukturierten Speicherschicht, Hadoop HDFS bietet hochzuverlässige zugrunde liegende Speicherunterstützung für HBase, Hadoop MapReduce bietet leistungsstarke Rechenfunktionen für HBase und Zookeeper bietet stabile Dienste und Failover-Mechanismen für HBase.

HDFS

Hadoop Distributed File System (HDFS) bezieht sich auf ein verteiltes Dateisystem (Distributed File System), das für die Ausführung auf Allzweckhardware (Commodity-Hardware) konzipiert ist. Es hat viele Gemeinsamkeiten mit bestehenden verteilten Dateisystemen. Gleichzeitig ist aber auch der Unterschied zu anderen verteilten Dateisystemen offensichtlich. HDFS ist ein äußerst fehlertolerantes System, das für den Einsatz auf kostengünstigen Maschinen geeignet ist. HDFS kann einen Datenzugriff mit hohem Durchsatz ermöglichen und eignet sich sehr gut für Anwendungen mit großen Datensätzen. HDFS lockert einige POSIX-Einschränkungen, um den Zweck des Streamings von Dateisystemdaten zu erreichen. HDFS wurde ursprünglich als Infrastruktur für das Suchmaschinenprojekt Apache Nutch entwickelt. HDFS ist Teil des Apache Hadoop Core-Projekts.

HDFS zeichnet sich durch hohe Fehlertoleranz aus und ist für den Einsatz auf kostengünstiger Hardware konzipiert. Und es bietet einen hohen Durchsatz für den Zugriff auf Anwendungsdaten, geeignet für Anwendungen mit großen Datenmengen. HDFS lockert die POSIX-Anforderungen, sodass ein Streaming-Zugriff auf Daten im Dateisystem erreicht werden kann.

HDFS verwendet ein Master/Slave-Strukturmodell. Ein HDFS-Cluster besteht aus einem NameNode und mehreren DataNodes. Der NameNode dient als Hauptserver und verwaltet den Namensraum des Dateisystems, während der DataNode im Cluster die gespeicherten Daten verwaltet.

Das obige ist der detaillierte Inhalt vonWorauf hbase angewiesen ist, um zugrunde liegende Daten zu speichern. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn