So installieren Sie Hadoop unter Linux: 1. Installieren Sie den SSH-Dienst. 2. Melden Sie sich mit SSH ohne Passwortauthentifizierung an. 3. Entpacken Sie das Hadoop-Installationspaket Hadoop.
Die Betriebsumgebung dieses Artikels: Ubuntu 16.04-System, Hadoop-Version 2.7.1, Dell G3-Computer.
Wie installiere ich Hadoop unter Linux?
[Big Data] Detaillierte Erläuterung der Installation von Hadoop (2.7.1) und der Ausführung von WordCount unter Linux
1. Einführung
Nachdem ich die Umgebungskonfiguration von Storm abgeschlossen habe, möchte ich an der Installation von Hadoop herumbasteln und Es gibt viele Tutorials im Internet, aber keines davon ist besonders geeignet, sodass ich während des Installationsprozesses immer noch auf große Probleme gestoßen bin, nachdem ich die Informationen ständig überprüft habe. Kommen wir zum Punkt.
Die Konfigurationsumgebung dieser Maschine ist wie folgt:
Hadoop(2.7.1)
Ubuntu Linux (64-Bit-System)
Der Konfigurationsprozess wird im Folgenden in mehreren Schritten ausführlich erläutert.
2. Installieren Sie den SSH-Dienst
Geben Sie den Shell-Befehl ein und geben Sie den folgenden Befehl ein, um zu überprüfen, ob der SSH-Dienst installiert wurde:
sudo apt- get install ssh openssh- server
sudo apt-get install ssh openssh-server
安装过程还是比较轻松加愉快的。
三、使用ssh进行无密码验证登录
1.创建ssh-key,这里我们采用rsa方式,使用如下命令:
ssh-keygen -t rsa -P ""
2.出现一个图形,出现的图形就是密码,不用管它
cat ~/.ssh/id_rsa.pub >> authorized_keys(好像是可以省略的)
3.然后即可无密码验证登录了,如下:
ssh localhost
成功截图如下:
四、下载Hadoop安装包
下载Hadoop安装也有两种方式
1.直接上官网进行下载,http://mirrors.hust.edu.cn/apache/hadoop/core/stable/hadoop-2.7.1.tar.gz
2.使用shell进行下载,命令如下:
wget http://mirrors.hust.edu.cn/apache/hadoop/core/stable/hadoop-2.7.1.tar.gz
貌似第二种的方法要快点,经过漫长的等待,终于下载完成。
五、解压缩Hadoop安装包
使用如下命令解压缩Hadoop安装包
tar -zxvf hadoop-2.7.1.tar.gz
解压缩完成后出现hadoop2.7.1的文件夹
六、配置Hadoop中相应的文件
需要配置的文件如下,hadoop-env.sh,core-site.xml,mapred-site.xml.template,hdfs-site.xml,所有的文件均位于hadoop2.7.1/etc/hadoop下面,具体需要的配置如下:
1.core-site.xml 配置如下:
<configuration> <property> <name>hadoop.tmp.dir</name> <value>file:/home/leesf/program/hadoop/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
其中的hadoop.tmp.dir的路径可以根据自己的习惯进行设置。
2.mapred-site.xml.template配置如下:
<configuration> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> </configuration>
3.hdfs-site.xml配置如下:
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/leesf/program/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/leesf/program/hadoop/tmp/dfs/data</value> </property> </configuration>
其中dfs.namenode.name.dir和dfs.datanode.data.dir的路径可以自由设置,最好在hadoop.tmp.dir的目录下面。
补充,如果运行Hadoop的时候发现找不到jdk,可以直接将jdk的路径放置在hadoop.env.sh里面,具体如下:
export JAVA_HOME="/home/leesf/program/java/jdk1.8.0_60"
七、运行Hadoop
在配置完成后,运行hadoop。
1.初始化HDFS系统
在hadop2.7.1目录下使用如下命令:
bin/hdfs namenode -format
截图如下:
过程需要进行ssh验证,之前已经登录了,所以初始化过程之间键入y即可。
成功的截图如下:
表示已经初始化完成。
2.开启NameNode
和DataNode
守护进程
使用如下命令开启:
sbin/start-dfs.sh,成功的截图如下:
1. Erstellen Sie einen SSH-Schlüssel, hier verwenden wir die RSA-Methode, verwenden Sie den folgenden Befehl:
ssh-keygen -t rsa -P ""
2. Es erscheint eine Grafik, die das Passwort darstellt
cat ~/.ssh/id_rsa.pub >>
3. Anschließend können Sie sich wie folgt ohne Passwortbestätigung anmelden: 🎜🎜 ssh localhost
🎜🎜 Der erfolgreiche Screenshot sieht wie folgt aus: 🎜🎜 
wget http://mirrors .hust.edu.cn/apache/hadoop/core/stable/hadoop-2.7.1.tar.gz
🎜🎜 Es scheint dass die zweite Methode schneller ist. Nach langem Warten ist der Download endlich abgeschlossen. 🎜🎜🎜 5. Dekomprimieren Sie das Hadoop-Installationspaket 🎜🎜🎜 Verwenden Sie den folgenden Befehl, um das Hadoop-Installationspaket zu dekomprimieren 🎜🎜 tar -zxvf hadoop-2.7.1.tar.gz 🎜🎜 Nach Abschluss der Dekomprimierung wird der Ordner hadoop2.7.1 angezeigt wird angezeigt 🎜🎜 🎜6. Konfigurieren Sie die entsprechenden Dateien in Hadoop🎜🎜🎜 Die Dateien, die konfiguriert werden müssen, sind wie folgt: hadoop-env.sh, core-site.xml, mapred-site.xml.template, hdfs-site .xml, alle Dateien befinden sich in hadoop2 .7.1/etc/hadoop, die spezifische erforderliche Konfiguration ist wie folgt: 🎜🎜 1.core-site.xml-Konfiguration ist wie folgt: 🎜rrreee🎜 Der Pfad von hadoop.tmp.dir kann nach Ihren eigenen Gewohnheiten eingestellt werden. 🎜🎜 2.mapred-site.xml.template ist wie folgt konfiguriert: 🎜rrreee🎜 3.hdfs-site.xml ist wie folgt konfiguriert: 🎜rrreee🎜 Die Pfade von dfs.namenode.name.dir und dfs.datanode.data .dir kann kostenlos eingestellt werden, vorzugsweise im Verzeichnis hadoop.tmp.dir. 🎜🎜 Wenn Sie außerdem feststellen, dass JDK beim Ausführen von Hadoop nicht gefunden werden kann, können Sie den Pfad von JDK wie folgt direkt in hadoop.env.sh einfügen: 🎜🎜 Export JAVA_HOME="/home/leesf/program/java/ jdk1. 8.0_60"🎜🎜🎜7. Führen Sie Hadoop aus🎜🎜🎜Nachdem die Konfiguration abgeschlossen ist, führen Sie Hadoop aus. 1. Initialisieren Sie das HDFS-System /000/000/ 020/7806f74f8f62cfb2f585c032aa4ffa02-1.png" alt=""/> 🎜🎜 Der Vorgang erfordert eine SSH-Überprüfung. Sie haben sich bereits zuvor angemeldet, also geben Sie zwischen dem Initialisierungsprozess einfach y ein. 🎜🎜 Der erfolgreiche Screenshot sieht wie folgt aus:🎜🎜 
NameNode
und DataNode
🎜🎜 Verwenden Sie zum Starten den folgenden Befehl: 🎜🎜 sbin/start-dfs.sh, der erfolgreiche Screenshot ist wie folgt: 🎜🎜 🎜🎜🎜 3. Prozessinformationen anzeigen🎜🎜 Verwenden Sie den folgenden Befehl, um Prozessinformationen anzuzeigen🎜🎜 jps, der Screenshot sieht wie folgt aus:🎜🎜 Das bedeutet, dass sowohl DataNode als auch NameNode vorhanden sind begonnen🎜<p> 4. Sehen Sie sich die Web-Benutzeroberfläche an</p>
<p> Geben Sie http://localhost:50070 in den Browser ein, um relevante Informationen anzuzeigen. Der Screenshot sieht wie folgt aus: </p>
<p><img src="/static/imghwm/default1.png" data-src="https://img.php.cn/upload/article/000/000/020/bfb5bc22f461fcb2beb87197aa100a4e-5.png?x-oss-process=image/resize,p_40" class="lazy" alt=""></p>
<p> Zu diesem Zeitpunkt wurde die Hadoop-Umgebung eingerichtet. Beginnen wir mit der Verwendung von Hadoop, um ein WordCount-Beispiel auszuführen. </p>
<p><strong> 8. Führen Sie die WordCount-Demo aus</strong></p>
<p> 1. Erstellen Sie lokal eine neue Word-Datei im Verzeichnis home/leesf. Sie können den Inhalt nach Belieben ergänzen. </p>
<p> 2. Erstellen Sie einen neuen Ordner in HDFS zum Hochladen lokaler Word-Dokumente. Geben Sie den folgenden Befehl in das Verzeichnis hadoop2.7.1 ein: </p>
<p> bin/hdfs dfs -mkdir /test, was bedeutet, dass er im Stammverzeichnis von hdfs A erstellt wird Testverzeichnis</p>
<p> Verwenden Sie den folgenden Befehl, um die Verzeichnisstruktur unter dem HDFS-Stammverzeichnis anzuzeigen</p>
<p> bin/hdfs dfs -ls /</p>
<p> Der spezifische Screenshot lautet wie folgt:</p>
<p> <img src="/static/imghwm/default1.png" data-src="https://img.php.cn/upload/article/000/000/020/2d6b7ed9c222079a563098cea81e4d89-6.png?x-oss-process=image/resize,p_40" class="lazy" alt=""></p>
<p> Es bedeutet, dass ein Testverzeichnis erstellt wurde im Stammverzeichnis von HDFS </p>
<p> 3. Laden Sie das lokale Word-Dokument in das Testverzeichnis hoch</p>
<p> Verwenden Sie zum Hochladen den folgenden Befehl: </p>
<p> bin/hdfs dfs -put /home/leesf/words /test/</p>
<p> Ich in in in in forth in den folgenden Worten: dfs -put /home/leesf/words /test/</p>
<p> hdfs dfs -ls /test/</p>
<p> Der Screenshot des Ergebnisses ist wie folgt: </p>
<p> <img src="/static/imghwm/default1.png" data-src="https://img.php.cn/upload/article/000/000/020/2d6b7ed9c222079a563098cea81e4d89-7.png?x-oss-process=image/resize,p_40" class="lazy" alt=""></p>
<p> Das bedeutet, dass Das lokale Word-Dokument wurde in das Testverzeichnis hochgeladen. </p>
<p> 4. Wordcount ausführen</p>
<p> Verwenden Sie den folgenden Befehl, um Wordcount auszuführen:</p>
<p> bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar wordcount /test/words /test/out</p>
<p> Der Screenshot sieht wie folgt aus: </p>
<p> <img src="/static/imghwm/default1.png" data-src="https://img.php.cn/upload/article/000/000/020/2d6b7ed9c222079a563098cea81e4d89-8.png?x-oss-process=image/resize,p_40" class="lazy" alt=""></p>
<p> Nachdem der Vorgang abgeschlossen ist, wird eine Datei mit dem Namen „out“ im Verzeichnis „/test“ generiert. Verwenden Sie den folgenden Befehl, um die Dateien im Verzeichnis „/test“ anzuzeigen: „bin/hdfs dfs“ ls /test</p>
<p> Der Screenshot sieht wie folgt aus: </p>
<p> </p> <p><img src="/static/imghwm/default1.png" data-src="https://img.php.cn/upload/article/000/000/020/9e4e133c94861b62bd546dbeb0c3b6b4-9.png?x-oss-process=image/resize,p_40" class="lazy" alt=""> Zeigt an, dass im Testverzeichnis bereits ein Dateiverzeichnis mit dem Namen „Out“ vorhanden ist dfs dfs -ls /test/out, der Ergebnis-Screenshot lautet wie folgt: </p>
<p> </p>
<p> </p> Zeigt an, dass es erfolgreich ausgeführt wurde und das Ergebnis in part-r-00000 gespeichert wird. <p></p> 5. Überprüfen Sie die laufenden Ergebnisse <p><img src="/static/imghwm/default1.png" data-src="https://img.php.cn/upload/article/000/000/020/9e4e133c94861b62bd546dbeb0c3b6b4-10.png?x-oss-process=image/resize,p_40" class="lazy" alt=""> An diesem Punkt ist der laufende Prozess abgeschlossen. </p>
<p></p>9. Zusammenfassung<p></p>
<p> Während des Hadoop-Konfigurationsprozesses sind die Befehle von hadoop1.x und 2.x immer noch sehr unterschiedlich Erfolgreich, ich möchte meine Erfahrungen mit dieser Konfiguration teilen, um die Hadoop-Umgebung zu vereinfachen. Wenn Sie während des Konfigurationsprozesses Fragen haben, können Sie diese gerne besprechen zum Anschauen~</p>
<p> Empfohlene Studie: „</p>Linux-Video-Tutorial<p>“</p>
Das obige ist der detaillierte Inhalt vonSo installieren Sie Hadoop unter Linux. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Das Timing und die Gründe für die Verwendung des Linux -Wartungsmodus: 1) Wenn das System startet, 2) bei der Durchführung großer Systemaktualisierungen oder -Upgrades, 3) bei der Durchführung von Dateisystemwartungen. Der Wartungsmodus bietet eine sichere und kontrollierte Umgebung, die die Sicherheit und Effizienz der betrieblichen Sicherheit gewährleistet, die Auswirkungen auf Benutzer verringert und die Systemsicherheit verbessert.

Unentbehrliche Befehle in Linux gehören: 1.LS: Listenverzeichnisinhalt; 2.CD: Arbeitsverzeichnis ändern; 3.MKDIR: Erstellen Sie ein neues Verzeichnis; 4.RM: Datei oder Verzeichnis löschen; 5.CP: Datei oder Verzeichnis kopieren; 6.MV: Datei oder Verzeichnis verschieben oder umbenennen. Diese Befehle helfen Benutzern, Dateien und Systeme effizient zu verwalten, indem sie mit dem Kernel interagieren.

In Linux verwendet die Datei- und Verzeichnisverwaltung LS-, CD-, MKDIR-, RM-, CP-, MV -Befehle und Berechtigungsverwaltung. 1. Datei- und Verzeichnisverwaltungsbefehle wie LS-L-Liste detaillierte Informationen, MKDIR-P erstellen rekursiv Verzeichnisse. 2. Befehle für Berechtigungsverwaltungen wie CHMOD755File -Dateiberechtigungen, CHOWNUSERFILE -Änderungen Dateibesitzer und CHGRPGroupFile -Änderungsdateigruppe. Diese Befehle basieren auf der Dateisystemstruktur sowie auf Benutzer- und Gruppensystemen sowie über Systemaufrufe und Metadaten.

MaintenancemodeInLinuxisaspecialBootenvironmentforcriticalSystemMaintenancetaSs.itAllowsAdministratorStoperformTasksSetPasswords, Reparaturfilmsysteme, andRecoveringingFrombootFailuresinimalenvironment.ToentermineCentontenanceMode, InterrupttheBoBoBoBoBoBoBoBoBeBowooSystem

Zu den Kernkomponenten von Linux gehören Kernel, Dateisystem, Shell, Benutzer- und Kernelraum, Gerätetreiber sowie Leistungsoptimierung sowie Best Practices. 1) Der Kernel ist der Kern des Systems und verwaltet Hardware, Speicher und Prozesse. 2) Das Dateisystem organisiert Daten und unterstützt mehrere Typen wie Ext4, BTRFS und XFS. 3) Shell ist das Kommandozentrum, in dem Benutzer mit dem System interagieren und das Skript unterstützt. 4) Separate Benutzerraum vom Kernelraum, um die Systemstabilität zu gewährleisten. 5) Der Gerätetreiber verbindet die Hardware mit dem Betriebssystem. 6) Die Leistungsoptimierung umfasst die Konfiguration des Tuning -Systems und die folgenden Best Practices.

Die fünf grundlegenden Komponenten des Linux -Systems sind: 1. Kernel, 2. Systembibliothek, 3. System Utilities, 4. Grafische Benutzeroberfläche, 5. Anwendungen. Der Kernel verwaltet Hardware -Ressourcen, die Systembibliothek bietet vorkompilierte Funktionen, Systemversorgungsunternehmen werden für die Systemverwaltung verwendet, die GUI bietet visuelle Interaktion und Anwendungen verwenden diese Komponenten, um Funktionen zu implementieren.

Der Linux -Wartungsmodus kann über das Grub -Menü eingegeben werden. Die spezifischen Schritte sind: 1) Wählen Sie den Kernel im GRUB -Menü aus und drücken Sie 'e', um zu bearbeiten, 2) hinzu 'Single' oder '1' am Ende der "Linux" -Zeile 3) Drücken Sie Strg X, um zu starten. Der Wartungsmodus bietet eine sichere Umgebung für Aufgaben wie Systemreparaturen, Kennwortreset und System -Upgrade.

Die Schritte zur Eingabe des Linux -Wiederherstellungsmodus sind: 1. Starten Sie das System neu und drücken Sie die spezifische Taste, um das Grub -Menü einzugeben. 2. Wählen Sie die Option mit (RecoveryMode) aus; 3. Wählen Sie den Vorgang im Menü Wiederherstellungsmodus wie FSCK oder Root aus. Mit dem Wiederherstellungsmodus können Sie das System im Einzelbenutzermodus starten, Dateisystemprüfungen und -reparaturen durchführen, Konfigurationsdateien bearbeiten und andere Vorgänge zur Lösung von Systemproblemen unterstützen.


Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

ZendStudio 13.5.1 Mac
Leistungsstarke integrierte PHP-Entwicklungsumgebung

SublimeText3 Englische Version
Empfohlen: Win-Version, unterstützt Code-Eingabeaufforderungen!

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SAP NetWeaver Server-Adapter für Eclipse
Integrieren Sie Eclipse mit dem SAP NetWeaver-Anwendungsserver.

WebStorm-Mac-Version
Nützliche JavaScript-Entwicklungstools
