이 안내서는 데비안 시스템에서 Hadoop 개발 환경을 구축하는 방법에 대해 자세히 설명합니다.
1. Java Development Kit (JDK) 설치
먼저 OpenJDK를 설치하십시오.
Sudo 적절한 업데이트 sudo apt install install openjdk-11-jdk -y
Java_home 환경 변수 구성 :
Sudo nano /etc /환경
파일 끝에서 추가합니다 (실제 JDK 버전에 따라 경로 조정) :
<code>JAVA_HOME="/usr/lib/jvm/java-11-openjdk-amd64"</code>
저장하고 종료 한 다음 실행합니다.
소스 /etc /환경
설치 확인 :
자바 -버전
2. Hadoop을 설치하십시오
Hadoop 3.3.6 (또는 기타 버전) 다운로드 :
wget https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-3.3.6/hadoop-3.3.6-src.tar.gz
다운로드 무결성 확인 :
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.6/hadoop-3.3.6-src.tar.gz.sha512 SHA256SUM -C HADOOP-3.3.6-Src.tar.gz.sha512
디렉토리를 만들고 압축을 풀기 :
Sudo mkdir /opt /hadoops sudo tar -xzvf hadoop-3.3.6-src.tar.gz -c /opt /hadoops --- 스트립 컴포넌트 1
3. Hadoop 환경 변수를 구성합니다
/etc/profile
파일 편집 및 추가 :
Hadoop_home = "/opt/hadoops/hadoop-3.3.6"내보내기 내보내기 경로 = $ 경로 : $ hadoop_home/bin : $ hadoop_home/sbin
환경 변수 새로 고침 :
소스 /etc /프로필
4. Hadoop Core 구성 파일을 구성합니다
core-site.xml
편집 :
sudo nano $ hadoop_home/etc/hadoop/core-site.xml
추가 :
<configuration> <property> <name>fs.defaultfs</name> <value>hdfs : // localhost : 9000</value> </property> </configuration>
hdfs-site.xml
편집 :
sudo nano $ hadoop_home/etc/hadoop/hdfs-site.xml
추가 :
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/opt/hadoops/hdfs/namenode</value> </property> </configuration>
mapred-site.xml
편집 :
sudo nano $ hadoop_home/etc/hadoop/mapred-site.xml
추가 :
<configuration> <property> <name>mapreduce.framework.name</name> <value>방사</value> </property> </configuration>
yarn-site.xml
편집 :
sudo nano $ hadoop_home/etc/hadoop/yarn-site.xml
추가 :
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuff</value> </property> </configuration>
5. 비밀번호 로그인없이 SSH를 설정합니다
SSH 키 생성 :
Sudo Su -Hadoop ssh -keygen -t rsa -p "" "
공개 키 복사 :
cat ~/.ssh/id_rsa.pub >> ~/.ssh/alopporized_keys
테스트 연결 :
SSH Localhost
6. 형식 나메 노드
HDFS NAMENODE -FORMAT
7. Hadoop 서비스를 시작하십시오
start-dfs.sh start-yarn.sh
8. Hadoop 설치를 확인하십시오
클러스터 상태 확인 :
HDFS DFSADMIN-보고
Namenode 웹 인터페이스 : http://localhost:9870
방문하십시오
위의 단계를 완료 한 후 Debian 시스템의 Hadoop 개발 환경이 완료되었습니다. 실제 상황에 따라 경로와 Hadoop 버전을 조정하십시오.
위 내용은 데비안에서 하프 개발 환경을 구축하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

이 기사에서는 데비안 시스템에서 Tomcat 서버의 로그 레벨을 조정하는 방법에 대해 설명합니다. Tomcat의 로깅 구성 파일 로깅.이를 구현하려면 수정해야합니다. 단계 : 구성 파일 열기 : 텍스트 편집기 (예 : Nano 또는 VIM)를 사용하여 Tomcat의 로그 구성 파일을 엽니 다. 이 파일은 일반적으로 /opt/tomcat/conf/logging.properties에 있습니다. Sudo 권한으로 명령을 실행하십시오 (예 : Sudonano/Opt/Tomcat/conf/logging).

Debian 시스템에서 Apache Server 로그 파일의 기본 저장 위치 : 액세스 로그 : 일반적으로 /var/log/apache2/access.log에 있습니다. 오류 로그 : 일반적으로 /var/log/apache2/error.log에 있습니다. 위의 경로는 Apache의 기본 구성입니다. Apache Configuration file /etc/apache2/apache2.conf 또는 관련 환경 변수를 수정하여 로그 파일의 스토리지 위치를 변경할 수 있습니다.

이 기사는 Tomcat 로그 예외를 모니터링하는 몇 가지 방법을 소개하여 적시에 문제를 발견하고 해결하고 응용 프로그램의 안정적인 작동을 보장하는 데 도움이됩니다. 1. 엘크 스택을 사용하여 중앙 집중식 모니터링을 달성합니다. 효율적인 로그 모니터링을 위해 ELK (Elasticsearch, Logstash, Kibana) 스택을 사용하는 것이 좋습니다. 데이터 획득 (FileBeat) : Tomcat 로그 파일 (예 : Catalina.out)에서 경고 (WARN) 및 오류 (오류) 레벨을 수집하도록 FileBeat를 구성하십시오. Logstash : Logstash Preprocesses는 필터링, 구문 분석 및 변환과 같은 로그를 수집했습니다. 데이터 저장

이 기사는 데비안 시스템에서 디스크 공간을 확보하는 몇 가지 효과적인 방법을 소개합니다. 작업을 수행하기 전에 중요한 데이터를 백업하십시오. 1. 볼륨 관리 : 디스크 사용 확인 : VG 및 PVS 명령을 사용하여 볼륨 그룹 및 물리적 볼륨의 사용법을 확인하십시오. 쓸모없는 논리적 볼륨 삭제 : lvremove 명령을 사용하여 더 이상 필요하지 않은 논리적 볼륨을 삭제하십시오. 예를 들어 Sudolvremove/dev/mapper/debianoa-vg-lv_data (실제 논리 볼륨 경로로 바꾸십시오). 2. 패키지 관리 : 쓸모없는 소프트웨어 제거 : APT-GetAutoremove 명령을 사용하여 더 이상 필요한 소프트웨어 패키지 및 해당 소프트웨어 패키지를 자동으로 제거하십시오.

Debianapache 서버 로그의 보안을 강화하려면 여러 측면에서 협력 노력이 필요합니다. 다음 전략은 보안 위험을 효과적으로 줄일 수 있습니다. 1. 로그 모니터링 및 분석 자동화 로그 분석 : Logcheck, Logrotate 및 기타 도구를 사용하여 로그를 정기적으로 확인하고 분석하여 의심스러운 활동 및 잠재적 공격을 신속하게 감지합니다. 실시간 모니터링 시스템 : ElkStack (Elasticsearch, Logstash, Kibana)과 같은 로그 모니터링 시스템을 설정하여 로그 데이터의 실시간 모니터링 및 분석을 실현합니다. 2. 로그 파일 권한에 대한 엄격한 권한 설정 : CHMOD640/var/log 사용과 같은 로그 파일 권한을 합리적으로 설정했습니다.

Nginx 서버 로그는 다양한 클라이언트 요청 정보를 기록합니다. 이 기사는 NGINX 로그의 일반적인 요청 유형 및 관련 정보를 자세히 소개합니다. 1. HTTP 요청 방법 NGINX LOG는 클라이언트가 서버와 상호 작용하는 방식을 나타내는 데 사용되는 다양한 HTTP 요청 방법을 기록합니다. GET : 가장 일반적으로 사용되는 요청 메소드 (웹 페이지, 그림, CSS 파일 등과 같은 서버에서 데이터를 얻는 데 사용되는 가장 일반적으로 사용되는 요청 메소드)는 일반적으로 URL에 포함됩니다. 게시물 : 서버에 데이터를 제출하는 데 사용되며 종종 양식 제출 또는 파일 업로드에 사용됩니다. 데이터는 URL이 아닌 요청 본문에 포함됩니다. PIT : 서버에서 파일을 업로드하거나 기존 리소스를 업데이트하는 데 사용됩니다. 데이터는 요청 본문에도 있습니다. 델

이 기사에서는 더 이상 데비안 시스템에서 필요하지 않은 패키지 종속성을 정리하는 방법에 대해 설명합니다. 조심해 주시면 중요한 데이터를 백업하는 것이 좋습니다. 1 단계 : 패키지 목록을 먼저 업데이트하고 패키지 목록을 업데이트하여 정보가 최신 상태인지 확인하십시오.

이 기사에서는 주로 Logrotate 도구를 사용하여 Debian 시스템에서 Apache Log Rotation을 구성하는 방법을 소개합니다. 1 단계 : Logrotate가 설치되어 있는지 확인하십시오. 다음 명령으로 확인하십시오 : Logrotate- Version이 설치되지 않은 경우, 실행 : sudoapt-getupdatesudoapt-getinstalllogrotestep 2 : Apache 로그 회전 구성 파일을 찾으십시오. 구성 파일은 일반적으로 /etc/logrotate.d/ 디렉토리에 있습니다. 파일 이름은 APACHE2 또는 HTTPD 일 수 있습니다. 다음 명령을 사용하여 ls/etc/logrot을 찾으십시오


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

SecList
SecLists는 최고의 보안 테스터의 동반자입니다. 보안 평가 시 자주 사용되는 다양한 유형의 목록을 한 곳에 모아 놓은 것입니다. SecLists는 보안 테스터에게 필요할 수 있는 모든 목록을 편리하게 제공하여 보안 테스트를 더욱 효율적이고 생산적으로 만드는 데 도움이 됩니다. 목록 유형에는 사용자 이름, 비밀번호, URL, 퍼징 페이로드, 민감한 데이터 패턴, 웹 셸 등이 포함됩니다. 테스터는 이 저장소를 새로운 테스트 시스템으로 간단히 가져올 수 있으며 필요한 모든 유형의 목록에 액세스할 수 있습니다.

PhpStorm 맥 버전
최신(2018.2.1) 전문 PHP 통합 개발 도구

Eclipse용 SAP NetWeaver 서버 어댑터
Eclipse를 SAP NetWeaver 애플리케이션 서버와 통합합니다.

DVWA
DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)
