>운영 및 유지보수 >Apache >아파치 하둡이란 무엇입니까?

아파치 하둡이란 무엇입니까?

藏色散人
藏色散人원래의
2019-06-17 11:57:274105검색

Apache Hadoop은 범용 하드웨어에 구축된 대규모 클러스터에서 애플리케이션을 실행하기 위한 프레임워크입니다. 이는 컴퓨팅 작업이 작은 덩어리(여러 번)로 나누어져 다른 노드에서 실행되는 Map/Reduce 프로그래밍 패러다임을 구현합니다. 또한 데이터가 컴퓨팅 노드에 저장되어 매우 높은 데이터 센터 간 총 대역폭을 제공하는 분산 파일 시스템(HDFS)도 제공합니다.

아파치 하둡이란 무엇입니까?

Apache Hadoop 프레임워크 소개

Apache Hadoop 빅데이터 비즈니스를 제공하는 많은 공급업체는 분명히 기업과 비즈니스를 하기 위해 경쟁하고 있습니다. 결국 대용량 Apache Hadoop 데이터는 가장 작은 데이터 모음이 아니지만 Apache Hadoop 빅데이터는 최대한 많은 데이터 관리를 최대한 활용해야 합니다. 빅 데이터용 Apache Hadoop 배포에 대한 정의를 찾고 있다면 이는 Apache Hadoop의 완전한 정의가 아닙니다. 증가하는 모든 데이터를 충족하려면 증가하는 Apache Hadoop 데이터 센터 인프라가 필요합니다.

이 빅 데이터 붐은 실제로 Apache Hadoop 분산 파일 시스템에서 시작되었습니다. 이는 상대적으로 저렴한 로컬 디스크 클러스터를 사용하여 비용 효율적인 서버 확장을 기반으로 대규모 Apache Hadoop 데이터 분석 시대를 열었습니다. 기업이 아무리 빠르게 개발하는 아파치 하둡(Apache Hadoop)과 아파치 하둡 관련 빅데이터 솔루션이라도 아파치 하둡은 다양한 원시 데이터에 대한 지속적인 분석을 보장할 수 있습니다.

문제는 일단 Apache Hadoop 빅데이터로 시작하려고 하면 Apache Hadoop의 보안, 신뢰성, 성능 등 친숙한 기업 데이터 관리 문제를 포함한 전통적인 Apache Hadoop 데이터 프로젝트가 다시 등장한다는 것입니다. 데이터와 데이터를 보호하는 방법.

Apache Hadoop HDFS가 성숙해졌음에도 불구하고 기업 요구 사항을 충족하기에는 여전히 많은 격차가 있습니다. Apache Hadoop 빅 데이터를 위한 제품 생산 데이터 수집과 관련하여 이러한 스토리지 클러스터의 제품은 실제로 최저 비용 계산을 제공하지 않을 수 있는 것으로 나타났습니다.

여기서 가장 중요한 점은 실제로 대기업이 Apache Hadoop 빅데이터를 어떻게 활성화하는지입니다. 물론 Apache Hadoop 빅데이터 데이터 사본을 단순히 복사, 이동, 백업하고 싶지는 않습니다. Apache Hadoop 빅데이터를 복사하는 것은 큰 작업입니다. 보안 및 신중함과 같은 훨씬 더 많은 요구 사항을 갖춘 Apache Hadoop 데이터베이스를 관리해야 하므로 작은 것보다 많은 Apache Hadoop 세부 정보를 보유하지 마십시오. 중요한 비즈니스 프로세스를 새로운 Apache Hadoop 빅 데이터 저장소에 기반을 두려면 운영 탄력성과 고성능이 모두 필요합니다.

더 많은 Apache 관련 지식을 알고 싶다면 Apache 사용 튜토리얼 칼럼을 방문해 보세요!

위 내용은 아파치 하둡이란 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.