Apache Hadoop は、汎用ハードウェア上に構築された大規模なクラスター上でアプリケーションを実行するためのフレームワークです。 Map/Reduce プログラミング パラダイムを実装しており、コンピューティング タスクが小さなチャンク (複数回) に分割され、異なるノードで実行されます。さらに、分散ファイル システム (HDFS) も提供します。HDFS では、データがコンピューティング ノードに保存され、データ センター全体で非常に高い総帯域幅が提供されます。
Apache Hadoop ビッグ データ サービスを提供する多くのベンダーは、企業とのビジネスを争っているはずです。結局のところ、大きな Apache Hadoop データは最小のデータのコレクションではありませんが、Apache Hadoop のビッグ データは可能な限り多くのデータ管理を最大限に活用する必要があります。ビッグ データ用の Apache Hadoop の導入の定義を探している場合、これは Apache Hadoop の完全な定義ではありません。この増大するデータすべてに対応するには、増大する Apache Hadoop データ センター インフラストラクチャが必要です。
このビッグ データ ブームは実際には Apache Hadoop 分散ファイル システムから始まり、比較的安価なローカル ディスク クラスターを使用したコスト効率の高いサーバーのスケーリングに基づいた大規模な Apache Hadoop データ分析の時代の到来を告げました。企業が Apache Hadoop および Apache Hadoop 関連のビッグ データ ソリューションをどれほど急速に開発しても、Apache Hadoop はさまざまな生データの継続的な分析を保証します。
問題は、Apache Hadoop ビッグ データを始めようとすると、Apache Hadoop のセキュリティなど、よく知られたエンタープライズ データ管理の問題を含む従来の Apache Hadoop データ プロジェクトが再び浮上することに気づくことです。データ: 信頼性、パフォーマンス、およびデータの保護方法。
Apache Hadoop HDFS は成熟してきましたが、企業のニーズを満たすにはまだ多くのギャップがあります。 Apache Hadoop Big Data の製品生産データ収集に関しては、これらのストレージ クラスター上の製品が実際には最低コストを提供していない可能性があることが判明しました。
ここで最も重要な点は、実は大企業が Apache Hadoop ビッグデータをどのように活性化するかということです。もちろん、Apache Hadoop ビッグ データのデータ コピーを単にコピー、移動、バックアップするだけではなく、Apache Hadoop ビッグ データのコピーは大変な作業です。セキュリティや慎重さなど、さらに多くの要件を備えた Apache Hadoop データベースを管理する必要があるため、小さな Apache Hadoop の詳細をできるだけ多く保持しないでください。重要なビジネス プロセスを新しい Apache Hadoop ビッグ データ ストアに基づいて構築する場合、その運用上の回復力とパフォーマンスのすべてが必要になります。
Apache 関連の知識の詳細については、Apache 使用法チュートリアル 列をご覧ください。
以上がApache Hadoop とはどういう意味ですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。