ホームページ  >  記事  >  現在のビッグデータ技術の基礎を最初に提案したのは誰ですか?

現在のビッグデータ技術の基礎を最初に提案したのは誰ですか?

藏色散人
藏色散人オリジナル
2020-05-13 10:07:1753652ブラウズ

現在のビッグデータ技術の基礎を最初に提案したのは誰ですか?

現在のビッグデータ技術の基礎を最初に提案したのは誰ですか?

現在のビッグデータ技術の基礎は「Google」によって最初に提案されました。

ビッグデータ (ビッグデータ) とは、IT 業界用語であり、従来のソフトウェア ツールでは一定の時間範囲内で取得、管理、処理することができないデータの集合を指します。強力な機能、洞察力、プロセス最適化機能を備えた、大規模かつ急成長を続ける多様な情報資産。

Victor Meyer-Schonberg と Kenneth Cukier が著した「ビッグデータ時代」では、ビッグデータとは、ランダム分析 (サンプリング調査) などの近道ではなく、すべてのデータの分析と処理を指します。ビッグデータの 5V 特性 (IBM が提案): Volume、Velocity、Variety、Value、および Veracity。

「ビッグデータ」の研究組織である Gartner は、次のように定義しています。 「ビッグデータ」には、大規模で高い成長率と多様化する情報資産に適応するため、より強力な意思決定力、洞察発見、プロセス最適化機能を備えた新しい処理モデルが必要です。

マッキンゼー グローバル インスティテュートによる定義は、「収集、保存、管理、分析が従来のデータベース ソフトウェア ツールの能力を大幅に超えるほど大規模なデータ コレクションです。大規模なデータ スケールと、迅速なデータ収集を備えています。には、データ フロー、多様なデータ タイプ、および低い値密度という 4 つの大きな特徴があります。

ビッグデータテクノロジーの戦略的重要性は、膨大なデータ情報を習得することにあるのではなく、これらの意味のあるデータを専門的に処理することにあります。つまり、ビッグデータを産業に喩えると、データの「処理能力」を向上させ、「加工」によってデータの「付加価値」を実現することが、この産業を収益化する鍵となるのです。

技術的には、ビッグ データとクラウド コンピューティングの関係は、同じコインの裏表のように分かちがたいものです。ビッグデータは 1 台のコンピューターでは処理できないため、分散アーキテクチャを使用する必要があります。その特徴は、大量データの分散データマイニングにあります。ただし、分散処理、分散データベースとクラウド ストレージ、クラウド コンピューティングの仮想化テクノロジに依存する必要があります。

クラウド時代の到来により、ビッグデータ(ビッグデータ)にも注目が集まっています。アナリスト チームは、ビッグ データは通常、企業が作成した大量の非構造化データおよび半構造化データを記述するために使用され、分析のためにリレーショナル データベースにダウンロードするには時間と費用がかかりすぎると考えています。大規模なデータ セットのリアルタイム分析には、作業を数十、数百、さらには数千のコンピューターに分散する MapReduce などのフレームワークが必要であるため、ビッグ データ分析はクラウド コンピューティングと関連付けられることがよくあります。

ビッグ データには、許容可能な時間にわたって大量のデータを効率的に処理するための特別なテクニックが必要です。ビッグ データに適用できるテクノロジーには、超並列処理 (MPP) データベース、データ マイニング、分散ファイル システム、分散データベース、クラウド コンピューティング プラットフォーム、インターネット、およびスケーラブルなストレージ システムが含まれます。

以上が現在のビッグデータ技術の基礎を最初に提案したのは誰ですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。