Heim >häufiges Problem >Was sind die drei Quellen für Big Data?
Was sind die drei Quellen für Big Data?
1. Transaktionsdaten, einschließlich POS-Maschinendaten, Kreditkartendaten usw.;
2. Menschliche Daten, einschließlich E-Mails, Dokumente, Bilder und über WeChat , Twitter usw. Erzeugter Datenstrom
3. Maschinen- und Sensordaten, wie z. B. Daten von Sensoren, Messgeräten und anderen Einrichtungen.
Was ist Big Data?
Gartner, eine Forschungsorganisation für „Big Data“, gab diese Definition. „Big Data“ erfordert neue Verarbeitungsmodelle mit stärkerer Entscheidungskraft, Erkenntnissen und Möglichkeiten zur Prozessoptimierung, um sich an die massiven, hohen Wachstumsraten und diversifizierten Informationsbestände anzupassen.
Die Definition des McKinsey Global Institute lautet: Eine Datensammlung, die so groß ist, dass ihre Erfassung, Speicherung, Verwaltung und Analyse die Fähigkeiten herkömmlicher Datenbanksoftwaretools bei weitem übersteigt. Sie verfügt über einen enormen Datenumfang und eine schnelle Verarbeitung weist vier Hauptmerkmale auf: Datenfluss, vielfältige Datentypen und geringe Wertedichte.
Die strategische Bedeutung der Big-Data-Technologie liegt nicht in der Beherrschung riesiger Datenmengen, sondern in der professionellen Verarbeitung dieser bedeutungsvollen Daten. Mit anderen Worten: Wenn Big Data mit einer Branche verglichen wird, liegt der Schlüssel zur Rentabilität dieser Branche darin, die „Verarbeitungsfähigkeiten“ von Daten zu verbessern und durch „Verarbeitung“ einen „Mehrwert“ von Daten zu erzielen.
Technisch gesehen ist die Beziehung zwischen Big Data und Cloud Computing so untrennbar wie die beiden Seiten derselben Medaille. Big Data kann nicht von einem einzelnen Computer verarbeitet werden und muss eine verteilte Architektur verwenden. Sein Merkmal liegt im verteilten Data Mining großer Datenmengen. Es muss jedoch auf verteilter Verarbeitung, verteilter Datenbank und Cloud-Speicher sowie der Virtualisierungstechnologie des Cloud Computing basieren.
Mit dem Aufkommen des Cloud-Zeitalters hat auch Big Data (Big Data) immer mehr Aufmerksamkeit auf sich gezogen. Das Analystenteam ist der Ansicht, dass Big Data im Allgemeinen zur Beschreibung der großen Mengen unstrukturierter und halbstrukturierter Daten verwendet wird, die von einem Unternehmen erstellt werden und deren Herunterladen in eine relationale Datenbank zur Analyse zu viel Zeit und Geld kosten würde. Big-Data-Analysen werden häufig mit Cloud Computing in Verbindung gebracht, da für die Echtzeitanalyse großer Datenmengen Frameworks wie MapReduce erforderlich sind, um die Arbeit auf Dutzende, Hunderte oder sogar Tausende von Computern zu verteilen.
Big Data erfordert spezielle Techniken, um große Datenmengen über einen erträglichen Zeitraum hinweg effizient zu verarbeiten. Zu den auf Big Data anwendbaren Technologien gehören MPP-Datenbanken (Massively Parallel Processing), Data Mining, verteilte Dateisysteme, verteilte Datenbanken, Cloud-Computing-Plattformen, das Internet und skalierbare Speichersysteme.
Empfohlenes Tutorial: „PHP“
Das obige ist der detaillierte Inhalt vonWas sind die drei Quellen für Big Data?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!