Heim  >  Artikel  >  Was ist der Entwicklungsprozess für Big-Data-Anwendungen?

Was ist der Entwicklungsprozess für Big-Data-Anwendungen?

silencement
silencementOriginal
2019-06-10 11:26:056693Durchsuche

Was ist der Entwicklungsprozess für Big-Data-Anwendungen?

Schritte der Big-Data-Projektentwicklung:

Schritt eins: Anforderungen: Dateneingabe und Datenausgabe;

Der zweite Schritt : Datenvolumen, Verarbeitungseffizienz, Zuverlässigkeit, Wartbarkeit, Einfachheit;

Der dritte Schritt: Datenmodellierung;

Der vierte Schritt: Architekturdesign: Wie kommen die Daten herein, wie werden sie angezeigt? Ausgabe, das Wichtigste ist die Architektur für die Verarbeitung von Abflussdaten;

Schritt 5: Denken Sie noch einmal über die Interaktion zwischen dem Big-Data-System und dem Unternehmens-IT-System nach;

Schritt 6: Endgültige Entscheidung Auswahlmöglichkeiten, Spezifikationen usw.;

Schritt 7: Basis-Servicecode basierend auf der Datenmodellierung schreiben

Neunter Schritt: Implementieren andere Module und vollständiges Testen und Debuggen;

Schritt 10: Testen und Abnahme

Big-Data-Prozess:

Die gesamte Big-Data-Verarbeitung kann in vier Hauptschritte unterteilt werden.

Der erste Schritt ist die Erhebung und Speicherung von Daten.

Der zweite Schritt besteht darin, explorative Untersuchungen zu den Daten mithilfe von Datenanalysetechnologie durchzuführen, einschließlich der Eliminierung irrelevanter Daten, d. h. Daten Bereinigen und Finden von Daten Das Modell untersucht den Wert der Daten;

Der dritte Schritt besteht darin, Datenanalysealgorithmen auszuwählen und zu entwickeln, um die Daten basierend auf der grundlegenden Datenanalyse zu modellieren. Das Extrahieren wertvoller Informationen aus Daten ist eigentlich der eigentliche Big-Data-Lernprozess von Alibaba Cloud. Dies erfordert viele Algorithmen und Technologien, wie zum Beispiel maschinelle Lernalgorithmen. Der letzte Schritt ist die Bereitstellung und Anwendung des Modells, d. h. die Anwendung des untersuchten Modells auf die Produktionsumgebung.

1) Datenerfassung: individuell entwickeltes Erfassungsprogramm oder Verwendung des Open-Source-Frameworks Flume

2) Datenvorverarbeitung: individuell entwickeltes Mapreduce-Programm, das auf dem Hadoop-Cluster ausgeführt wird

3) Data Warehouse-Technologie: Hive basierend auf Hadoop

4) Datenexport: Sqoop-Datenimport- und -Exporttool basierend auf Hadoop

5) Datenvisualisierung: kundenspezifische Entwicklung von Webprogrammen oder Verwendung von Produkten wie Wasserkocher

Das obige ist der detaillierte Inhalt vonWas ist der Entwicklungsprozess für Big-Data-Anwendungen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn