„Big Data“ beinhaltet die Bedeutung von „Massendaten“ und geht inhaltlich über Massendaten hinaus. Kurz gesagt: „Big Data“ ist „Massendaten“ + komplexe Datentypen. Big Data umfasst alle Datensätze, einschließlich transaktionaler und interaktiver Datensätze, deren Größe oder Komplexität die Fähigkeit gängiger Technologien übersteigt, diese Datensätze zu angemessenen Kosten und in angemessener Zeit zu erfassen, zu verwalten und zu verarbeiten.
Wenn es sich nur um massive strukturierte Daten handelt, ist die Lösung relativ einfach, indem sie mehr Speichergeräte kaufen solche Probleme. Wenn die Leute jedoch entdecken, dass die Daten in der Datenbank in drei Typen unterteilt werden können: strukturierte Daten, unstrukturierte Daten und halbstrukturierte Daten und andere komplexe Situationen, scheint das Problem nicht so einfach zu sein.
Die Welle von Big Data steht vor der Tür
Wenn komplexe Arten von Daten ansteigen, werden die Auswirkungen auf die IT-Systeme der Benutzer auf andere Weise bewältigt. Viele Branchenexperten und externe Ermittlungsbehörden haben anhand einiger Marktforschungsdaten herausgefunden, dass das Zeitalter von Big Data naht. Eine Umfrage ergab, dass 85 % dieser komplexen Daten unstrukturierte Daten sind, die in sozialen Netzwerken, im Internet der Dinge, im E-Commerce usw. weit verbreitet sind. Die Generierung dieser unstrukturierten Daten geht häufig mit der kontinuierlichen Entstehung und Anwendung neuer Kanäle und Technologien wie sozialen Netzwerken, Mobile Computing und Sensoren einher.
Es gibt heute auch viel Hype und große Unsicherheit rund um das Konzept von Big Data. Zu diesem Zweck bat der Herausgeber einige Branchenexperten, mehr über relevante Themen zu erfahren, und bat sie, darüber zu sprechen, was Big Data ist und was nicht, sowie über den Umgang mit Big Data und anderen Problemen und wird in diesem Formular Internetnutzer treffen einer Artikelserie.
Manche bezeichnen Multi-Terabyte-Datensätze auch als „Big Data“. Laut Statistiken des Marktforschungsunternehmens IDC wird die Datennutzung voraussichtlich um das 44-fache steigen und die weltweite Datennutzung etwa 35,2 ZB (1 ZB
= 1 Milliarde TB) erreichen. Allerdings wird auch die Dateigröße einzelner Datensätze zunehmen, sodass eine höhere Rechenleistung erforderlich ist, um diese Datensätze zu analysieren und zu verstehen.
EMC hat erklärt, dass seine mehr als 1.000 Kunden mehr als 1 PB (Gigabit) an Daten in seinen Arrays nutzen und diese Zahl bis 2020 auf 100.000 ansteigen wird. Einige Kunden werden innerhalb von ein oder zwei Jahren auch tausendmal mehr Daten verbrauchen, 1 Exabyte (1 Exabyte
= 1 Milliarde GB) oder mehr.
Für große Unternehmen ist der Aufstieg von Big Data teilweise darauf zurückzuführen, dass Rechenleistung zu geringeren Kosten verfügbar ist und Systeme jetzt Multitasking-fähig sind. Zweitens sinken auch die Speicherkosten, Unternehmen können mehr Daten im Speicher verarbeiten als je zuvor und es wird immer einfacher, Computer zu Server-Clustern zusammenzufassen. IDC glaubt, dass die Kombination dieser drei Faktoren zur Entstehung von Big Data geführt hat. Gleichzeitig erklärte IDC auch, dass eine bestimmte Technologie, damit sie zu einer Big-Data-Technologie wird, erstens erschwinglich sein muss und zweitens zwei der drei von IBM beschriebenen „V“-Kriterien erfüllen muss: Vielfalt, Volumen und Geschwindigkeit.
Der Unterschied zwischen Big Data und Massive Data
Diversität bedeutet, dass Daten strukturierte und unstrukturierte Daten enthalten sollten.
Volumen bezieht sich auf die für die Analyse aggregierte Datenmenge, die sehr groß sein muss.
Und Geschwindigkeit bedeutet, dass die Geschwindigkeit der Datenverarbeitung sehr hoch sein muss.
Big Data bedeutet nicht immer Hunderte von TB. Abhängig von der tatsächlichen Nutzung können manchmal auch Hunderte von GB Daten als Big Data bezeichnet werden, was hauptsächlich von der dritten Dimension, also der Geschwindigkeit oder der Zeitdimension, abhängt .
Garter sagte, dass das globale Informationsvolumen mit einer jährlichen Wachstumsrate von mehr als 59 % wächst und dass das Volumen eine erhebliche Herausforderung bei der Daten- und Geschäftsverwaltung darstellt und sich IT-Führungskräfte darauf konzentrieren müssen Informationsvolumen, -vielfalt und -geschwindigkeit. Volumen: Der Anstieg des Datenvolumens in Unternehmenssystemen wird durch das Transaktionsvolumen, andere traditionelle Datentypen und neue Datentypen verursacht ist auch ein Problem bei vielen Analysetypen
: IT-Führungskräfte hatten schon immer Schwierigkeiten damit, große Mengen an Transaktionsinformationen in Entscheidungen umzusetzen – jetzt müssen mehr Arten von Informationen analysiert werden –
Hauptsächlich aus sozialen Medien und Mobilgeräten (Kontextbewusstsein). Zu den Kategorien gehören tabellarische Daten (Datenbanken), hierarchische Daten, Dateien, E-Mails, gemessene Daten, Videos, Standbilder, Audio, Börsentickerdaten, Finanztransaktionen und mehr.
Geschwindigkeit: Dies bezieht sich auf Der Datenfluss, die Erstellung strukturierter Datensätze und die Verfügbarkeit von Zugriff und Lieferung bedeuten, wie schnell die Daten generiert werden und wie schnell die Daten verarbeitet werden müssen Big Data ist ein großes Problem, sagen Gartner-Analysten, dass das eigentliche Problem darin besteht, Big Data aussagekräftiger zu machen und Muster in Big Data zu finden, um Unternehmen dabei zu helfen, bessere Geschäftsentscheidungen zu treffen „Big Data“
Obwohl „Big Data“ mit Big Data oder Massive Data übersetzt werden kann, gibt es einen Unterschied zwischen Big Data und Massive Data
Definition 1: Big Data = Massive Data + komplexe DatentypenDan Bin, Chefproduktberater von Informatica China, glaubt: „Big Data“ beinhaltet die Bedeutung von „Massendaten“ und ihr Inhalt geht über Massendaten hinaus. Kurz gesagt, „Big Data“ ist „Massendaten“ + Komplexer Typ von Daten.
Aber Bin wies weiter darauf hin: Big Data umfasst alle Datensätze, einschließlich Transaktions- und Interaktionsdatensätze, deren Größe oder Komplexität die Fähigkeit häufig verwendeter Technologien übersteigt, diese Datensätze zu angemessenen Kosten zu erfassen, zu verwalten und zu verarbeiten und zeitliche Begrenzung.
Big Data setzt sich aus der Konvergenz von drei großen Technologietrends zusammen:
海量交易数据:在从 ERP应用程序到数据仓库应用程序的在线交易处理(OLTP)与分析系统中,传统的关系数据以及非结构化和半结构化信息仍在继续增长。随着企业将更多的数据和业务流程移向公共和私有云,这一局面变得更加复杂。 海量交互数据:这一新生力量由源于 Facebook、Twitter、LinkedIn 及其它来源的社交媒体数据构成。它包括了呼叫详细记录(CDR)、设备和传感器信息、GPS和地理定位映射数据、通过管理文件传输(Manage File Transfer)协议传送的海量图像文件、Web 文本和点击流数据、科学信息、电子邮件等等。 海量数据处理:大数据的涌现已经催生出了设计用于数据密集型处理的架构,例如具有开放源码、在商品硬件群中运行的 Apache Hadoop。对于企业来说,难题在于以具备成本效益的方式快速可靠地从 Hadoop 中存取数据。
Definition 2: Big Data umfasst drei Elemente A, B und C
Wie man Big versteht Daten? Chen Wen, General Manager von Greater China bei NetApp
, glaubt, dass Big Data bedeutet, die Art und Weise, Dinge zu erledigen, zu verändern, indem man Informationen schneller erhält und so Durchbrüche erzielt. Unter Big Data versteht man große (oft unstrukturierte) Datenmengen, die von uns ein Umdenken bei der Speicherung, Verwaltung und Wiederherstellung von Daten erfordern. Also, wie groß ist zu groß? Eine Möglichkeit, über dieses Problem nachzudenken, besteht darin, dass es so groß ist, dass keines der Tools, die wir heute verwenden, damit umgehen kann. Daher kommt es darauf an, die Daten zu verarbeiten und in wertvolle Erkenntnisse und Informationen umzuwandeln.
Basierend auf den von Kunden erfahrenen Workload-Anforderungen versteht NetApp Big Data als drei Elemente A, B und C: Analyse (Analytisch), Bandbreite (Bandbreite) und Inhalt (Inhalt).
1. Big Analytics hilft dabei, Erkenntnisse zu gewinnen –
bezieht sich auf die Anforderung einer Echtzeitanalyse großer Datenmengen, die zu neuen Geschäftsmodellen und einem besseren Kundenservice führen und bessere Ergebnisse erzielen kann.
2. Hohe Bandbreite (Big Bandwidth), die zu einer schnelleren Verarbeitung beiträgt –
bezieht sich auf die Anforderung, kritische Daten mit extrem hoher Geschwindigkeit zu verarbeiten. Es ermöglicht eine schnelle und effiziente Verdauung und Verarbeitung großer Datenmengen.
3. Große Inhalte, keine Informationen gehen verloren –
bezieht sich auf einen hoch skalierbaren Datenspeicher, der extrem hohe Sicherheit erfordert und leicht wiederhergestellt werden kann. Es unterstützt ein überschaubares Repository mit Informationsinhalten, nicht nur veralteten Daten, und kann verschiedene Kontinente umfassen.
Big Data ist eine disruptive wirtschaftliche und technologische Kraft, die eine neue Infrastruktur für die IT-
Unterstützung einführt. Big-Data-Lösungen beseitigen herkömmliche Rechen- und Speicherbeschränkungen. Mit Hilfe der wachsenden privaten und öffentlichen Daten entsteht ein bahnbrechendes neues Geschäftsmodell, das Big-Data-Kunden neue erhebliche Umsatzwachstumspunkte und Wettbewerbsvorteile bringen soll.
Das obige ist der detaillierte Inhalt vonWas ist der Unterschied und Zusammenhang zwischen Big Data und Massive Data?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!