Le « Big data » inclut le sens de « données de masse » et va au-delà des données de masse dans le contenu. En bref, le « big data » désigne des « données de masse » + des types de données complexes. Le Big Data comprend tous les ensembles de données, y compris les ensembles de données transactionnelles et interactives, dont la taille ou la complexité dépasse la capacité des technologies couramment utilisées à capturer, gérer et traiter ces ensembles de données à un coût et dans des délais raisonnables.
S'il ne s'agit que de données structurées massives, la solution est relativement simple. Les utilisateurs peuvent améliorer l'efficacité des périphériques de stockage en achetant davantage de périphériques de stockage. de tels problèmes. Cependant, lorsque les gens découvrent que les données de la base de données peuvent être divisées en trois types : données structurées, données non structurées et données semi-structurées et autres situations complexes, le problème ne semble pas si simple.
L'essor du Big Data arrive
Lorsque des types de données complexes surgissent, l'impact sur les systèmes informatiques des utilisateurs sera traité d'une autre manière. De nombreux experts du secteur et agences d’enquête tierces ont découvert, grâce à certaines données d’études de marché, que l’ère du Big Data approche. Une enquête a révélé que 85 % de ces données complexes sont des données non structurées largement présentes dans les réseaux sociaux, l'Internet des objets, le commerce électronique, etc. La génération de ces données non structurées s'accompagne souvent de l'émergence et de l'application continues de nouveaux canaux et technologies tels que les réseaux sociaux, l'informatique mobile et les capteurs.
Il y a aussi beaucoup de battage médiatique et beaucoup d'incertitude autour du concept de big data aujourd'hui. À cette fin, l'éditeur a demandé à certains experts de l'industrie d'en savoir plus sur les questions pertinentes et leur a demandé de parler de ce qu'est et n'est pas le Big Data, ainsi que de la façon de traiter le Big Data et d'autres problèmes, et rencontrera les internautes sous la forme d'une série d'articles.
Certaines personnes qualifient également les ensembles de données de plusieurs téraoctets de « big data ». Selon les statistiques de la société d'études de marché IDC, l'utilisation des données devrait être multipliée par 44 et l'utilisation mondiale des données atteindra environ 35,2 ZB (1 ZB
= 1 milliard de To). Cependant, la taille des fichiers des ensembles de données individuels augmentera également, ce qui nécessitera une plus grande puissance de traitement afin d'analyser et de comprendre ces ensembles de données.
EMC a déclaré que ses plus de 1 000 clients utilisent plus de 1 Po (gigabit) de données dans ses baies, et ce nombre atteindra 100 000 d'ici 2020. Certains clients commenceront également à utiliser des milliers de fois plus de données d’ici un an ou deux, 1 exaoctet (1 exaoctet
= 1 milliard de Go) ou plus.
Pour les grandes entreprises, l'essor du Big Data s'explique en partie par le fait que la puissance de calcul est disponible à moindre coût et que les systèmes sont désormais capables d'effectuer plusieurs tâches à la fois. Deuxièmement, le coût de la mémoire est également en chute libre, les entreprises peuvent traiter plus de données en mémoire que jamais auparavant et il devient de plus en plus facile de regrouper des ordinateurs dans des clusters de serveurs. IDC estime que la combinaison de ces trois facteurs a donné naissance au Big Data. Dans le même temps, IDC a également déclaré que pour qu'une certaine technologie devienne une technologie Big Data, elle doit d'abord être abordable, et deuxièmement, elle doit répondre à deux des trois critères « V » décrits par IBM : variété, volume et vitesse.
La différence entre le big data et les données massives
La diversité signifie que les données doivent contenir des données structurées et non structurées.
Le volume fait référence à la quantité de données agrégées pour l'analyse qui doit être très importante.
Et la vitesse signifie que la vitesse de traitement des données doit être très rapide.
Le Big Data ne signifie pas toujours des centaines de To. Selon l'utilisation réelle, parfois des centaines de Go de données peuvent également être appelées Big Data, qui dépendent principalement de leur tiers.
Garter a déclaré que. le volume mondial d'informations augmente à un taux de croissance annuel de plus de 59 %, et le volume constitue un défi important dans la gestion des données et des activités, et les responsables informatiques doivent se concentrer sur cela en termes de volume, de variété et de rapidité d'information
.Volume : l'augmentation du volume de données au sein des systèmes d'entreprise est causée par le volume de transactions, d'autres types de données traditionnels et de nouveaux types de données. Un volume excessif est un problème de stockage, mais trop de données est également un problème avec beaucoup d'analyses
Types : les responsables informatiques ont toujours eu du mal à traduire de grandes quantités d'informations transactionnelles en décisions – il existe désormais davantage de types d'informations à analyser – Principalement provenant des médias sociaux et des appareils mobiles (les catégories incluent des données tabulaires (). bases de données), données hiérarchiques, fichiers, e-mails, données mesurées, vidéo, images fixes, audio, données boursières, transactions financières et plus encore.
Vitesse : cela concerne le flux de données, la création d'enregistrements structurés , et la disponibilité de l'accès et de la livraison. La vitesse signifie la rapidité avec laquelle les données sont générées et la rapidité avec laquelle les données doivent être traitées pour répondre à la demande.
Bien que le big data soit un problème majeur, ont déclaré les analystes de Gartner. que le vrai problème est de donner plus de sens au Big Data et de trouver des modèles dans le Big Data pour aider les organisations à prendre de meilleures décisions commerciales
Une centaine d'écoles de pensée discutent de la manière de définir le « Big Data »
. Bien que « Big Data » puisse se traduire par big data ou données massives, il existe une différence entre big data et données massives
Définition 1 : Big data = données massives + types de données complexes
.Dan Bin, consultant produit en chef d'Informatica Chine, estime : « Big data » inclut le sens de « données de masse », et son contenu dépasse les données de masse. En bref, « big data » est « données de masse »+ Type complexe. de données.
Mais Bin a en outre souligné : le Big Data inclut tous les ensembles de données, y compris les ensembles de données de transactions et d'interactions, dont la taille ou la complexité dépasse la capacité des technologies couramment utilisées à capturer, gérer et traiter ces ensembles de données à un coût raisonnable. et capacité de limite de temps.
Le Big data est composé de la convergence de trois tendances technologiques majeures :
海量交易数据:在从 ERP应用程序到数据仓库应用程序的在线交易处理(OLTP)与分析系统中,传统的关系数据以及非结构化和半结构化信息仍在继续增长。随着企业将更多的数据和业务流程移向公共和私有云,这一局面变得更加复杂。 海量交互数据:这一新生力量由源于 Facebook、Twitter、LinkedIn 及其它来源的社交媒体数据构成。它包括了呼叫详细记录(CDR)、设备和传感器信息、GPS和地理定位映射数据、通过管理文件传输(Manage File Transfer)协议传送的海量图像文件、Web 文本和点击流数据、科学信息、电子邮件等等。 海量数据处理:大数据的涌现已经催生出了设计用于数据密集型处理的架构,例如具有开放源码、在商品硬件群中运行的 Apache Hadoop。对于企业来说,难题在于以具备成本效益的方式快速可靠地从 Hadoop 中存取数据。
Définition 2 : Le Big data comprend trois éléments A, B et C
Comment comprendre le big data données? NetApp
Le directeur général de la Grande Chine, Chen Wen, estime que le Big Data signifie changer la façon dont les choses sont faites en obtenant des informations plus rapidement, et ainsi réaliser des avancées décisives. Le Big Data est défini comme de grandes quantités de données (souvent non structurées) qui nous obligent à repenser la façon dont nous stockons, gérons et récupérons les données. Alors, quelle est la taille qui est trop grande ? Une façon d'envisager ce problème est qu'il est si important qu'aucun des outils que nous utilisons aujourd'hui ne peut le gérer. Il est donc essentiel de savoir comment digérer les données et les transformer en informations et informations précieuses.
Sur la base des exigences de charge de travail apprises auprès des clients, NetApp considère le Big Data comme incluant trois éléments A, B et C : analyse (analyse), bande passante (bande passante) et contenu (contenu).
1. Big Analytics permet d'obtenir des informations –
fait référence à la nécessité d'analyser en temps réel d'énormes ensembles de données, ce qui peut apporter de nouveaux modèles commerciaux et un meilleur service client et obtenir de meilleurs résultats.
2. Bande passante élevée (Big Bandwidth), permettant d'aller plus vite –
fait référence à la nécessité de traiter des données critiques à un débit extrêmement élevé. Il permet une digestion et un traitement rapides et efficaces de grands ensembles de données.
3. Big Content (Big Content), aucune information n'est perdue -
fait référence à un stockage de données hautement évolutif qui nécessite une sécurité extrêmement élevée et peut être facilement restauré. Il prend en charge un référentiel gérable de contenu informatif, pas seulement des données obsolètes, et peut s'étendre sur différents continents.
Le Big Data est une force économique et technologique disruptive qui introduit de nouvelles infrastructures pour le support informatique
. Les solutions Big Data éliminent les limitations traditionnelles en matière de calcul et de stockage. Avec l'aide de la croissance des données privées et publiques, un nouveau modèle commercial historique est en train d'émerger, qui devrait apporter de nouveaux points de croissance substantiels des revenus et des avantages concurrentiels aux clients du Big Data.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!