Heim  >  Artikel  >  System-Tutorial  >  Drei Best Practices für kleine und mittlere Unternehmen zur Einführung einer Hybrid Cloud zur Verarbeitung großer Datenmengen

Drei Best Practices für kleine und mittlere Unternehmen zur Einführung einer Hybrid Cloud zur Verarbeitung großer Datenmengen

PHPz
PHPznach vorne
2024-02-26 09:10:28849Durchsuche

Heute treten Big Data und Analysen in eine ausgereiftere Bereitstellungsphase ein. Das sind gute Nachrichten für kleine und mittlere Unternehmen, die diese Technologien einsetzen und Schwierigkeiten haben, eine Big-Data-Architektur für ihr Unternehmen zu definieren.

Die Unsicherheit darüber, wie die Gesamtarchitektur von Big Data und Analytics definiert werden soll, ist einer der Gründe, warum KMUs bei der Bereitstellung von Big Data und Analytics hinterherhinken. In vielen Fällen warten sie ab und beobachten, wie sich Trends wie Hybrid Computing, Data Marts, Masterdatenbanken usw. entwickeln und wie sich die Kontrollen über Sicherheit und Governance auswirken werden.
Drei Best Practices für kleine und mittlere Unternehmen zur Einführung einer Hybrid Cloud zur Verarbeitung großer Datenmengen

Schließlich wird eine neue Best-Practice-Datenarchitektur bereitgestellt, der jeder folgen kann. In dieser Architektur werden Cloud-Computing-Dienste zur Speicherung und Verarbeitung großer Datenmengen genutzt, während Rechenzentren vor Ort zur Entwicklung lokaler Data Marts im Unternehmen genutzt werden.

Werfen wir einen genaueren Blick auf die Gründe für diese Big-Data- und Analytics-Architektur:

Die Rolle von Cloud Computing

Wenn das Unternehmen klein ist, ist es teuer, Servercluster zu kaufen, um große Datenmengen im Rechenzentrum parallel zu verarbeiten, ganz zu schweigen von der Einstellung oder Schulung sehr teurer Fachkräfte, die wissen, wie man die Parallelverarbeitungsumgebung optimiert, aktualisiert und wartet. Unternehmen, die sich dafür entscheiden, Daten vor Ort zu verarbeiten und zu speichern, tätigen auch erhebliche Investitionen in Hardware, Software und Speicherausrüstung. Die Anschaffung von Big-Data-Hardware und -Software sowie die Auslagerung der Rechenverarbeitung und -speicherung in die Cloud werden viel Geld kosten.

On-Premises-Computing

Data Governance (z. B. Sicherheits- und Compliance-Probleme) ist einer der Gründe, warum Unternehmen zögern, alle ihre geschäftskritischen Daten in die Cloud zu übertragen, weil diese schwieriger zu verwalten sind. Sobald die Daten in der Cloud verarbeitet werden, entscheiden sich daher viele Unternehmen dafür, die Daten in ihre eigenen Rechenzentren vor Ort zu migrieren.

Es gibt noch einen weiteren Grund, warum sich viele Unternehmen für die Nutzung ihrer Rechenzentren entscheiden: Sie konzentrieren sich auf die proprietären Anwendungen und Algorithmen, die diese Daten entwickeln, da es die Richtlinie vieler Cloud-Computing-Anbieter ist, dass alle von Kunden in der Cloud entwickelten Anwendungen gemeinsam genutzt werden dürfen mit anderen Kunden.

Durch die Vorhaltung von Anwendungen vor Ort im Rechenzentrum und die Entwicklung eines lokalen Stammdatensatzes, von dem kleinere Data Marts getrennt werden können, haben Unternehmen direkte Kontrolle über ihre Daten und Anwendungen.

Was brauchen analytische Manager?
(1) Unternehmen sollten verstehen und mit ihren Cloud-Computing-Anbietern vereinbaren, dass sie ihre eigenen Daten verarbeiten und schützen

Wenn ein Unternehmen beispielsweise Daten anonymisieren muss, sollte der von ihm implementierte Prozess dokumentiert und mit seinem Cloud-Anbieter vereinbart werden, da der Cloud-Anbieter die Anonymisierung übernimmt. Wenn ein Unternehmen seine eigenen Daten bereinigen möchte, sollte es seinem Cloud-Computing-Anbieter auch detaillierte schriftliche Anweisungen zum Bereinigungsprozess geben. Möchte das Unternehmen beispielsweise nur die Abkürzungen für alle US-Bundesstaaten vereinheitlichen (z. B. „Tenn“ und „Tennessee“ = „TN“), oder sorgen andere Änderungen an den Daten letztendlich für eine einheitlichere und einfachere Verarbeitung? Unabhängig davon, ob Ihr Unternehmen im dedizierten Mandanten eines Cloud-Computing-Dienstanbieters oder in einer Umgebung mit mehreren Mandanten läuft, sollte der Cloud-Computing-Anbieter garantieren können, dass die Daten des Unternehmens niemals mit anderen Kunden geteilt werden.

(2) Die lokale Big-Data- und Analysearchitektur des Unternehmens sollte neue Richtlinien und Verfahren dokumentieren, die den Big-Data-Anforderungen gerecht werden

Viele IT-Abteilungen in Unternehmen vermissen diese Aufgabe völlig. Sie beginnen einfach mit der Umsetzung von Big-Data-Projekten, vergessen jedoch, dass die bestehenden Richtlinien und Verfahren zur Anwendungsentwicklung aus der Anwendungsdomäne der Transaktion stammen. Unternehmen sollten diesen Fehler nicht machen. Stattdessen müssen Unternehmen Richtlinien und Verfahren in Bereichen überarbeiten, in denen die Wahrscheinlichkeit einer Interaktion mit Big Data höher ist (z. B. Speicher, Datenbankverwaltung, Anwendungen).

(3) Der Notfallwiederherstellungsplan sollte aktualisiert und auf Big Data getestet werden, wenn er vor Ort und in der Cloud bereitgestellt wird

Im Falle cloudbasierter DR-Tests sollten Organisationen Bestimmungen zur Aufzeichnung und Ausführung von DR in den Vertrag aufnehmen. Disaster Recovery (DR)-Pläne (die sich auf Transaktionsdaten und -systeme konzentrieren) sollten ebenfalls auf dem neuesten Stand gehalten werden und Wiederherstellungs- und Testskripts für Big Data und Analysen umfassen.

Das obige ist der detaillierte Inhalt vonDrei Best Practices für kleine und mittlere Unternehmen zur Einführung einer Hybrid Cloud zur Verarbeitung großer Datenmengen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:linuxprobe.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen