Heim > Artikel > Technologie-Peripheriegeräte > Sollten Sie sich bei der KI-Infrastruktur für Edge oder Cloud entscheiden?
Edge Computing ist heutzutage ein heißes Thema. Es wird als der aufregendste technologische Wandel der letzten Jahre gefeiert und es wird viel über seine transformative Kraft gesprochen!
Angesichts immer leistungsfähigerer KI/ML-Algorithmen, die „Intelligenz“ neu definieren, und der Verfügbarkeit billigerer, leistungsstärkerer „Edge“-Geräte ist der Hype weitgehend real. Aber wenn man über die Geschichte des Edge Computing nachdenkt, ist es viel früher, als das jüngste Interesse vermuten lässt.
Tatsächlich begannen Computer und Intelligenz ursprünglich am Rande, als es für die meisten Anwendungen fast keine Netzwerkkonnektivität mit hoher Bandbreite gab. Selbst in den späten 1990er Jahren verfügten kritische Messgeräte, die an entfernten Standorten in Fabriken oder auf dem Feld eingesetzt wurden, häufig über eine eigene Rechenleistung zur Verarbeitung eingehender Sensordaten. Allerdings sind die Algorithmen in diesen Geräten nur rudimentär in Bezug auf „Intelligenz“: in erster Linie Signalverarbeitung oder Datenumwandlung.
Cloudbasiertes Computing begann Ende der 2000er Jahre an Bedeutung zu gewinnen, als die Netzwerkkapazitäten zunahmen und die Konnektivität zunahm. Gleichzeitig gewinnen leistungsstarke Algorithmen der künstlichen Intelligenz als Mittel zur Erschließung aussagekräftiger Informationen aus großen Mengen strukturierter und unstrukturierter Daten an Bedeutung. In nur einem Jahrzehnt hat sich Cloud-KI zur ersten Wahl für KI-Anwendungen entwickelt.
Allerdings bringt die Verlagerung in die Cloud auch mehrere Probleme mit sich: Kosten für das Hoch- und Herunterladen von Daten, Netzwerkzuverlässigkeit und Datensicherheit usw. Gleichzeitig nehmen die Kompromisse zwischen Rechenleistung und Kosten oder Stellfläche beim Edge-Computing mit der Verbreitung erschwinglicher und dennoch leistungsstarker Edge-Geräte ab. Es scheint, dass wir „Edge Computing“ jetzt wieder als praktikable und attraktive Option für die Entwicklung intelligenter Anwendungen betrachten.
Während die Debatte darüber, was besser ist, Edge AI oder Cloud AI, tobt, wird jeder, der mit beiden Frameworks vertraut ist, wahrscheinlich antworten: „Das kommt darauf an!“. Der Grund dafür ist, dass Edge- und Cloud-Infrastruktur keine konkurrierenden, sondern komplementäre Frameworks sind.
Beide haben in den letzten Jahren eine enorme Entwicklung und Verfeinerung erfahren, insbesondere als Grundlage für die Entwicklung und den Einsatz von KI. Wie bei jeder Technologiewahl kommt es bei der Wahl wirklich auf die spezifische Anwendung an: Ziele, Werttreiber, Wirtschaftlichkeit und etwaige Einschränkungen hinsichtlich Stromverbrauch, Größe und Konnektivität. Daher ist es wichtig, die Vor- und Nachteile von Cloud- und Edge-KI zu verstehen, bevor Sie versuchen, die richtige Infrastruktur einzurichten.
Wenn Sie Flexibilität, Skalierbarkeit und einfache Bereitstellung suchen, ist cloudbasierte KI eine attraktive Option. Heutzutage bieten die meisten Cloud-Service-Anbieter leistungsstarke Frameworks für die Schulung und Bereitstellung von KI-Modellen sowie Pay-as-you-go-Pakete mit geringem Vorabaufwand oder geringen Investitionen an. Die Cloud bietet nahezu unbegrenzte Rechen- und Speichermöglichkeiten und eignet sich daher besonders für große KI-Modelle.
Aber für Echtzeitanwendungen, die eine kontinuierliche Auswertung von Sensor- oder Bilddaten erfordern, kann dies zu einer unhandlichen Option werden, da Daten hin und her übertragen werden müssen, was enorme Kosten verursacht. Diese Datenübertragung macht die Cloud zudem weitgehend ungeeignet für Anwendungen mit geringer Latenz, die eine Regelung im geschlossenen Regelkreis oder sofortiges Handeln erfordern.
Andererseits ist Edge AI eine sinnvolle Wahl für die Echtzeit-Datenanalyse für automatische Alarme oder die Regelung im geschlossenen Regelkreis. Während die Edge-Infrastruktur eine Vorabinvestition in Edge-Hardware erfordert, sind die Betriebskosten im Vergleich zur Cloud viel niedriger.
Heute gibt es eine Vielzahl von Edge-KI-Hardwareoptionen, darunter NPUs (Neural Processing Units), TPUs (Tensor Processing Units) sowie SOCs (Systems on Chips) und SoMs (On-Modules) mit dediziertem KI-Beschleunigersystem. . Kostengünstige und stromsparende Hardware für künstliche Intelligenz ist ein aktives Forschungsgebiet und hat das Potenzial, bessere Optionen zu bieten. Andererseits müssen KI-basierte Verbraucheranwendungen mit einer recht unterschiedlichen Palette von Edge-Geräten (Telefone, Tablets, PCs usw.) umgehen, was die Edge-Bereitstellung zu einer potenziell entmutigenden Aussicht macht.
Daher ist die Edge-Infrastruktur möglicherweise weder für schnelles Prototyping geeignet noch einfach zu skalieren. Während das Konzept des föderierten Lernens und des verteilten Trainings von KI-Modellen das Training und die Bereitstellung am Netzwerkrand ermöglicht, bleibt die Cloud die logische Wahl für das Training großer Modelle, die ausreichend Rechenleistung erfordern.
Aber die Lösung muss keine Entweder-Oder-Entscheidung sein. Beim Übergang von Anwendungen zu stärker auf Microservices basierenden Architekturen können sie in kleinere Funktionen oder Microservices mit ihren eigenen spezifischen Bereitstellungsframeworks unterteilt werden. Anstatt sich also zwischen Cloud und Edge entscheiden zu müssen, kann der Fokus darauf liegen, beide optimal für bestimmte Anwendungen zu nutzen.
Zum Beispiel könnte eine Anwendung als schneller Prototyp in der Cloud starten. Im Zuge der Weiterentwicklung können Funktionen, die eine geringe Latenz und Entscheidungsfindung in Echtzeit erfordern, an den Rand verlagert werden, während diejenigen, die Skalierbarkeit und Flexibilität erfordern, in der Cloud verbleiben können. Modelltraining oder Umschulung können zentral in der Cloud verwaltet werden, während föderiertes Lernen am Edge die Genauigkeit lokal verbessern kann. Ebenso können sensible Daten am Edge verarbeitet und allgemeinere Daten in die Cloud verschoben werden.
Organisationen, Entwickler und Praktiker tun gut daran, Cloud und Edge nicht als unterschiedliche Alternativen zu betrachten, sondern vielmehr als ein Kontinuum von Edge zu Cloud mit vielen verschiedenen Infrastrukturoptionen dazwischen. Dazu gehören verschiedene Arten von Edges – Operational Edge, Network Edge, mobile Endpunkte usw., sowie verschiedene Arten der verteilten Verarbeitung im Netzwerk – Private Clouds, Public Clouds, Cloudlets, Fog Computing usw.
Während Komplexität eine Herausforderung sein kann, bietet die Suche nach der richtigen Kombination von Technologien Unternehmen eine einzigartige Chance, den Wert von KI zu maximieren und gleichzeitig Kosten und Risiken zu minimieren.
Das obige ist der detaillierte Inhalt vonSollten Sie sich bei der KI-Infrastruktur für Edge oder Cloud entscheiden?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!