Heim > Artikel > Technologie-Peripheriegeräte > Warum KI immer noch vor Herausforderungen und Einschränkungen steht
Die Intelligenz schießt wie Pilze aus dem Boden und heute dürfte es uns schwerfallen, einen Anbieter von Unternehmenstechnologie zu finden, der nicht neue generative künstliche Intelligenz (Gen-AI) und maschinelles Lernen (ML) zur Erweiterung seiner Kernplattform einsetzt. Generative KI und ihre Verwendung großer Sprachmodelle (LLM), die Erstellung von Vektordatenbanken und andere solide neue Technologietrends beeinflussen in aller Stille die Art und Weise, wie KI im nächsten Jahrzehnt aufgebaut wird.
Wenn wir darüber sprechen Computing the Edge. Wir beziehen uns normalerweise auf Computergeräte, die im Bereich des Internets der Dinge (IoT) existieren. Von entfernten Smart-City- und Industrieausrüstungssensoren, Kameras, Beschleunigungsmessern und Gyroskopmessgeräten bis hin zu Check-in-Computern für Flughafenkioske, Point-of-Sale-Geräten und allem, was über Netzwerk- und Datenbankkonnektivität oder Speicherfunktionen verfügt. und die Informationen für den späteren Abruf und die Analyse oder beides verarbeiten.
Für diejenigen, die auf Sprach- und Technologiepurismus bestehen: Edge Computing ist ein Phänomen, das auf IoT-Geräten auftritt, daher sind die beiden Begriffe nicht genau gleich. Obwohl spezifischer Kontext und notwendige Erklärungen bereitgestellt werden müssen, können wir künstliche Intelligenz jetzt auf Edge-Geräte anwenden, das heißt, die intelligenten Geräte unserer Smart Cities werden tatsächlich intelligenter
Konversation über künstliche Intelligenz Es wird immer mehr über künstliche Edge-Geräte gesprochen Intelligenz. Alles, was verbunden werden kann, wird am Rand generiert, und es werden bereits viele Daten generiert. Das Ausmaß dieser Situation übersteigt schnell die verfügbare Netzwerkbandbreite zum Hochladen all dieser Daten in die Cloud und wird durch die Tatsache verschärft, dass die heutigen Netzwerke nicht für Uploads, sondern für Downloads optimiert sind. Zusammen mit anderen Herausforderungen wie Kosten, Latenz, Sicherheit und Datenschutz erfordert dies, dass KI-Ressourcen auf die Daten verlagert werden und nicht umgekehrt.
Wir können KI am Rande auf unterschiedliche Weise einsetzen. In einigen Fällen setzen Unternehmen intelligente Sensoren ein, die Rechenressourcen integrieren, einschließlich Technologien wie Digital Motion Processors (DMPs), die unterschiedliche Grade der Analyse automatisieren können
Sie können sich dafür entscheiden, Basissensoren ohne DMP (Datenverwaltungsplattform) einzusetzen. die lediglich Daten sammeln und in einem Rohformat ausgeben, die dann von externen Tools analysiert werden müssen. Während Basissensoren mehr Arbeit seitens der Entwickler erfordern, um die gewünschte Ausgabe zu erhalten, bieten sie ein „Do-it-yourself“-Modell, anstatt sich auf die Einschränkungen der eingebetteten KI auf intelligenten Geräten zu verlassen
Heute haben wir zwei Ansätze gesehen. Unabhängig von der Art des Sensors müssen fortschrittliche Datenanalyse- und künstliche Intelligenzsoftware in der Nähe oder innerhalb des Sensors ausgeführt werden. Beide Sensoransätze haben Vor- und Nachteile hinsichtlich Kosten, Effizienz, Skalierbarkeit und Flexibilität. In Edge-Umgebungen ist jedoch eine Edge-Computing-Infrastruktur erforderlich, um die Herausforderungen dieser Standorte zu bewältigen
Zu den Anforderungen an intelligente Sensoren gehören die Verarbeitung großer Mengen generierter Daten, eine ständige oder nahezu konstante Internetverbindung und möglicherweise ein enormer Strombedarf. Damit Basissensoren Daten in Echtzeit generieren können, müssen die generierten Daten auch vollständig zur Verarbeitung an einen sekundären Standort gesendet werden
Bei der Implementierung von Edge-KI gibt es Herausforderungen, die über die Sensoren selbst hinaus angegangen werden müssen . Dazu gehört die Diskrepanz zwischen den Kompetenzen Informationstechnologie (IT) und Betriebstechnologie (OT). Die Personen, die das Feld tatsächlich bedienen, unterscheiden sich von den Personen, die die KI-Modelle entwickeln, und jede Rolle hat unterschiedliche Prioritäten und Fachkenntnisse. Beide Teams müssen zusammenarbeiten, um KI erfolgreich an der Edge zu implementieren
Bei der Bewältigung der technischen Herausforderungen bei der Bewältigung der Komplexität, die mit dem Einsatz von KI/ML in der realen Welt in heterogenen Umgebungen und unter Bedingungen großer Veränderungen einhergeht, ist es wichtig, dort zu sein Es besteht die Notwendigkeit, einen konsistenten Bereitstellungsmechanismus für KI-Tools bereitzustellen, was Implementierungsmodelle und Edge-Computing-Infrastruktur erfordert.
Derzeit befinden sich viele Edge-KI-Projekte noch im Labor oder in der begrenzten Feldversuchsphase. Wenn Unternehmen beginnen, umfassende Produktionsbereitstellungen an Hunderttausenden von Standorten in Betracht zu ziehen, müssen sie auf einer Orchestrierungsgrundlage aufbauen, die eine Vielzahl unterschiedlicher Edge-Herausforderungen wie Diversität, Sicherheit und Ressourcenbeschränkungen bewältigen kann, und die Feldleistung vollständig verstehen, um sich darauf vorzubereiten für ungenaue Analysen oder andere Probleme, die auftreten können
Heutzutage können wir sehen, dass viele Branchen Projekte erfolgreich in verteilten Umgebungen einsetzen, wie z. B. verschiedene Einzelhandelsgeschäfte, Solarparks und Produktionsanlagen. Einige Unternehmen verwenden einfache Sensoren, um Daten an Edge-Knoten zu senden oder sogar Software in die Sensoren einbetten.
Nachdem die Automatisierung erreicht ist, werden die Daten im Beispiel vom Modell der künstlichen Intelligenz verarbeitet und Analysten auf der ganzen Welt in Echtzeit bereitgestellt. Sie können innerhalb einer Stunde analysieren und einen vollständigen Bericht verfassen. Techniker müssen nicht mehr physisch zum Standort reisen, um Analysen durchzuführen, wodurch physische Sicherheitsrisiken reduziert werden
Während wir daran arbeiten, mehr KI am IoT-Edge in Unternehmensnetzwerke für Anwendungen zu integrieren, die sich auf das Arbeits- und Privatleben auswirken, berücksichtigen wir Faktoren wie Skalierbarkeit und Sicherheit , Identität usw. müssen ebenso berücksichtigt werden wie Stabilität
In manchen Fällen können wir uns auf das Gerät selbst verlassen, um wichtige Entscheidungen zu treffen, aber wir benötigen dennoch künstliche Intelligenz für Automatisierung, Integration und Koordination
Das obige ist der detaillierte Inhalt vonWarum KI immer noch vor Herausforderungen und Einschränkungen steht. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!