Was ist Edge-KI?

URL kopieren

KI in beliebigen Umgebungen schneller bereitstellen – mit Red Hat OpenShift AI

Sehen Sie, wie Red Hat® OpenShift® AI den gesamten Lifecycle von KI/ML-Modellen und -Anwendungen beschleunigt – mit integrierten Tools, wiederholbaren Workflows, flexiblen Deployment-Optionen und einem bewährten Partnernetzwerk.

Künstliche Intelligenz (KI) am Edge (Edge AI oder Edge KI) ist die Implementierung von künstlicher Intelligenz in einer Edge Computing-Umgebung. So können Rechenvorgänge am Netzwerkrand durchgeführt werden, also in der Nähe der Orte, an denen die eigentliche Datenerfassung erfolgt, und nicht in einer zentralen Cloud Computing-Einrichtung oder einem ausgelagerten Rechenzentrum. Mit Edge-KI können Geräte schneller, intelligentere Entscheidungen treffen, ohne sich mit der Cloud oder externen Rechenzentren zu verbinden.

Da Edge Computing den Daten-Storage näher an den Standort des Geräts bringt, verarbeiten KI-Algorithmen die Daten, die auf dem Gerät erzeugt werden, mit oder ohne Internetverbindung. Dadurch können die Daten innerhalb von Millisekunden verarbeitet werden, was eine Rückmeldung in Echtzeit ermöglicht. Mit Edge-KI können Antworten fast augenblicklich geliefert werden. Dies kann mehr Sicherheit bieten, wenn dadurch einige sensible Daten den Netzwerkrand gar nicht erst verlassen.

Aufgrund ihrer Fähigkeit, Daten aus überlasteten Cloud-Rechenzentren zu verschieben, entwickeln sich Edge-Geräte wie Sensoren und IoT-Geräte zurzeit zu wichtigen Technologien.

Edge-KI unterscheidet sich vom traditionellen KI-Anwendungs-Framework, bei dem die von vernetzten Technologien erzeugten Daten an ein Backend-Cloud-System übertragen werden. Anstatt KI-Modelle im Backend auszuführen, werden sie auf Prozessoren in den angeschlossenen Geräten am Netzwerkrand (Edge) konfiguriert. Dadurch entsteht eine zusätzliche Informationsschicht am Edge. Das Edge-Gerät erfasst nicht nur Metriken und Analysen, sondern kann sie auch verarbeiten, da es über ein integriertes Modell für Machine Learning (ML, maschinelles Lernen) verfügt. So erhalten Sie eine echte KI am Edge.

Das Ziel der künstlichen Intelligenz bleibt dasselbe: intelligente Maschinen zu entwickeln, die ohne menschliche Aufsicht arbeiten und Aufgaben ausführen, die normalerweise Menschen erledigen. Die Edge-KI übernimmt jedoch die Arbeit und die Entscheidungsfindung vor Ort, und zwar im oder in der Nähe des verwendeten Geräts.

Die Kombination von Edge Computing und künstlicher Intelligenz bietet große Vorteile. Mit Edge-KI werden hochleistungsfähige Computing-Funktionen an den Netzwerkrand gebracht, wo sich Sensoren und IoT-Geräte befinden. Nutzende können Daten auf Geräten in Echtzeit verarbeiten, da keine Konnektivität und Integration zwischen Systemen erforderlich ist. Außerdem können sie Zeit sparen, indem sie Daten aggregieren und Nutzende bedienen, ohne mit anderen physischen Standorten zu kommunizieren.

Use Case: Red Hat und Guise AI bieten Edge-KI-gestützte Sichtprüfung

Vorteile von Edge-KI umfassen: 

  • Weniger Energieverbrauch: Sparen Sie Energiekosten mit Datenprozessen auf lokaler Ebene, da der Energiebedarf für den Betrieb von KI am Edge viel geringer ist als in Cloud-Rechenzentren.
  • Weniger Bandbreite: Reduzieren Sie die Bandbreite im Datenfluss und minimieren Sie die Kosten, indem Sie mehr Daten lokal verarbeiten, analysieren und speichern, anstatt sie in die Cloud zu übertragen.
  • Datenschutz: Verringern Sie das Risiko von missbräuchlich angeeigneten oder unsachgemäß gehandhabten Daten durch eine lokale Verarbeitung mithilfe von Edge-KI-Operationen auf Edge-Geräten.
  • Sicherheit: Priorisieren Sie wichtige Datenübertragungen, indem Sie Daten in einem Edge-Netzwerk verarbeiten und speichern oder redundante, überflüssige und nicht benötigte Daten herausfiltern.
  • Skalierbarkeit: Skalieren Sie Ihre Systeme mit cloudbasierten Plattformen und nativen Edge-Funktionen auf OEM-Geräten (Original Equipment Manufacturer). 
  • Geringere Latenzzeit: Nehmen Sie einen Teil der Last von der Cloud-Plattform und analysieren Sie lokal, um die cloudbasierte Plattform für andere Aufgaben wie etwa Analysen freizuhalten.

Mit KI/ML können sich Unternehmen auf spezifische Herausforderungen und Workloads vorbereiten. Erfahren Sie, wie verschiedene Branchen KI-Anwendungen nutzen.

Red Hat arbeitet intensiv und gemeinsam mit der Open Source Community an Container- und Kubernetes-Technologien. Red Hat® OpenShift® kombiniert getestete und bewährte Services, mit denen Sie Ihre Anwendungen reibungsloser entwickeln, modernisieren, bereitstellen, ausführen und verwalten können. 

Red Hat OpenShift enthält wichtige Funktionen, mit denen Sie MLOps (Machine Learning Operations) konsistent in Rechenzentren, Hybrid Cloud- und Edge-Umgebungen einsetzen können. Mit KI/ML auf Red Hat OpenShift können Sie KI/ML-Workflows und die Bereitstellung von KI-basierten intelligenten Anwendungen beschleunigen.

Red Hat OpenShift AI bietet eine flexible Umgebung für Data Scientists, Engineers sowie Entwicklerinnen und Entwickler, in der Projekte schneller und effizienter erstellt, bereitgestellt und integriert werden können. Weitere Vorteile sind integrierte Sicherheit und die Integration von Operator-Lifecycles. 

Unsere KI-Partner bauen auf der Red Hat Infrastruktur auf, um die Entwicklung von KI/ML-Anwendungen zu optimieren. Sie vervollständigen den KI-Lifecycle mit Lösungen, die von Datenintegration und -vorbereitung über Entwicklung, Training und Bereitstellung von KI-Modellen bis hin zu Inferenzen (Vorhersagen) auf der Grundlage neuer Daten reichen. 

Weiterlesen

Artikel

Was ist generative KI?

Generative KI stützt sich auf Deep Learning-Modelle, welche auf großen Datensätzen trainiert wurden, um neue Inhalte zu erstellen.

Artikel

Was ist Machine Learning?

Beim Machine Learning (ML) oder maschinellem Lernen wird ein Computer darauf trainiert, Muster zu finden, Vorhersagen zu treffen und aus Erfahrungen zu lernen, ohne explizit programmiert zu werden.

Artikel

Was sind Basismodelle?

Ein Basismodell ist ein Modell des maschinellen Lernens (ML), das für das Ausführen verschiedener Aufgaben trainiert ist. 

Mehr zu KI/ML

Produkte

Ein auf KI fokussiertes Portfolio, das Tools zum Trainieren, Tuning, Bereitstellen, Überwachen und Managen von KI/ML-Experimenten und -Modellen auf Red Hat OpenShift bietet.

Eine Plattform, die es Ihnen ermöglicht, Unternehmensanwendungen schnell und effizient über die von Ihnen gewünschte Infrastruktur bereitzustellen. 

Red Hat Ansible Lightspeed mit IBM watsonx Code Assistant ist ein generativer KI-Service, der von und für Teams aus dem Bereich Automatisierung, Operations und Entwicklung für Ansible konzipiert wurde. 

Ressourcen

E-Book

Wichtige Überlegungen beim Aufbau einer produktionsbereiten KI/ML-Umgebung

Analystenreport

Total Economic Impact™ der Red Hat Hybrid Cloud-Plattform für MLOps

Webcast

Mit Open Source und Kubernetes den größtmöglichen Nutzen aus KI ziehen