18. November 2024

Edge-KI: Die Herausforderungen riesiger Modelle meistern

Obwohl künstliche Intelligenz für ihr Potenzial zur Effizienzsteigerung in mehreren Branchen gepriesen wird, ist die Technologie auf einige Hindernisse gestoßen. Die Ineffizienz zentralisierter Server hat dazu geführt, dass einige Systeme hohe Latenz Probleme oder sogar AbstürzeAllerdings gibt es für diese Ineffizienzen möglicherweise eine Lösung: Edge Computing.

Edge-Computing bezieht sich auf die Datenverarbeitung in Netzwerken und Geräten, die näher am Benutzer sind, im Gegensatz zu traditionellen Rechenmethoden mit zentralisierten Servern und Datenzentren. Edge Computing ist überall in Aktion zu sehen, von Point-of-Sale-Systemen (POS) bis hin zu Geräten und Sensoren des Internet of Things (IoT) – im Wesentlichen sind Edge-Geräte alles, was lokal rechnet und mit der Cloud interagiert. Jetzt sehen wir, dass dieser Kategorie des Edge Computing zunehmend Modelle künstlicher Intelligenz hinzugefügt werden.

Die Schnittstelle zwischen KI und Edge Computing

Experte für künstliche Intelligenz Siddhartha Rao hat Erfahrung aus erster Hand im Umgang mit KI- und Cloud-Computing-Technologien. Nach mehr als einem Jahrzehnt Erfahrung in der Zusammenarbeit mit führenden Technologieunternehmen wie Amazon Web Services ist Rao heute Mitbegründer und CEO von Positronennetzwerke, ein KI-Unternehmen, das sich auf künstliche Intelligenzlösungen für die wissenschaftliche Forschungsgemeinschaft konzentriert. Angesichts der besonderen Bedürfnisse dieser Gemeinschaft interessiert sich Rao besonders für die Schnittstelle zwischen KI und Edge Computing.

„Es gibt mehrere Gründe, warum Edge Computing zu einem so wichtigen Paradigma geworden ist, darunter die Verringerung der Latenzzeit bei Benutzerinteraktionen, die Senkung der Cloud-Computing-Kosten und die Unterstützung von Offline-Benutzererlebnissen“, erklärt Rao. „Diese Vorteile stehen im Widerspruch zu anderen Zielen des Edge Computing, wie etwa der Verbesserung der Margen durch Senkung der Gerätekosten, der Verlängerung der Akkulaufzeit mit Prozessoren mit geringem Stromverbrauch oder dem Herunterladen von Modellaktualisierungen in Umgebungen mit geringer Bandbreite wie Entwicklungsländern.“

Dies wirft jedoch die Frage auf, wie künstliche Intelligenzmodelle – die eine erhebliche Rechenleistung erfordern – „am Rand“ ausgeführt werden können. Rao erklärt, dass für die erfolgreiche Übertragung künstlicher Intelligenzmodelle an den Rand eine Vereinfachung dieser Vorgänge erforderlich sei.

„Ein Modell ist eine Folge linearer Algebra-Operationen (Matrizenmathematik), die nacheinander ausgeführt werden, um eine Antwort auf der Grundlage einer Eingabe vorherzusagen“, erklärt Rao. „Ingenieure und Wissenschaftler für maschinelles Lernen reduzieren die mathematische Komplexität dieser Operationen durch die Anwendung verschiedener Techniken. Das Ergebnis sind kleinere Modelle, die weniger Rechenzyklen zur Ausführung benötigen, was den Rechenaufwand verringert und die Margen verbessert, während gleichzeitig die Akkulaufzeit verbessert wird.“

„Diese Technik hat mehrere positive Auswirkungen auf die Branche“, fährt er fort. „Beispielsweise werden Modelle mit geringerer Latenz ausgeführt, verbrauchen weniger Batteriestrom und erzeugen weniger Wärme. Sie verbrauchen außerdem weniger Cloud-Computing-Ressourcen für die Ausführung, was ihre Umweltbelastung weiter verringert, und sie reduzieren den Bandbreitenverbrauch bei Modellaktualisierungen. All diese Vorteile verbessern das Benutzererlebnis und verbessern gleichzeitig die Margen, indem sie die Kosten der Waren senken.“

Warum Edge Computing die Zukunft der KI ist

Der Hauptvorteil von Edge Computing besteht darin, dass es das Benutzererlebnis deutlich verbessert. Latenz ist eine der größten Herausforderungen für jede technologische Innovation, insbesondere angesichts der kurzen (und abnehmenden) Aufmerksamkeitsspanne des Menschen.

„Wenn ein Edge-Gerät für eine Vorhersage immer auf die Cloud zugreifen muss, verschlechtert die Auswirkung auf die Latenz das Benutzererlebnis und verringert die Kundenbindung“, erklärt Rao. „Weniger engagierte Kunden nutzen das Gerät wahrscheinlich weniger, was den Nutzen und die Akzeptanz verringert.“

Edge Computing kann möglicherweise auch die Kosten für künstliche Intelligenz auf ein Niveau senken, das für kleinere Unternehmen erschwinglicher ist. Schließlich ist die Wartung der Server, die für den Betrieb groß angelegter Modelle erforderlich sind, kostspielig. Edge Computing reduziert die Komplexität dieser Anwendungen, sodass sie am Rand ausgeführt werden können.

Rao warnt jedoch auch vor einigen Konsequenzen, die Edge Computing im KI-Bereich haben könnte, und bezeichnet sie als „Kompromisse“ für die Vorteile, die es bietet. „Höhere Fehler- und Wahnvorstellungsraten durch die Verwendung geringerer Präzision wirken sich anschließend auf die Genauigkeit der Antwort aus“, erklärt er. „Wissensdestillation kann Voreingenommenheit und Fairnessprobleme in den größeren Modellen verstärken. Schließlich erfordert Edge Computing die Einstellung teurer, spezialisierter Talente im Bereich maschinelles Lernen und den Erwerb teurer Trainingsinfrastruktur für maschinelles Lernen wie GPUs, die stark nachgefragt sind.“

Als Beispiel für die erfolgreiche Schnittstelle zwischen künstlicher Intelligenz und Edge-Computing-Technologie verweist Rao auf einen Anwendungsfall aus seiner Zeit bei AWS, bei dem ein Modell erfolgreich im großen Maßstab vereinfacht wurde. „Ein von mir bei AWS gesponsertes Modell wurde im Opus-Codec verwendet“, sagt er. „Dieser Codec wird weltweit von über einer Milliarde Geräten verwendet und wurde kürzlich von Amazon mit einem auf maschinellem Lernen basierenden Paketverschleierungsalgorithmus aktualisiert, der Audiostreams sogar in verlustbehafteten Netzwerken wiederherstellte. Dieser Codec kann auf Geräten mit begrenzter Verarbeitungsleistung wie einem Raspberry Pi oder einem Tischtelefon verwendet werden, um Audiosamples in Millisekunden vorherzusagen.“

Rao erwähnt auch einen Anwendungsfall, der im Verteidigungssektor besonderes Potenzial gezeigt hat. „Echtzeit-Video wurde von Kameras am Zielfernrohr eines Soldaten verarbeitet, um diesen zu erkennen, ob die Bewegungen eines Kämpfers verdächtig waren oder möglicherweise eine böswillige Aktivität wie Terrorismus unterstützten“, fügt er hinzu. „Der Soldat konnte dann die Überwachung auf sensible und risikoreiche Schlachtfeldbereiche konzentrieren. In beiden Beispielen wurde komplexes Echtzeit-Audio oder -Video von stromsparenden Mikroprozessoren verarbeitet, die auf IoT-Geräten liefen.“

Tatsächlich sind diese Anwendungsfälle perfekte Beispiele dafür, wie künstliche Intelligenz, die am Rand berechnet wird, in Bezug auf Effizienz und Kosten überlegene Ergebnisse liefert. „Wenn die neuesten KI-Modelle nicht für den Betrieb am Rand optimiert werden können, werden ihre Anwendungen auf Cloud-Anwendungen und Benutzererfahrung beschränkt sein“, schlussfolgert Rao.

Technologie

Über den Autor 

Kyrie Mattos


{"email": "E-Mail-Adresse ungültig", "url": "Website-Adresse ungültig", "erforderlich": "Erforderliches Feld fehlt"}