Konferenz 19.05.2025, 08:10 Uhr

DWX hakt nach: Lokale KI unter Blazor MAUI - ist das möglich?

KI braucht Rechenpower ohne Ende, die in der Regel lokal nicht verfügbar ist. Dem setzt Jochen Kluger seinen Vortrag „Nahtlose KI in Blazor MAUI – komplett lokal“ auf der DWX Developer Week 2025 dagegen. Ist das realistisch?
(Quelle: Jochen Kluger)
„Frag die KI“ bedeutet in den meisten Fällen: „Schicke eine Anfrage an einen Dienst wie OpenAI, Anthropic oder Google. Sollen die Daten aber die eigene Firma nicht verlassen, muss die KI lokal laufen. „Das geht auch mit einfachen Mitteln“, sagt Jochen Kluger im Kurzinterview mit DWX. Jochen ist seit über 20 Jahren mit Leidenschaft in der Softwarearchitektur und -entwicklung tätig. Bereits kurz nach dem Studium machte er sich als Berater selbstständig und gründete später die Kluger.net GmbH, ein spezialisiertes Beratungsunternehmen für Softwareentwicklung - hauptsächlich im Gesundheitswesen. Seine Begeisterung für Technologie gibt er auch als Dozent an der DHBW Mannheim weiter.
Welche Herausforderungen siehst du aktuell bei der Integration von lokalen KI-Modellen in Blazor Apps, insbesondere im Hinblick auf Performance und Ressourcenmanagement?
Jochen Kluger: Die Größe der Modelle und die Geschwindigkeit bei der Generierung sind noch die größten Herausforderungen. Für die lokale Ausführung sind meines Erachtens ausreichend Frameworks und Beispiel-Implementierungen verfügbar, sodass heute schon jeder lokale KI-Modelle in seine Apps einbinden kann. Das Nachladen von mehreren Gigabyte großen Modellen stellt dann oft die erste Hürde dar, ist aber auf heutigen Geräten kein Showstopper mehr. Leider ist die lokale Generierung von Texten, Bildern oder Audio in ausreichender Qualität auf gängigen Geräten noch mit längeren Wartezeiten verbunden.
Gibt es bestimmte Best Practices oder Tools, die du empfehlen würdest, um lokale KI-Modelle effizient in Blazor Apps zu integrieren?
Jochen: Gerade bei der lokalen Ausführung kommt es auf viele Details an. Man muss genau prüfen, welches möglichst kleine Modell eine Qualität bietet, mit der man die Benutzer zufrieden stellen kann. Außerdem sollte man mit Roundtrips zwischen App und Modell sparsam umgehen – fast wie früher mit http-Aufrufen. Die Einbindung in eigene Apps wird immer einfacher – mit dem kommenden Microsoft.Extensions.AI gibt es dann ähnlich wie für Logging oder Konfiguration einen fertigen Baukasten, der vieles standardisiert und Komplexität verringert.
Wie schätzt du die zukünftige Entwicklung ein: Werden wir zunehmend komplexere KI-Modelle direkt in Blazor Apps laufen lassen können?
Jochen: Ich gehe davon aus, dass die großen Modelle längerfristig den Servern vorbehalten bleiben. Wir werden aber wahrscheinlich kleinere, spezialisiertere Modelle sehen, die dann auch lokal schnell genug Antworten liefern. Für die meisten Aufgaben ist schließlich nicht das komplette Weltwissen nötig.
Wer mehr darüber erfahren will, wie KI lokal unter Blazor MAUI läuft, sollte die DWX Developer Week besuchen und dem Vortrag von Jochen am 1. Juli 2025 um 18.00 Uhr im m:con Congress Center Rosengarten in Mannheim beiwohnen. Alle Informationen zur DWX Developer Week gibt es auf www.developer-week.de.


Das könnte Sie auch interessieren