Das Jahr 2024 war zweifellos von den bahnbrechenden Auswirkungen generativer KI auf Unternehmen geprägt. Doch KI ist nicht der einzige technologische Trend, der Wellen schlägt. Ein Wirbelsturm aus Kosten und Komplexität treibt die Rückverlagerung von Workloads aus der Public Cloud voran, insbesondere bei Speicher und Daten. Diese Bewegung wird zweifellos auch durch die Notwendigkeit angetrieben, die Datenlandschaft von Unternehmen zu optimieren, um die Versprechungen der KI nutzen zu können.
Dies hinterlässt Unternehmen mit einer hybriden IT-Umgebung, die sich über Public Cloud, On-Premises und Edge Computing erstreckt. Obwohl wir signifikante Verschiebungen von Workloads aus der Public Cloud hin zu On-Premises erwarten, glauben wir nicht, dass Unternehmen sich “vollständig” an einen Standort binden werden. Sie werden, wie bisher, standhaft hybrid bleiben. Dies stellt das Unternehmen vor erhebliche Herausforderungen bei der Standardisierung von Sicherheit, Bereitstellung und Betrieb über verschiedene Umgebungen hinweg. Die verwirrende Vielfalt an APIs und Tools bleibt eine bestehende Bedrohung für die Stabilität und Skalierbarkeit des digitalen Geschäfts.
Vor diesem Hintergrund untersucht F5 Technologien und deren potenzielle Auswirkungen auf Unternehmen und damit auf die Anwendungsbereitstellung und -sicherheit. Diese Konsequenzen fließen in unsere Pläne, unsere Strategie und die weitere Erforschung neuer Technologien ein. Aus dieser Perspektive bieten ausgewählte F5-Technologieexperten ihre Einblicke zu den fünf wichtigsten Technologien, von denen wir glauben, dass sie 2025 die größten Auswirkungen auf Unternehmen und damit auf die Anwendungsbereitstellung haben werden.
Technologie #1 für 2025: WebAssembly (Wasm)
Diese Realität treibt die erste unserer zu beobachtenden Technologien für 2025 an: WebAssembly (Wasm). Wasm bietet einen Weg zur Portabilität über die hybride Multi-Cloud-Landschaft hinweg und ermöglicht die Bereitstellung und Ausführung von Anwendungen überall dort, wo ein Wasm-Runtime betrieben werden kann. Aber Wasm ist mehr als nur eine Manifestation des Versprechens der plattformübergreifenden Portabilität von Code. Es bietet leistungs- und sicherheitsbezogene Vorteile und eröffnet neue Möglichkeiten zur Anreicherung der Funktionalität von browserbasierten Anwendungen.
Oscar Spencer, Principal Engineer, erklärt: WebAssembly im Browser wird voraussichtlich im Jahr 2025 keine drastischen Änderungen erfahren. Die bedeutendste Aktualisierung ist die fortgesetzte Unterstützung für WebAssembly Garbage Collection (GC), die bereits in Chrome integriert wurde. Dies wird Sprachen wie Dart und Kotlin zugutekommen, die stark auf GC angewiesen sind und ihre Präsenz in Browserumgebungen erweitern möchten. Es besteht auch Potenzial für Verbesserungen bei der Nutzung von Python im Browser, obwohl es noch zu früh ist, die volle Auswirkung vorherzusagen. Die größeren Entwicklungen finden jedoch außerhalb des Browsers statt, mit der Veröffentlichung von WASI (WebAssembly System Interface) Preview 3. Dieses Update führt asynchrone Funktionen und Streams ein und löst damit ein Hauptproblem bei der Stream-Datenverarbeitung in verschiedenen Kontexten, wie z. B. Proxys. WASI Preview 3 bietet effiziente Methoden für die Datenbewegung in und aus Wasm-Modulen und ermöglicht eine präzise Steuerung der Datenverarbeitung, wie z. B. die Änderung von Headern ohne die Verarbeitung ganzer Request Bodies. Darüber hinaus wird die Einführung von asynchronen Funktionen die Komponierbarkeit zwischen Sprachen verbessern und nahtlose Interaktionen zwischen asynchronem und synchronem Code ermöglichen, was besonders für Wasm-native Sprachen von Vorteil ist. Da sich die WASI-Standards stabilisieren, können wir mit einer signifikanten Zunahme der Wasm-Akzeptanz rechnen, die Entwicklern robuste Werkzeuge und eine zuverlässige Plattform für den Aufbau auf diesen Fortschritten bietet.
Unter der Annahme, dass Wasm einige der inhärenten Portabilitätsprobleme früherer Technologien lösen kann, würde es die Portabilitätsprobleme, mit denen 95 % der Organisationen heute zu kämpfen haben, auf andere kritische Ebenen des IT-Tech-Stacks, wie z. B. den Betrieb, verlagern. Im Wettlauf, dieser Herausforderung gerecht zu werden, steht generative KI und die immer realistischere Zukunft der AIOps. Diese fantastische Sicht auf den Betrieb – Änderungen und Richtlinien, die durch KI-basierte Analysen auf der Grundlage vollständiger Stack-Observability gesteuert werden – rückt dank der unglaublichen Evolutionsgeschwindigkeit generativer KI täglich näher an die Realität heran.
Technologie #2 für 2025: Agentic AI
Innerhalb weniger als eines Jahres sind Agenten entstanden, um KI-Funktionen zu ersetzen. Diese als Agentic AI bezeichnete Fähigkeit steht kurz davor, nicht nur den Betrieb neu zu gestalten, sondern ganze Enterprise-Softwaremärkte zu verdrängen. Man muss nur die Nutzung von KI zur Automatisierung von Arbeitsabläufen betrachten, die seit fast zwei Jahrzehnten von SaaS dominiert werden, um zu sehen, wie disruptiv diese Fähigkeit sein wird.
Laurent Quérel, Distinguished Engineer, erklärt: Autonome Coding-Agenten stehen kurz davor, die Softwareentwicklung zu revolutionieren, indem sie Schlüsselaufgaben wie Codegenerierung, Tests und Optimierung automatisieren. Diese Agenten werden den Entwicklungsprozess erheblich rationalisieren, den manuellen Aufwand reduzieren und die Projektlaufzeiten beschleunigen. In der Zwischenzeit wird die Entstehung von Large Multimodal Agents (LMAs) die KI-Fähigkeiten über die textbasierte Suche hinaus auf komplexere Interaktionen ausdehnen. Diese Agenten werden mit Webseiten interagieren und Informationen aus verschiedenen Formaten extrahieren, einschließlich Text, Bildern und Videos, und so die Art und Weise verbessern, wie wir Online-Inhalte abrufen und verarbeiten. Während KI-Agenten das Internet neu gestalten, werden wir die Entwicklung von Agenten-spezifischer Browsing-Infrastruktur sehen, die für die Erleichterung sicherer und effizienter Interaktionen mit Webseiten entwickelt wurde. Dieser Wandel könnte Branchen wie den E-Commerce stören, indem er komplexe Webtasks automatisiert, was zu personalisierteren und interaktiveren Online-Erlebnissen führt. Da diese Agenten jedoch zunehmend in das tägliche Leben integriert werden, werden neue Sicherheitsprotokolle und Vorschriften unerlässlich sein, um Bedenken hinsichtlich der KI-Authentifizierung, des Datenschutzes und des potenziellen Missbrauchs zu bewältigen. Bis 2028 wird erwartet, dass ein erheblicher Teil der Unternehmenssoftware KI-Agenten integrieren wird, was Arbeitsprozesse transformiert und Echtzeit-Entscheidungsfindung durch schnellere Token-Generierung in iterativen Arbeitsabläufen ermöglicht. Diese Entwicklung wird auch zur Schaffung neuer Werkzeuge und Plattformen für die agentengesteuerte Webentwicklung führen und einen wichtigen Meilenstein in der digitalen Landschaft markieren.
Aber die Wahrheit ist, dass man, um die Vorteile der KI vollständig zu nutzen, Daten benötigt – und zwar viele davon. Eine erhebliche Herausforderung, da fast die Hälfte (47 %) der Unternehmen zugibt, keine Datenstrategie für KI zu haben (https://www.f5.com/resources/reports/state-of-application-strategy-report). Dies ist keine triviale Herausforderung. Die Menge an Daten, die ein Unternehmen besitzt – strukturiert, unstrukturiert und Echtzeit-Metriken – ist atemberaubend. Allein die Katalogisierung dieser Daten erfordert erhebliche Investitionen.
Technologie #3 für 2025: Datenklassifizierung
Fügen Sie Sicherheitsbedenken hinzu, die sich aus dramatisch zunehmenden Angriffsflächen ergeben, neue Vorschriften zum Datenschutz und zur Compliance sowie die Einführung neuer Datenquellen und Bedrohungsvektoren, und Sie haben einen perfekten Sturm für den Aufstieg robuster, Echtzeit-Datenklassifizierungstechnologien. Zu diesem Zweck werden generative KI-Modelle voraussichtlich traditionelle regelbasierte Systeme bei der Erkennung und Klassifizierung von Unternehmensdaten übertreffen.
James Hendergart, Sr. Dir. Technology Research, erklärt: Die Datenklassifizierung gewann 2024 aufgrund mehrerer konvergierender Trends stark an Bedeutung. Die Explosion von Daten, Geräten und Anwendungen sowie die fortlaufende digitale Transformation erhöhten die Angriffsfläche für Cyberbedrohungen dramatisch. Dieser Anstieg der Schwachstellen unterstrich zusammen mit anhaltenden Datenpannen die kritische Notwendigkeit eines robusten Datenschutzes. Gleichzeitig haben expandierende Vorschriften zum Schutz des Datenschutzes und zur Gewährleistung der Compliance die Unternehmen weiter dazu gedrängt, der Datenklassifizierung Priorität einzuräumen, da die Klassifizierung der Ausgangspunkt für den Datenschutz ist. Darüber hinaus hat die Entstehung generativer KI neue Datenquellen und Angriffsvektoren eingeführt, was die Herausforderungen der Datensicherheit noch komplexer macht.
Etwa 80 % der Unternehmensdaten sind unstrukturiert. Mit Blick auf die Zukunft werden generative KI-Modelle zur bevorzugten Methode für die Erkennung und Klassifizierung unstrukturierter Unternehmensdaten, die Genauigkeitsraten von über 95 % bieten. Diese Modelle werden mit der Zeit effizienter werden, weniger Rechenleistung benötigen und schnellere Inferenzzeiten ermöglichen. Lösungen wie Data Security Posture Management (DSPM), Data Loss Prevention (DLP) und Data Access Governance werden zunehmend auf der Erkennung und Klassifizierung sensibler Daten als Grundlage für die Bereitstellung einer Reihe von Sicherheitsdiensten basieren. Da sich Netzwerk- und Datenbereitstellungsdienste konvergieren, wird die Plattformkonsolidierung Anbieter dazu veranlassen, ihre Angebote zu verbessern und Marktanteile zu gewinnen, indem sie umfassende, kostengünstige und einfach zu bedienende Plattformen anbieten, die den sich entwickelnden Unternehmensanforderungen gerecht werden.
Der gemeinsame Wunsch von Organisationen, generative KI für alles zu nutzen, von Produktivität über Workflow-Automatisierung bis hin zur Inhaltserstellung, führt zur Einführung eines neuen Anwendungsarchitekturmusters, da Unternehmen mit der Bereitstellung von KI-Fähigkeiten beginnen. Dieses Muster erweitert die traditionellen drei Fokusbereiche – Client, Server und Daten –, um eine neue KI-Schicht einzubeziehen, in der die Inferenz eingesetzt wird.
Technologie #4 für 2025: KI-Gateways
Diese neue Schicht trägt zur Definition von KI-Gateways bei, der vierten Technologie, die wir beobachten. KI-Gateways sind nicht nur API-Gateways oder Web-Gateways. Während ihre Basisfunktionen denen von API-Gateways ähneln, erfordert die spezielle Architekturanforderung für bidirektionalen, unstrukturierten Datenverkehr und eine wachsende Nutzerbasis von „guten“ Bots neue Fähigkeiten.
Ken Arora, Distinguished Engineer, erklärt: KI-Gateways entwickeln sich zur natürlichen Weiterentwicklung von API-Gateways, die speziell auf die Bedürfnisse von KI-Anwendungen zugeschnitten sind. Ähnlich wie Cloud Access Security Broker (CASBs) auf die Sicherung von Enterprise-SaaS-Anwendungen spezialisiert sind, werden sich KI-Gateways auf einzigartige Herausforderungen wie Halluzinationen, Voreingenommenheit und Jailbreaking konzentrieren, die oft zu unerwünschten Datenoffenlegungen führen. Da KI-Anwendungen mehr Autonomie gewinnen, werden Gateways auch eine robuste Sichtbarkeit, Governance und Sicherheit der Lieferkette bieten müssen, um die Integrität der Trainingsdatensätze und Drittanbieter-Modelle zu gewährleisten, die nun potenzielle Angriffsvektoren sind. Darüber hinaus werden mit wachsender Zahl von KI-Anwendungen Probleme wie Distributed Denial-of-Service (DDoS)-Angriffe und Kostenmanagement kritisch, angesichts der hohen Betriebskosten von KI-Anwendungen im Vergleich zu herkömmlichen. Darüber hinaus wird die zunehmende Datenweitergabe an KI-Anwendungen für Aufgaben wie Zusammenfassungen und Musteranalysen einen ausgefeilteren Schutz vor Datenlecks erfordern.
Zukünftig werden KI-Gateways sowohl Reverse- als auch Forward-Proxys unterstützen müssen, wobei Forward-Proxys kurzfristig eine entscheidende Rolle spielen werden, da der KI-Konsum die KI-Produktion übersteigt. Middle-Proxys werden ebenfalls unerlässlich sein, um Interaktionen zwischen Komponenten innerhalb von KI-Anwendungen zu verwalten, z. B. zwischen Vektordatenbanken und Large Language Models (LLMs). Die sich ändernde Bedrohungslandschaft erfordert auch eine Verlagerung unseres Sicherheitsansatzes. Da viele Clients zu automatisierten Agenten werden, die im Auftrag von Menschen handeln, werden die aktuellen Bot-Schutzmodelle weiterentwickelt, um zwischen legitimen und bösartigen Bots zu unterscheiden. KI-Gateways müssen erweiterte Richtlinien wie delegierte Authentifizierung, Verhaltensanalyse und Least-Privilege-Durchsetzung integrieren und sich dabei an Zero-Trust-Prinzipien orientieren. Dies wird risikobewusste Richtlinien und eine verbesserte Sichtbarkeit umfassen, um sicherzustellen, dass KI-gesteuerte Sicherheitsverletzungen effektiv eingedämmt werden und gleichzeitig eine robuste Governance aufrechterhalten wird.
Am dringendsten sind die Fähigkeiten, nicht nur traditionelle Sicherheitsbedenken in Bezug auf Daten (Exfiltration, Leckage), sondern auch ethische Probleme mit Halluzinationen und Voreingenommenheit anzugehen. Niemand ist überrascht, dass Letzteres in fast jeder Umfrage zu diesem Thema als signifikantes Risiko eingestuft wird.
Technologie #5 für 2025: Kleine Sprachmodelle (SLMs)
Angesichts der Probleme mit Halluzinationen und Voreingenommenheit wäre es undenkbar, die wachsende Nutzung von Retrieval-Augmented Generation (RAG) und Small Language Models (SLMs) zu ignorieren. RAG ist schnell zu einem grundlegenden Architekturmuster für generative KI geworden, insbesondere aufgrund seiner Fähigkeit, die Spezifität und Genauigkeit der von großen Sprachmodellen produzierten Informationen zu verbessern. Durch die Kombination der Stärken von Retrieval-Systemen mit generativen Modellen bietet RAG eine Lösung für eine der Schlüsselherausforderungen der KI: Halluzinationen oder die Erzeugung falscher oder irreführender Informationen.
Organisationen, die RAG noch nicht in ihre KI-Strategien integrieren, verpassen erhebliche Verbesserungen bei der Datenaccuracy und -relevanz, insbesondere für Aufgaben, die den Abruf von Echtzeitinformationen und kontextbezogene Antworten erfordern. Aber da sich die Anwendungsfälle für generative KI erweitern, stellen Unternehmen fest, dass RAG allein nicht alle Probleme lösen kann.
Lori MacVittie, Distinguished Engineer, erklärt: Die wachsenden Einschränkungen von LLMs, insbesondere ihr Mangel an Präzision beim Umgang mit domänenspezifischem oder unternehmensspezifischem Wissen, beschleunigen die Einführung kleiner Sprachmodelle. Während LLMs in allgemeinen Wissensanwendungen unglaublich leistungsfähig sind, versagen sie oft, wenn sie genaue, nuancierte Informationen in spezialisierten Bereichen liefern müssen. Diese Lücke ist es, in der SLMs glänzen, da sie auf spezifische Wissensbereiche zugeschnitten sind und dadurch zuverlässigere und fokussiertere Ergebnisse liefern können. Darüber hinaus benötigen SLMs deutlich weniger Ressourcen in Bezug auf Strom und Rechenzyklen, was sie zu einer kostengünstigeren Lösung für Unternehmen macht, die nicht für jeden Anwendungsfall die riesigen Fähigkeiten eines LLMs benötigen. Derzeit sind SLMs tendenziell branchenspezifisch und werden oft auf Sektoren wie dem Gesundheitswesen oder dem Recht trainiert. Obwohl diese Modelle auf engere Domänen beschränkt sind, sind sie sowohl in Bezug auf Kosten als auch auf Komplexität einfacher zu trainieren und bereitzustellen als LLMs. Da immer mehr Unternehmen nach Lösungen suchen, die besser auf ihre spezialisierten Datenbedürfnisse abgestimmt sind, werden SLMs voraussichtlich LLMs in Situationen ersetzen, in denen allein RAG-Methoden Halluzinationen nicht vollständig mindern können. Im Laufe der Zeit erwarten wir, dass SLMs zunehmend Anwendungsfälle dominieren werden, bei denen hohe Genauigkeit und Effizienz an erster Stelle stehen, und Organisationen eine präzisere und ressourceneffizientere Alternative zu LLMs bieten.
Ausblick: Jenseits von Transformatoren
Die Notwendigkeit effizienterer KI-Modelle, die die wachsende Komplexität moderner Anwendungen bewältigen können, ohne enorme Rechenressourcen zu benötigen, wird schnell zu einer bestehenden Notwendigkeit. Transformatormodelle sind zwar leistungsfähig, haben aber Einschränkungen in Bezug auf Skalierbarkeit, Speichernutzung und Leistung, insbesondere wenn die Größe von KI-Modellen zunimmt. Daher gibt es einen starken Trend zur Entwicklung von Architekturen, die eine hohe Genauigkeit aufrechterhalten und gleichzeitig den Rechenaufwand reduzieren. Darüber hinaus beschleunigt die Nachfrage nach der Demokratisierung von KI – die Zugänglichkeit über verschiedene Geräte und Anwendungsfälle hinweg – die Einführung von Innovationen wie 1-Bit-Large-Language-Modellen, die darauf ausgelegt sind, die Präzision zu optimieren und gleichzeitig die Hardwareanforderungen zu minimieren.
Diese Bedürfnisse treiben die Evolution der KI über Transformatoren hinaus an.
Kunal Anand, Chief Innovation Officer, erklärt: Ein neues Paradigma entsteht: die Konvergenz neuartiger neuronaler Netzwerkarchitekturen mit revolutionären Optimierungstechniken, die die Demokratisierung der KI-Bereitstellung über verschiedene Anwendungen und Geräte hinweg versprechen. Die KI-Community erlebt bereits frühe Anzeichen von Post-Transformer-Innovationen im Design neuronaler Netze. Diese neuen Architekturen zielen darauf ab, die grundlegenden Einschränkungen aktueller Transformatormodelle zu beheben und gleichzeitig ihre bemerkenswerten Fähigkeiten im Verständnis und in der Generierung von Inhalten aufrechtzuerhalten oder zu verbessern. Zu den vielversprechendsten Entwicklungen gehört die Entstehung hochoptimierter Modelle, insbesondere 1-Bit-Large-Language-Modelle. Diese Innovationen stellen eine grundlegende Veränderung dar, wie wir die Modelleffizienz angehen, und bieten drastische Reduzierungen der Speicheranforderungen und des Rechenaufwands, während die Modellleistung trotz reduzierter Präzision aufrechterhalten wird.
Die Auswirkungen dieser Entwicklungen werden in mehreren Wellen durch das KI-Ökosystem kaskadieren. Die primären Effekte werden sofort in den reduzierten Ressourcenanforderungen für die KI-Bereitstellung sichtbar. Modelle, die einst erhebliche Rechenressourcen und Speicher benötigten, werden mit deutlich geringerem Aufwand effizient betrieben. Diese Optimierung wird eine Verschiebung der Computerarchitektur auslösen, wobei GPUs möglicherweise für Trainings- und Feinabstimmungsaufgaben spezialisiert werden, während CPUs Inferenz-Workloads mit neu gewonnener Leistungsfähigkeit verarbeiten. Diese Änderungen werden eine zweite Welle von Effekten katalysieren, die sich auf Demokratisierung und Nachhaltigkeit konzentriert. Da die Ressourcenanforderungen sinken, wird die KI-Bereitstellung für verschiedene Anwendungen und Geräte zugänglich. Infrastrukturkosten werden erheblich sinken, was Edge-Computing-Fähigkeiten ermöglicht, die bisher unpraktisch waren. Gleichzeitig werden die reduzierte Rechenintensität ökologische Vorteile durch geringeren Energieverbrauch und einen kleineren CO2-Fußabdruck bringen, was KI-Operationen nachhaltiger macht.
Diese Entwicklungen werden beispiellose Fähigkeiten auf Edge-Geräten, Verbesserungen in der Echtzeitverarbeitung und eine kostengünstige KI-Integration branchenübergreifend ermöglichen. Die Computing-Landschaft wird sich hin zu hybriden Lösungen entwickeln, die verschiedene Verarbeitungsarchitekturen kombinieren, die für bestimmte Workloads optimiert sind, und so eine effizientere und vielseitigere KI-Infrastruktur schaffen. Die Implikationen dieser Entwicklungen reichen weit über technische Verbesserungen hinaus. Sie deuten auf eine Zukunft hin, in der die KI-Bereitstellung vielseitiger und umweltbewusster wird und gleichzeitig die Leistung aufrechterhält. Da wir uns 2025 nähern, werden diese Änderungen wahrscheinlich die Integration von KI in alltägliche Anwendungen beschleunigen und neue Möglichkeiten für Innovation und Effizienz in allen Branchen schaffen.
Die einzige Konstante ist jetzt wirklich der Wandel
Das vergangene Jahr war sicherlich eines des bedeutenden Wandels, der Entwicklung und der Überraschungen in der Technologie. Es ist vernünftig anzunehmen, dass das nächste Jahr mehr vom Gleichen bringen wird. Das volle Potenzial generativer KI wurde schließlich noch nicht erforscht, und das bedeutet, dass wahrscheinlich zusätzliche, disruptive Anwendungsfälle für diese aufregende Technologie auftauchen werden.
Wenn Organisationen nicht bereits mit generativer KI experimentieren, sollten sie es tun. Die Nutzung von Diensten bietet sicherlich einen guten Ausgangspunkt für grundlegende Anwendungsfälle wie Chatbots und Empfehlungssysteme, aber das Potenzial generativer KI geht weit über Gespräche und die Erstellung neuer Katzenvideos hinaus.
Erwarten Sie weitere Veränderungen und neue Wege, KI zu nutzen, da KI weiterhin die Grundlagen der Technologie neu gestaltet.
