SAP, ein deutsches multinationales Softwareunternehmen, entwickelt und vermarktet Unternehmenssoftware zur Verwaltung von Geschäftsabläufen und Kundenbeziehungen. Besonders bekannt ist SAP für seine Enterprise Resource Planning (ERP)-Lösungen wie SAP ECC und SAP S/4HANA. Doch jede einzelne Lösung besteht aus zahlreichen Komponenten. Möchte ein Unternehmen beispielsweise SAP ECC einführen, müssen IT-Teams verschiedene Versionen, Architekturen, Integrationsoptionen (z. B. proprietäre und offene Schnittstellen sowie mehrere SAP Middleware-Optionen) und Drittanbieter-Plug-in-Lösungen berücksichtigen. Dieser Blogbeitrag beleuchtet, wie SAP eine moderne, skalierbare Herangehensweise für die Apache Kafka® und SAP Integration bietet, indem es Kafka Connect und den ODP Connector von INIT Software nutzt. Der Fokus liegt dabei auf der effizienten und robusten Verbindung von SAP-Systemen mit der dynamischen Welt der Event-Streaming-Plattformen.
Die Herausforderung der SAP-Kafka-Integration
Die Integration von Kafka und SAP-Systemen, sowohl auf der Daten- als auch auf der Anwendungsebene, bietet eine Vielzahl von Optionen. Dies macht die Wahl des richtigen Ansatzes für Unternehmen sowohl herausfordernd als auch entscheidend. Hier sind einige der gängigsten Methoden:
- Traditionelle Middleware (ETL/ESB): Bewährte Lösungen für die Datenextraktion, -transformation und -ladung oder für die Enterprise Service Bus-Architektur.
- Web Services (SOAP/REST): Standardisierte Schnittstellen für die Kommunikation zwischen Systemen über das Netzwerk.
- Drittanbieter-Komplettlösungen: Spezifische Softwareprodukte, die eine fertige Integration zwischen SAP und Kafka bieten.
- Kafka-native Konnektivität mit Kafka Connect: Ein Framework im Kafka-Ökosystem, das speziell für die nahtlose Integration mit anderen Systemen entwickelt wurde.
- Benutzerdefinierter Code mittels SAP SDKs: Individuelle Entwicklung unter Verwendung der von SAP bereitgestellten Software Development Kits.
Die Recherche und Entscheidung, welche Option die richtige ist, ist aufgrund der Vielfalt der Integrationsalternativen, SAP-Produkte, Schnittstellen und Anwendungsfälle keine leichte Aufgabe. Der Blogbeitrag Kafka SAP Integration – APIs, Tools, Connector, ERP et al beleuchtet die verschiedenen verfügbaren Optionen, ihre Anwendungsfälle sowie deren Vor- und Nachteile.
Eine wichtige Überlegung ist, ob das Projekt eine externe Drittanbieter-Integrationslösung (wie ein ESB- oder ETL-Tool) oder eine Kafka-native Integrationslösung (oft basierend auf Kafka Connect) erfordert. Beide Ansätze haben ihre jeweiligen Vor- und Nachteile. Der Blogbeitrag Apache Kafka vs. Enterprise Service Bus (ESB) – Friends, Enemies, or Frenemies untersucht die unterschiedlichen Konzepte und Architekturen zwischen ESB-/ETL-Tools und dem Kafka-Ökosystem.
Im Folgenden wird eine Integrationsoption vorgestellt, die auf Kafka Connect und SAP Operational Data Provisioning (ODP) basiert. Diese Kombination vereint eine vollständig unterstützte schlüsselfertige Lösung mit den Vorteilen von Kafka Connect und der Confluent Platform, um hohe Skalierbarkeit und Performance, einfache Installation und Bedienung sowie geschäftskritische Support-SLAs zu bieten.
INIT Software und der SAP ODP Connector: Eine leistungsstarke Lösung
INIT Software: Experte für SAP-Integrationen
Seit ihrer Gründung im Jahr 1996 konzentriert sich die INIT Individuelle Softwareentwicklung & Beratung GmbH auf SAP-bezogene Projekte in heterogenen Systemlandschaften, komplexen Strukturen und Geschäftsprozessen sowie verteilten Informationen. Für die hier vorgestellte Lösung waren unsere praktische Projekterfahrung im Hadoop-Ökosystem sowie unser kontinuierlicher Fokus auf die Entwicklung von Lösungen für die SAP-Integration mittels verschiedener Technologien besonders vorteilhaft. Die Kernkompetenz von INIT liegt darin, Brücken zwischen komplexen SAP-Welten und modernen Datenarchitekturen zu bauen, was sie zu einem idealen Partner für die Sap Kafka Integration macht.
Architektur des ODP Source Connectors
Die wichtigsten Aspekte für architektonische Entscheidungen, die wir bei der Entwicklung der SAP Connectors getroffen haben, waren Skalierbarkeit, Performance, Einfachheit, breite Anwendbarkeit und ein enger, von modernen Microservices inspirierter Anwendungsbereich. Die enge Integration mit dem Kafka-Ökosystem über die Kafka Connect API ermöglicht es, die zentralen Logging-, Monitoring-, Konfigurations- und Wartungsfunktionen der Confluent Platform zu nutzen, sowie konsistente Dienste wie Failover-Recovery und Exactly-Once-Delivery-Semantik mittels logischer Offsets, Back-off-Recovery, Datentransformationen in verschiedene Datenformate, Schema-Handling und vieles mehr.
Das folgende Diagramm bietet einen Überblick über die interne Architektur, die für den ODP Source Connector gewählt wurde. Es stellt das vielseitigste, sofort einsatzbereite Design dar, um Daten aus SAP NetWeaver ABAP-basierten Systemen zu sammeln und diese unter Verwendung bewährter Technologie und Schnittstellen in Kafka zu schreiben.
Architektur des ODP Source Connectors für SAP-Daten
SAP Operational Data Provisioning (ODP) im Detail
SAP bietet verschiedene Lösungen für die Interaktion und den Datenaustausch mit nativen SAP-Systemen, wovon eine das Operational Data Provisioning (ODP) ist. ODP kann für die Datenextraktion aus SAP NetWeaver AS ABAP-basierten Systemen wie SAP ERP, ECC oder S/4HANA verwendet werden. Es ist jedoch nicht auf Systeme wie SAP Ariba, Business One, Concur und SuccessFactors anwendbar.
INIT wählte SAP ODP als Integrationsansatz für seinen Source Connector, da es eine einzigartige technische Infrastruktur für die Datenextraktion und -replikation bietet. ODP hat sich zur zentralen Infrastruktur für die Datenreplikation von SAP ABAP-Systemen nach SAP BW/4HANA entwickelt. Die ODP API v2.0 ermöglicht es dem Connector, sich mit verschiedenen Quelltypen, den sogenannten Kontexten, zu verbinden, darunter die bekannten SAPI DataSources (Extraktoren), HANA Views, BW InfoProvider, SLT und ABAP CDS, um nur einige zu nennen. Die Mehrheit der historischen Business-Content-Datenquellen wurde auf ODP migriert. Neben dem direkten Datenzugriff, der vollständigen Replikation, Change Data Capture (CDC) oder Delta-Replikation, Dateninitialisierung, Echtzeit-Datenreplikation, Projektionen und Filtern, fügt ODP eine weitere Schicht hinzu, um eine einheitliche Datenreplikationserfahrung zu ermöglichen. Dies führt zu einer Leistungssteigerung bei der Datenextraktion, im Gegensatz zum direkten Zugriff auf die zugrunde liegende 7.x-Datenquelle. Dies ermöglicht auch Abonnements von mehreren Konsumenten durch die Persistenz von Daten in einem komprimierten Format in einer Delta-Queue. ODP ist somit ein zentraler Baustein für eine performante SAP Kafka Integration.
Der Kafka Connect ODP Source Connector
Kafka Connect ist eine native Open-Source-Komponente von Kafka und ein Framework zur nahtlosen Integration von Drittsystemen mit Kafka. Es bietet eine High-Level Connect API für die Entwicklung von Source- und Sink-Konnektoren und integriert sich in die Confluent Platform.
Der ODP Connector ist vollständig konform mit der Connect API und integriert sich nahtlos in Kafka Connect und die Confluent Platform. Im Gegensatz zu Konnektoren, die mit der Low-Level Consumer und Producer API entwickelt werden, bietet die Connect API eine enge Integration mit Kafka Connect. Dies reduziert den Aufwand für die Implementierung gängiger funktionaler Verhaltensweisen wie Back-off-Strategie und Exactly-Once-Semantik erheblich, indem das native logische Offset-Management von Kafka Connect genutzt wird.
Der Installationsprozess des Konnektors ist so einfach wie das Herunterladen und Entpacken des Konnektor-Archivs vom Confluent Hub, was durch die Verwendung des Confluent Hub CLI weiter kodifiziert werden kann. Es gibt nur eine externe Abhängigkeit, um die Sie sich manuell kümmern müssen: das Kopieren der SAP Java Connector (SAP JCo)-Bibliothek in den Classpath des Konnektors. Die SAP JCo-Bibliothek kann vom SAP Marketplace heruntergeladen werden.
Der Connector ist auch vollständig in das Confluent Control Center integriert. Wenn es um die Instanziierung, Wartung und Konfiguration des Konnektors geht, führt Sie das Control Center mit einer ausgeklügelten Web-Benutzeroberfläche durch jeden einzelnen Schritt. Sie können den Konnektor auch über eine einfache Eigenschaften-Datei oder die Kafka Connect REST API konfigurieren, aber Sie verpassen dann den interaktiven Modus des Control Centers, der abhängige Eigenschaften anzeigt/ausblendet und Metadateneinträge aus dem Quellsystem erkennt, wodurch eine sofortige Validierung der Dateneingabe ermöglicht wird.
Die folgenden Abbildungen zeigen eine im Confluent Platform laufende Connector-Instanz. Diese wurden während eines Delta-Initialisierungstests aufgenommen, bei dem etwa 2 Millionen Datensätze und ungefähr 1 GB Daten aus Kreditorenbuchungen extrahiert wurden.
Kafka Connect ODP Connector-Instanz im Confluent Control Center
SAP ODP kann entweder über RFC oder OData konsumiert werden. Der Konnektor verwendet SAP JCo anstelle von OData, um RFC-basierte Verbindungen für optimale Leistung bei der Datenreplikation sehr großer Datensätze herzustellen. Darüber hinaus bietet JCo zusätzliche native Service-Merkmale für SAP, einschließlich Systemlastverteilung mittels SAP Message Server Logon-Gruppen, Datenintegrität durch Anwendung von Secure Network Communication (SNC), Single Sign-On-Authentifizierung und Datenverschlüsselung. Für detailliertere Informationen über den Konnektor zusammen mit Einführungsvideos verweisen wir auf die INIT Dokumentation.
Anwendungsfall: CDC-fähige Datenextraktion aus SAP in Echtzeit
Zum Zeitpunkt dieses Artikels sind bereits mehrere Konnektoren im Confluent Hub verfügbar, die die Datenextraktion aus verschiedenen SAP-Systemen unterstützen. Sowohl der Confluent JDBC-Konnektor, kombiniert mit dem HANA JDBC-Treiber (ngdbc.jar), als auch der SAP HANA-Konnektor können verwendet werden, um Daten aus der zugrunde liegenden HANA-Datenbank des SAP ERP-Systems zu extrahieren und in diese einzufügen. Sie können mit den meisten SAP-Geschäftsanwendungen verwendet werden. Der Nachteil eines solchen Ansatzes, wie bei allen verwandten Datenbank-Konnektoren, ist die direkte Integration mit der Datenpersistenzschicht und die damit verbundene Umgehung der Anwendungsschicht. In den meisten Szenarien enthält die Datenbank reine technische Informationen, verteilt über mehrere Tabellen, und das Geschäftsobjekt wird in der Anwendungslogik abgeleitet, die diese Daten verarbeitet.
Es gibt auch andere nicht-Kafka Connect-basierte Lösungen, wenn es um die Replikation von SAP-Daten in Kafka geht. Es gibt jedoch gute Gründe, Kafka Connect in Betracht zu ziehen, wenn es darum geht, externe Systeme in Kafka zu integrieren.
Der ODP Source Connector ist die perfekte Lösung, wenn Sie Geschäftseinheiten aus SAP AS ABAP in Ihre Kafka Event-Streaming-Plattform aufnehmen müssen. ODP bietet eine Vielzahl von Quellsystem-Kontexten und Extraktoren zur Auswahl. SAP hat viel Mühe investiert, die meisten der Business Content Extractors, die hauptsächlich zur Replikation von SAP-Entitäten in SAP BI und dann nach ODP verwendet wurden, zu migrieren. Dies ist ein entscheidender Vorteil für die flexible und umfassende SAP Kafka Integration.
Vorteile der Operational Delta Queue (ODQ)
Der Connector unterstützt Delta-fähige ODP-Datenquellen, bei denen die Daten in einer Operational Delta Queue (ODQ) persistiert werden. In diesem Szenario sind CDC und andere optionale Merkmale wie die Echtzeit-Datenerfassung als Teil des Extraktors implementiert. Die ODQ über dem Extraktor ermöglicht Wiederherstellungsszenarien, mehrere Abonnenten, asynchrone Kommunikation und Datenkomprimierung. Für jede Replikation, unabhängig von der Anzahl der Datensätze, wird eine eindeutige Anfrage erstellt, die im entsprechenden SAP-Quellsystem-Monitor (ODQMON) überwacht werden kann. Diese Anfrage verfolgt auch den Status der Datenextraktion selbst und funktioniert ähnlich wie ein Offset-Commit in Kafka. Der Connector nutzt die Anfrage-Statusbehandlung auf SAP-Seite und die logische Offset-Behandlung der Connect API auf Kafka-Seite, um Informationen darüber zu speichern, welcher Datensatz schließlich in Kafka geschrieben wurde, auf beiden Seiten des Connectors. Dies bildet die Grundlage für Exactly-Once-Delivery-Garantien, auch in Situationen, in denen Sie die Connector-Instanz starten oder stoppen müssen oder wenn der Connector oder die gesamte Plattform nicht verfügbar ist.
Eine ODQ-Anfrage wird weiter in Pakete konfigurierbarer Größe unterteilt. Wenn der Connector für die Datenextraktion aus mehreren Datenquellen konfiguriert ist, sorgen das Aufgabenmanagement und die faire paketbasierte Extraktionsplanung über mehrere Quellen hinweg für schnelle und konsistente Antwortzeiten des Connectors. Diese Strategie unterstützt den kontinuierlichen und skalierbaren Betrieb im Falle von Event-Streaming oder sogar Batch-Verarbeitung, z.B. bei der Durchführung einer Delta-Initialisierungslast mit riesigen Datensätzen.
Skalierbare und performante Datenverarbeitung
Wie bei Event-Streaming-Plattformen üblich, ist der Connector darauf ausgelegt, einmal konfiguriert und gestartet zu werden und dann unbegrenzt zu laufen, ohne dass komplexe Verwaltungsaufgaben erforderlich sind. Neben verschiedenen Arten von Metadatenanfragen von SAP wird dies durch eine integrierte exponentielle Back-off-Strategie im Falle von Ausfallzeiten oder Kommunikationsproblemen mit dem SAP-System ermöglicht. Basierend auf einer differenzierten Interpretation von Fehlermeldungen und Ausnahmen weiß der Connector, ob er es mit einem dauerhaften Fehler oder einem potenziell temporären Problem zu tun hat. Die Back-off-Strategie wird nur bei temporären Problemen angewendet und versucht, sich wiederholt mit SAP zu verbinden, indem unterschiedliche Wartezeiten angewendet werden, bis eine maximale Anzahl von Wiederholungsversuchen erreicht ist. All dies ist über das Confluent Control Center konfigurierbar.
ODP wurde von INIT und anderen als leistungssteigernd nachgewiesen (SAP BW ODP Performance Improvements and Benefits). Zusammen mit einem ausgeklügelten Design, JCo als hochperformanter Schnittstellentechnologie und Kafka als moderner verteilter Event-Streaming-Plattform bietet der Connector hohe Skalierbarkeit und Performance bei der Verarbeitung von Daten in nahezu Echtzeit oder in Batches. Dies macht ihn zu einer ausgezeichneten Wahl für die SAP Kafka Integration.
Vorteile und Einschränkungen des ODP Source Connectors
Die folgende Übersicht fasst die wichtigsten Vorteile und Einschränkungen des ODP Source Connectors zusammen.
Vorteile
- Gold Verified von Confluent für die Erfüllung der Standard-Integrationsanforderungen.
- Unterstützt Confluent Hub CLI, Control Center, Schema Registry, SMTs und Konverter für einfache Installation, Konfiguration, Administration, Integration und Überwachung.
- Enthält geeignete Datentypzuordnungen von SAP ABAP, DDIC und JCo Datentypen zum internen Kafka Connect Datenmodell.
- Kompatibel mit verschiedenen Datentypkonvertern; das Ändern des für die Speicherung von Nachrichten in Kafka verwendeten Datenformats ist nur eine Frage der Aktualisierung der Konfigurationseinstellungen (dies wurde mit bestehenden JSON- und Avro-Konvertern getestet).
- Nutzt intensiv SAP-Metadaten und unterstützt daher die vollautomatische Erkennung komplexer und verschachtelter Schemata, die von der Schema Registry zur Verfügung gestellt werden.
- Bietet Exactly-Once-Delivery-Semantik.
- Wendet eine Back-off-Strategie im Falle von Ausfallzeiten des Quellsystems oder Kommunikationsproblemen an.
- Kompatibel mit Single Message Transformations (SMTs).
- Nutzt Datenaufbewahrung in ODQ für asynchrone Übertragung und Wiederherstellungszwecke.
- Unterstützt SAP NetWeaver AS ABAP auf AnyDB.
- Getestet mit S/4HANA, BW und ERP bei verschiedenen Kunden.
- Verwendet JCo, eine Hochleistungs-JNI-basierte RFC-Middleware.
- Kann mit verschiedenen vorab gelieferten Business Content Data Sources (siehe SAP Hinweis 2232584), ABAP CDS Views und anderen verwendet werden.
- Kann angepasst werden, um eine Connector-Instanz pro Datenquelle oder mehrere Datenquellen pro Connector-Instanz zu verwenden; diese Szenarien haben Vor- und Nachteile, wie die Nutzung einer begrenzten Anzahl von Aufgaben für eine übermäßige Anzahl von Datenquellen oder die Unabhängigkeit bei Ausfällen einer in derselben Instanz laufenden Quelle.
- Bietet volle Unterstützung für die ODQ-Anforderungsüberwachung in SAP (über Transaktion ODQMON).
- Nativ integriert und kompatibel mit Kafka Connect.
- Integriert sich in Kafka Connect Logging unter Verwendung von SLF4J.
Einschränkungen
- Der ODP Connector ist ausschließlich ein Source Connector. Er unterstützt eine Vielzahl von Quelltypen, aber SAP ODP wurde nicht für den bidirektionalen Datenaustausch entwickelt. INIT bietet mehrere andere Konnektoren mit unterschiedlichen Integrationsprotokollen an, um zusätzliche Quell- und sogar Sink-Szenarien zu ermöglichen.
- Einige von SAP bereitgestellte Business Content Data Sources funktionieren nicht out-of-the-box und erfordern eine individuelle Konfiguration, z. B. logistische Data Sources. Einige müssen sogar Batch-Jobs zur Datensammlung im SAP-System planen, die neben OLTP-Aufgaben zusätzliche Hardware-Ressourcen verbrauchen.
- Der Connector unterstützt nur Delta-fähige Data Sources. Dies ist eine Designentscheidung, da reguläre vollständige Extraktionen nicht ausreichend zur Idee des Event-Streaming passen und CDC Teil der Quelle sein sollte.
- Es wird keine Unterstützung für die ODP-Echtzeitdatenerfassung angeboten, da dies nicht der Connect API entspricht.
- Der Connector skaliert bis zu einer ODP-Quelle pro Kafka Connect Worker-Aufgabe. Eine weitere Aufteilung von Verarbeitungseinheiten und Parallelisierung würde die Garantien für die sequentielle Reihenfolge brechen.
- SAP RFC über JCo ist ein veraltetes und proprietäres Kommunikationsprotokoll.
- Die ODP API v2.0 erfordert eine SAP_BASIS-Version ≥ 730 (siehe SAP Hinweis 1931427).
- Der Connector erfordert eine direkte RFC-Verbindung zwischen SAP und Kafka.
Ist der ODP Connector die richtige Wahl für Ihr Unternehmen?
Wenn Ihr geschäftlicher Anwendungsfall die Integration von Geschäftsinhalten aus einem SAP AS ABAP-Modul in Kafka erfordert und über die einfache Datenreplikation auf Datenbankebene hinausgeht, könnte der ODP Connector die beste Wahl für Sie sein. Erfahren Sie, wie INIT den Connector bei einem Kunden zur Replikation von Kreditorenbuchungen aus SAP FI eingeführt hat: Evaluation of integrating SAP NetWeaver™-based systems in Apache Kafka®.
Leichtgewichtige, Kafka-native SAP-Integration
Der ODP Source Connector ist eine kostengünstige, Kafka-native, leichtgewichtige und skalierbare Lösung für den Konsum von Geschäftsinformationen aus SAP AS ABAP-basierten Systemen in Kafka. Er ist die richtige Wahl für Sie, wenn:
- Die oben genannten Einschränkungen des Connectors für Ihren Anwendungsfall nicht zutreffen oder vermieden werden können.
- Sie nicht bereits eine andere Lösung mit ähnlichen Funktionalitäten betreiben, wie z. B. eines der Drittanbieter-ETL-Tools, SAP Data Hub/Data Intelligence, Cloud Platform Integration, Data Services, HANA SDI oder SAP BW.
- Die bestehende Integrationslösung keine ausreichenden Servicegarantien bietet, z. B. nicht skaliert, nicht kosteneffektiv ist, übermäßige Latenz hinzufügt oder nicht in Echtzeit liefern kann, unzureichende SLAs aufweist oder unnötige Komplexität mit sich bringt.
- Sie eine schlanke und gut integrierte Lösung mit Servicegarantien wie Exactly-Once-Semantik und integrierter Wiederherstellung bevorzugen, die einfach zu warten ist.
Einfache Installation, Verwaltung und Überwachung ohne zusätzliche Tools
Die meisten alternativen Lösungen erfordern die Installation und Wartung zusätzlicher Anwendungen oder monolithischer Systeme, die sich nicht nur auf die Datenreplikation, sondern auch auf ETL-Transformationslogik oder Analysen konzentrieren. Dies können ein Data Hub Kubernetes Cluster, Data Services Jobserver, ein SDI Data Provisioning Server, ein komplexes SAP BW-System, eine SAP PO-Instanz oder ein SAP Cloud Platform Abonnement sein. Die meisten dieser zusätzlichen Schichten der Datenintegration erhöhen nicht nur die Gesamtbetriebskosten (TCO), sondern auch die Latenz der Datenübertragung – oder schlimmer noch – können die Anforderungen an moderne Event-Streaming-Infrastrukturen nicht erfüllen.
Bei der Verwendung des ODP Source Connectors müssen Sie keine zusätzlichen Systeme über Kafka Connect hinaus für die Datenreplikation und ETL installieren. Bei der Entwicklung des Connectors konzentrierten wir uns ausschließlich auf die Eins-zu-eins-Datenreplikation und die entsprechenden Service-Merkmale. Anstatt das Rad zweimal zu erfinden, verlässt sich der Connector auf andere Funktionen von Kafka und etablierte Analyse-Frameworks und -Tools, wenn es um Transformationen, Datenbereinigung, Analysen, prädiktive Aufgaben und anderes geht.
Fazit: Skalierbare und performante SAP-Kafka-Integration
Die Nachfrage nach der Integration von SAP-Anwendungen mit Kafka für Echtzeit-Messaging, Datenintegration und Datenverarbeitung in großem Maßstab ist weltweit enorm. Diese Nachfrage gilt sowohl für SAP ERP (ECC und S/4HANA) als auch für die meisten anderen Produkte aus dem umfangreichen SAP-Portfolio.
Kafka lässt sich gut in SAP-Systeme integrieren. Verschiedene Integrationsoptionen sind über SAP SDKs und Drittanbieterprodukte für proprietäre Schnittstellen, offene Standards sowie moderne Messaging- und Event-Streaming-Konzepte verfügbar. Der Kafka Connect ODP Source Connector von INIT Software bietet eine skalierbare und performante, Kafka-native Integrationsoption. Um mehr zu erfahren, nehmen Sie an einem Online-Vortrag teil am 30. März 2021 um 11:30 Uhr MESZ, bei dem weitere technische Details zur Integration vorgestellt werden.
Weiterführende Ressourcen & Kontakt
Registrieren Sie sich jetzt für den Online-Vortrag.
Wenn Sie diese Integrationsoption ausprobieren möchten, verwenden Sie das Confluent Platform Docker Image und folgen Sie den Bildschirmaufzeichnungen aus dem Getting Started Guide von INIT für eine kostenlose 30-tägige Evaluierung des Connectors. Entdecken Sie selbst, wie der ODP Connector Ihre SAP Kafka Integration revolutionieren kann.
