OOP Fachforen
Track: confluent Track
- Mittwoch
08.02.
Seit Jahrzehnten haben Unternehmen keine Mühen gescheut, um operationelle und Business-Intelligence-Lösungen zu entwickeln die auf Daten aus verschiedensten Systemen aufbauen. Aber das volle Potenzial der verfügbaren Daten wird meist nicht ausgeschöpft. Die Erkenntnissen von Zhamak Dehghani über die Gründe für das Scheitern dieser traditionellen Ansätze, inspirierten sie zum Konzept des Data Mesh. Dies stellt einen Paradigmenwechsel dar, der von moderner verteilter Architektur inspiriert ist und auf den Prinzipien des domänengesteuerten Designs, der Self-Service-Plattform und des Produktdenkens mit Daten basiert. In den letzten zehn Jahren hat Apache Kafka eine neue Kategorie der Daten-Management-Infrastruktur für Data in Motion geschaffen, die jetzt als Standard in modernen verteilten Datenarchitekturen verwendet wurde. In diesem Vortrag stellen wir vor, wie die Grundprinzipien des Data-Mesh-Paradigmas durch eine Kafka-basierte Event-Streaming-Architektur unterstützt werden können, die als intelligente Verbindungsstruktur konzipiert ist, über die kuratierte Echtzeitdaten aus mehreren Quellen ständig im gesamten Unternehmen auf regulierte Weisen verteilt und geteilt werden.
Senad Jukic unterstützt als Solutions Engineer Kunden in der Schweiz bei der Umstellung von Batch-Workloads auf event-getriebene Verarbeitung und bei der Integration von Confluent und Apache Kafka mit Cloud-Services wie S3, Redshift, Snowflake, Elasticsearch und vielen anderen.. Zuvor war Senad unter anderem als Senior Cloud Solution Architect bei SAS tätig
Sie sind Architekt oder Anwendungsentwickler und Ihr Unternehmen möchte in (I)IoT einsteigen, eine stabile IoT Plattform aufbauen oder eine bestehende Plattform skalieren?
Sie fühlen sich im Buzzword- & Softwaredschungel allein gelassen? Sind verunsichert, welche Technologien und Architektur Sie für eine solide IoT Plattform einsetzen sollen?
Sie müssen eine Plattform aufbauen die elastisch, erweiterbar, cloud-agnostisch ist und offene Standards nutzt?
Dann sollten Sie 45min für unseren Vortrag investieren!
Wir zeigen Ihnen einen Open Source-basierenden Softwarestack, der zusammenpasst und mit dem Sie aus unserer Sicht ein stabiles Fundament für ihre Plattform aufbauen können. Ausgehend von diesem Fundament, geben wir Ihnen einen Ausblick auf mögliche Ausbaustufen und empfehlen konkrete Technologien für jede Stufe.
Zielpublikum: Architektur, Anwendungsentwicklung
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Einstieg bis Fortgeschritten
Alexander Keidel ist ein außerordentlich erfahrener Senior Solution Architect im Open Source BI/Big Data und IoT Umfeld. In zahlreichen Projekten diverser Branchen konnte er in den letzten Jahren sein Fachwissen und seine tiefe Expertise unter Beweis stellen. Sein aktueller Fokus liegt auf dem Entwurf und Implementierung heterogener Softwarearchitekturen mit Open Source Komponenten wie Kafka, Kong, Pentaho und ThingsBoard.
Mit dem Ziel, das Kundenerlebnis zu verbessern, setzen wir immer mehr Daten in die Tat um. Die Umsetzung dieses Ziels ist ein Wettlauf um Konsistenz zwischen unseren Kanälen und die Quadratur des Kreises zwischen Latenz und Datenvolumen. Wir zeigen einige Beispiele - Erfolge und Probleme - rund um Kafka und verwandte Technologien.