OOP Fachforen

OOP Fachforen

  • Dienstag
    09.02.
  • Mittwoch
    10.02.
09:30 - 10:30
FF-Di 1.1
Cloud-Native Kafka
Cloud-Native Kafka

Kafka hat in den letzten Jahren eine enorme Popularität erfahren, und bringt durch seine neuartigen Konzepte wieder Schwung in die Welt der etablierten Messaging-Systeme. An einem Beispiel aus der Praxis wird in diesem Vortrag gezeigt, wie Kafka auf einer cloud-nativen Infrastruktur betrieben werden kann, und weshalb sich Kafka so gut dazu eignet, die zentrale Kommunikationsschnittstelle einer Microservice-Architektur zu bilden.

Zielgruppe: Software-Architekten, Software-Entwickler, IT-Projektmanager, Produktmanager
Schwierigkeitsgrad: Fortgeschritten

Sascha Holtbrügge plant und realisiert als Big Data Architekt leistungsfähige und skalierbare Lösungen für Kunden der SVA, die mehr aus ihren vorhandenen Datenbeständen machen möchten. Seine persönliche Leidenschaft ist der Aufbau von vollständig automatisierten und selbstheilenden Systemen und Plattformen.
Sascha Holtbrügge
Sascha Holtbrügge
Track: Kafka
Vortrag: FF-Di 1.1
13:00 - 14:00
FF-Di 1.3
Kafka as a secure internal service
Kafka as a secure internal service

Securing Kafka at scale for multiple tenants is complex and doing it wrong could cost thousands of euros per minute in downtime and increases the risk of data breaches. The more data and applications a platform can access, the more protection is needed to keep that data safe. How to make Event Streaming secure for multiple tenants? Join our talk to explore new capabilities that protect event data from threats and vulnerabilities across the entire Kafka ecosystem. Our session will be about Confluent Kafka as a secure internal multi-tenant service. The presenters will explore two aspects: Ralf Nellessen will show goals and implementation characteristics of End-to-End Encryption. Ramesh Jogula will demonstrate how Kafka Connect can be run using GitOps as part of a service. The following questions will structure the discussion: How did we include additional features like Large Message Handling and End-to-End Encryption in our Kafka implementation? How do we practically configure Kafka Connect for GitOps deployments?

Target Audience: IT-Projektmanager, Software-Architekten, Software-Entwickler, Business Development, Produktmanager
Level: Advanced

The IT Security evangelist, Ralf Nellessen, joined beON consult in 2018. He leads the company`s Centre of Excellence for IT Security. He has designed and successfully implemented numerous data-driven security concepts in complex enterprise infrastructures. He operates on the basis of years of experience with the creation and implementation of security concepts and architectures for Apache / Confluent Kafka and for SAP NW ABAP and SAP HANA system lines, monitoring and landscapes. 
Ramesh Jogula joined beON consult in 2018 as Senior Integration Architect and is responsible for the Kafka Centre of Excellence. He brings along over 16 years of in-depth experience in Technical Integration of various applications across multiple industrial domains including insurance, energy, government and manufacturing. As full-fledged lead architect and certified Confluent Kafka Developer, he has built distributed, scalable and reliable data pipelines that ingest and process data at scale and in real-time based on Confluent Kafka.  Ramesh Jogula kam 2018 als Senior Integration Architect zu beON consult und ist verantwortlich für das Kafka Centre of Excellence. Er verfügt über mehr als 16 Jahre Erfahrung in der technischen Integration verschiedener Anwendungen in unterschiedlichen Branchen, darunter Versicherungen, Energie, Behörden und Fertigungsunternehmen. Als erfahrener Lead Architekt und zertifizierter Confluent Kafka Developer hat er diverse verteilte, skalierbare und zuverlässige Datenpipelines aufgebaut, die Daten in großem Umfang und in Echtzeit auf Basis von Confluent Kafka einlesen und verarbeiten.
Ralf Nellessen, Ramesh Jogula
Ralf Nellessen, Ramesh Jogula
Track: Kafka
Vortrag: FF-Di 1.3
14:00 - 15:00
FF-Di 1.4
It’s not just Kafka - what else does it take to be real-time?
It’s not just Kafka - what else does it take to be real-time?

From personalised instantaneous marketing campaigns to reacting to user interactions, Real-Time is the key to open up a world of use cases that batch and scheduled processing cannot efficiently satisfy. In this talk, we are going to observe the natural journey companies undertake to become real-time, the possibilities it opens for them, and the challenges they will face. We will see it’s not just about setting up Kafka, but about how you approach the journey to become event-driven.

Target Audience: Software-Architekten, IT-Projektmanager, Produktmanager, Business Development
Level: Advanced

Sergio Spinatelli works as a Manager and Architect for the Event Driven and Streaming Applications Business Unit at Data Reply. With experiences in major industries (Automotive, Retail, Media, Banking) and with state of the art Big Data technologies, he focuses on Stream Processing, Real-Time Analytics, Microservice Architectures and Cloud.
Alex Piermatteo works as a Manager and Architect for the Event Driven and Streaming Applications Business Unit at Data Reply. Alex is regular speaker at conferences and his main area of expertise lies within the fields of Stream Processing, Big Data Integration & Analytics, Cloud, Microservices and DevOps.
Sergio Spinatelli, Alex Piermatteo
Sergio Spinatelli, Alex Piermatteo
Track: Kafka
Vortrag: FF-Di 1.4
09:30 - 10:30
FF-Mi 1.1
Die nächste Generation der Event-Streaming-Plattform: Kafka in der Cloud
Die nächste Generation der Event-Streaming-Plattform: Kafka in der Cloud

Apache Kafka hat sich zum De-facto-Standard für Event-Streaming etabliert. Über 80 Prozent der Fortune 100 nutzen die Möglichkeiten, ihre Datenarchitekturen zu entkoppeln und auf Geschehnisse im Business in Echtzeit zu reagieren.

Der Aufbau und die Skalierung event-getriebener Anwendungen ist eine echte Herausforderung, da sich die Quellen für Event-Daten oft über mehrere Rechenzentren, Clouds, Microservices und stark verteilte Umgebungen erstrecken. Dies führte dazu, dass die Fertigkeit, sich mit "Kafka" auszukennen, zur bestbezahltesten in den Vereinigten Staaten wurde und auch in Europa listen Unternehmen dies unter den Top-Skills für Software-Architekten und Data Engineers. Für viele Unternehmen bedeutete dies, dass dieses allgegenwärtige Event-Streaming unerreichbar wurde.

Confluent hat Apache Kafka überarbeitet und eine Event-Streaming-Plattform geschaffen, die sich diesen Herausforderungen mühelos stellt: Sie ist elastisch skalierbar, verarbeitet Daten aus jeder Quelle in Echtzeit und passt sich dabei jedem Use Case und Budget an. Durch den Betrieb von Kafka in der Cloud können Unternehmen das Management der Kafka-Cluster komplett abgeben.

Carsten Mützlitz war über 24 Jahre bei Oracle, unter anderem als Sales Consultant und Customer Success Director, bis es ihn 2019 zu Confluent zog. Seitdem arbeitet er Hand in Hand mit den Kunden von Confluent an der Umsetzung von Event-Streaming-Architekturen basierend auf Apache Kafka und unterstützt als Solutions Engineer beim Aufbau von Demos, die auch wirklich einen Bezug zur Realität haben. Sein Leitspruch "I transform coffee into good ideas" ist Programm und kann von den Besuchern seiner vielen (Online-) Vorträge bestätigt werden.

Suvad Sahovic ist seit Anfang 2019 bei Confluent als Solutions Engineer und im Bereich Business Enablement tätig. Basierend auf seinem vorherigen Werdegang bei Oracle und Talend erarbeitet er zusammen mit den Kunden von Confluent den Mehrwert von Event-Streaming-Architekturen und fokussiert dabei gerne das Thema "Security". Als Diplom-Mathematiker ist eine "kafkaeske" Architektur für ihn eine willkommene Herausforderung.

Carsten Mützlitz, Suvad Sahovic
Carsten Mützlitz, Suvad Sahovic
Track: Kafka
Vortrag: FF-Mi 1.1
10:45 - 11:45
FF-Mi 1.2
Integration von SAP in ein zentrales Datennervensystem mit Kafka Connect
Integration von SAP in ein zentrales Datennervensystem mit Kafka Connect

Eine skalierbare Datenverarbeitung und -verteilung in Echtzeit stellt aktuell viele Unternehmen vor eine Herausforderung.   Erfahren Sie in einem 45-minütigen Vortrag, wie Sie mit den von INIT entwickelten Konnektoren mit überschaubarem Aufwand Ihre SAP-Systeme in Kafka integrieren.   In den letzten 15 Minuten des Vortrags betrachten wir exemplarisch ein ML-Modell mit komplexem Feature-Engineering. Das trainierte Modell wird in Containern zum Datenanreichern bereitgestellt.

Zielgruppe:Software-Entwickler, Software-Architekten, IT-Consultants, Business Development
Schwierigkeitsgrad:Fortgeschritten

Extended Abstract:
Wir sind überzeugt von der Idee der Etablierung eines unternehmensweiten und zentralen Datennervensystems unter Zuhilfenahme einer skalierbaren Plattform wie Apache Kafka. Dieser Ansatz stellt eine einzigartige Möglichkeit dar, wie Sie Ihre wertvollsten Rohstoffe in Echtzeit in einer skalierbaren Plattform persistieren, verarbeiten und beliebig vielen Abnehmern zur Verfügung stellen können. Hierdurch werden unternehmensübergreifende Einsatzszenarien wie beispielsweise Realtime Analytics und Machine Learning erst möglich gemacht. 

Mit der Connect-Komponente beinhaltet Kafka ein einheitliches und offenes Framework für den nativen Verbund externer Systeme mit Apache Kafka. Hierzu bietet Connect jeweils eine API für quell- und zielorientierte (Source and Sink) Szenarien an. Im Vergleich zu Low-Level APIs wie die Producer-/Consumer-API vereinfacht Kafka Connect die Realisierung von robusten Integrationslösungen Ihrer Business Events mit Servicemerkmalen wie Exactly-Once Zustellung, pausierbarer Echtzeitverarbeitung, Systemausfallzeitbehandlung, Statuswiederherstellung, zentralem Monitoring und Betrieb.

Erfahren Sie in diesem 45-minütigen Vortrag, wie eine Integration Ihrer geschäftsprozessabbildenden SAP-Systeme unter Einsatz von Schnittstellentechnologien wie OData und Operational Data Provisioning und der von INIT entwickelten Konnektoren mit überschaubarem Aufwand gelingt.

Im zweiten 15-minütigen Teil des Vortrags stellen wir einen exemplarischen Anwendungsfall vor, in dem ein Machine-Learning Modell auf einer komplexen Vorverarbeitung der Rohdaten aufsetzt und trainiert wird. Das trainierte Modell wird in Form von Microservices zur Verfügung gestellt und wir zeigen beispielhaft die Konsumierung innerhalb einer Datenpipeline.

Ronald Schertle (Dipl. Inf.) ist seit 2008 für die INIT tätig und ist aktuell mit der Leitung des Business Intelligence Teams betraut. Sein Fokus liegt auf der Projektabwicklung und Lösungsentwicklung datenzentrischer Systeme und Architekturen u. A. in den Themenbereichen BI, Analytics und Big Data. Bereits im Studium wurde eine Faszination für verteilte Systeme, Business Intelligence Architekturen und funktionale Programmierung entwickelt, die zusammen mit der langjährigen Projekterfahrung in SAP-Umgebungen zur Lösungsentwicklung von SAP-Integrationen in verteilte und skalierbare Systemumgebungen führte. 
Jens Rottmann-Matthes (Dr. math.) ist nach einer positiv evaluierten Junior-Professur für Mathematik am KIT 2017 aus dem Elfenbeinturm zur INIT gewechselt. Seit 2018 ist er als Berater bei verschiedenen Kunden für BI-Themen im SAP-Umfeld unterwegs. Innerhalb der INIT beschäftigt er sich damit, das Thema "KI in der Anwendung bei Unternehmen" zu etablieren und berät Kunden bei Entwicklung, Umsetzung und Einsatz von Machine-Learning-Modellen. 
Ronald Schertle, Jens Rottmann-Matthes
Ronald Schertle, Jens Rottmann-Matthes
Track: Kafka
Vortrag: FF-Mi 1.2
13:45 - 14:45
FF-Mi 1.4
Kafka-Security in Kubernetes für ZeroConf-Microservices
Kafka-Security in Kubernetes für ZeroConf-Microservices

Dank neuer Entwicklungen, vor allem auch aus dem Kubernetes-Umfeld, ist es heute einfacher denn je, eine Kafka-Installation zu starten und zu betreiben. Doch wie kann das Messaging-System in die bestehenden Unternehmensstrukturen und deren Governance-Anforderungen integriert werden? Wie kann der Einsatz der Technologie in den Entwickler-Teams möglichst einfach gestaltet werden?  In dieser Fallstudie wollen wir beleuchten, wie wir im Rahmen der Einführung von Kafka bei einem unserer Kunden die Aspekte "Sicherheit" und "Wartbarkeit" in Kubernetes umsetzen. Die Schwerpunkte liegen dabei auf einem modernen GitOps-basierten Ansatz in Kubernetes, sicherem und trotzdem einfachem Einsatz in den Entwickler-Teams, und der Automatisierung von IT-Governance-Prozessen über die Implementierung von eigenen Kubernetes-Controllers & Operators.

Zielpublikum: Software-Architekten, Software-Entwickler
Schwierigkeitsgrad: Advanced

Alex Stockinger ist Software-Engineer mit mehr als 10 Jahren Industrieerfahrung und einer Passion für herausfordernde technische Problemstellungen. Im Tagesgeschäft unterstützt er für gewöhnlich Unternehmen dabei, robuste und skalierbare Back-End Architekturen aufzubauen. Zuletzt stand dabei die Entwicklung von Cloud-Native Applikationslandschaften im Fokus, häufig mit Bezug zu IoT Use-Cases.
Alexander Stockinger
Alexander Stockinger
Track: Kafka
Vortrag: FF-Mi 1.4
14:45 - 15:45
FF-Mi 1.5
Wie sieht eine moderne Datenplattform für Analytics im Unternehmen aus
Wie sieht eine moderne Datenplattform für Analytics im Unternehmen aus

Um Analytics effektiv einsetzen und damit die Datenschätze im Unternehmen heben zu können, braucht es eine moderne und skalierbare Datenplattform, die flexibel auf Events reagieren kann und von Anfang an mit einem DataOps-Gedanken designed wurde. Im Vortrag zeige ich eine Referenzarchitektur dafür und demonstriere an einem Beispiel, wie eine solche Plattform mit Apache Kafka und Microservices aussehen kann und ich damit nicht nur flexibel Analytics Use Cases umsetzen, sondern auch im Sinne von DataOps schnelles Feedback dem Kunden geben kann.

Zielpublikum: Software-Architekten, Software-Entwickler, IT-Consultants
Schwierigkeitsgrad: Fortgeschritten

Arne Roßmann ist seit über 7 Jahren bei Capgemini im Bereich Insights & Data in verschiedenen Rollen tätig. Er unterstützt als Chefarchitekt und Portfolio-Lead für das Thema Data & AI Engineering die Kunden bei der Realisierung ihrer modernen Datenplattformen. 
Arne Roßmann
Arne Roßmann
Track: Kafka
Vortrag: FF-Mi 1.5

Zurück