OOP Fachforen

OOP Fachforen

Track: Event-Streaming & Data in Motion

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Dienstag
    01.02.
  • Mittwoch
    02.02.
09:00 - 09:50
FDi11
Daten in Fluss bringen mit Apache Kafka
Daten in Fluss bringen mit Apache Kafka

Die Zukunft Ihres Unternehmens ist sicher, wenn Sie mit Daten richtig umgehen. Niemand möchte heutzutage ewig auf Antworten Ihrer IT-Systeme warten, sondern es soll alles “sofort” passieren. Apache Kafka hilft Unternehmen nicht nur dabei Daten in (nahezu) Echtzeit zwischen Systemen auszutauschen, sondern bildet den Kern eines zentralen Nervensystems für Daten in immer mehr Unternehmen. So können Ihre IT-Systeme sofort reagieren, wenn etwas in Ihrem Unternehmen passiert.

Erleben Sie in diesem Vortrag, wie Apache Kafka Ihnen helfen kann, Ihre Daten in Fluss zu bringen und wie Sie und Ihr Unternehmen dabei Stolpersteinen aus dem Weg gehen. Kommen Sie mit auf eine spannende Reise in die Welt der Echtzeit-Datenverarbeitung.

Leidenschaft, Expertise und ein etwas anderen Ansatz. So vermittelt Anatoly Zelenin IT. Als erfahrener Berater und Trainer bringt er dafür natürlich die Zertifikate, vor allem aber die Passion mit, um Unternehmen auf das nächste Level zu heben. Anatoly Zelenin ist ein versierter Mentor, der bei seinen Apache Kafka- und Kubernetes-Schulungen Begeisterung und Wissen versprüht. Mit Freude statt mit Folien. Und einer Vision, in der Mensch und IT unseren Planeten in eine bessere Zukunft lenken. Eine Vision, an der man bei Anatoly Zelenin aktiv teilhaben kann.

 

Anatoly Zelenin
Anatoly Zelenin
flag VORTRAG MERKEN
14:00 - 14:50
FDi13
How to power Continuous Intelligence by modernizing your Data Warehouse
How to power Continuous Intelligence by modernizing your Data Warehouse

Data applications enabling business users to gain insights that impact their short- and long-term decisions are becoming more and more ubiquitous. They are found in many domains, from marketing and advertising campaigns to IoT data, to network or application performance analysis. The more popular data-driven applications become, the more the need for real-time analytics use cases arises. Cloud has drastically changed the data analytics space as storage has been decoupled from compute, empowering new analytics ranging from traditional BI to machine learning. Cloud data warehouses, with their lower costs, increased elasticity, and improved performance are increasingly the technology of choice for such use cases. With the increasing amount of data and development velocity, traditional data warehouses are not able to keep up with the modern cloud-native requirements in mind and this is leading many organizations to shift their workloads from on-premise to cloud environments. In this talk we will discuss how you can accelerate your data warehouse migration and modernization, how to connect and migrate hybrid and multi cloud data to your cloud data warehouse of choice and how to leverage stream processing to power new real-time analytics. Further, following a customer story, we will illustrate how near-real-time BI can be delivered using Confluent Cloud and a Cloud-native Data Warehouse.

 

Zielgruppe:  Software-Architekten, IT-Projektmanager, Produktmanager, Business Development

Sergio Spinatelli works as a Manager and Architect for the Event Driven and Streaming Applications Business Unit at Data Reply. With experiences in major industries (Automotive, Retail, Media, Banking) and with state of the art Big Data technologies, he focuses on Stream Processing, Real-Time Analytics, Microservice Architectures and Cloud.

Alex Piermatteo works as a Manager and Architect for the Event Driven and Streaming Applications Business Unit at Data Reply. Alex is regular speaker at conferences and his main area of expertise lies within the fields of Stream Processing, Big Data Integration & Analytics, Cloud, Microservices and DevOps.

Sergio Spinatelli, Alex Piermatteo
Sergio Spinatelli, Alex Piermatteo
flag VORTRAG MERKEN
16:00 - 16:50
FDi14
Daten-Streaming in der Cloud mit Confluent und MongoDB Atlas
Daten-Streaming in der Cloud mit Confluent und MongoDB Atlas

In dieser Session stellen wir die Einrichtung und Konfiguration der Confluent Cloud mit MongoDB Atlas vor! Wir starten mit einer Einführung der grundlegenden Vernetzung und Integration der beiden Cloud-Dienste und stellen kurz die vielen Möglichkeiten dar, wie Daten (bspw. Time Series Daten) – sobald sie in MongoDB Atlas sind – genutzt werden können. Im Vortrag zeigen wir auch in einer Live Demo wie einfach die MongoDB Atlas-Konnektoren in der Confluent Cloud sicher eingerichtet und konfiguriert werden können - sowohl in einer Quell- als auch in einer Zielkonfiguration.

Zielgruppe: Entwickler/Programmierer, DevOps, (Datenbank-)Architekten, Project/Product Owners

Mit mehrjähriger Erfahrung als Consultant und Solutions Architect kennt sich Philipp Waffler bestens mit Datenbanken und innovativen Industrielösungen aus! Bei MongoDB arbeitet er gemeinsam mit unseren Kunden und Nutzern an komplexen Use Cases und entwickelt innovative Lösungen mit der MongoDB Datenplattform. Davor arbeitete Philipp unter anderem bei zeb Consulting und der fine GmbH an Projekten in den Bereichen Pricing, Finanzrisikomanagement und der Automatisierung von Reporting-Prozessen.

Philipp Waffler
Philipp Waffler
flag VORTRAG MERKEN
17:00 - 17:50
FDi15
(Big) Data in Motion: Skalierbare Architekturen, nicht nur für die Weihnachtspost
(Big) Data in Motion: Skalierbare Architekturen, nicht nur für die Weihnachtspost

Zu keiner Zeit im Jahr werden so viele Pakete und Briefe verschickt, wie in den Wochen vor Weihnachten. Für eine IT-Infrastruktur eine echte Herausforderung, denn jeder Versand verursacht eine hohe Anzahl von Messages. Um neue Services für Partner, interne Kunden und Endkunden zu ermöglichen sind anfangs 7.500/Sekunde nötig. Skalierbarkeit war das Gebot der Stunde, denn die alte Infrastruktur erlaubte nicht mehr als 3.500 Messages/Sekunde. Wir skizzieren die drei wichtigsten Migrationen auf dem Weg in die Architektur-Modernisierung: Von On-Prem in die Cloud, von WebLogic auf Spring Boot und von IBM MQ auf Confluent.

Benedikt Linse, Michael Holste
Benedikt Linse, Michael Holste
flag VORTRAG MERKEN
09:00 - 09:50
FMi11
Load Kafka Data Pipelines Directly into SingleStore to Benefit Data Intensive Apps and Analytics
Load Kafka Data Pipelines Directly into SingleStore to Benefit Data Intensive Apps and Analytics

Learn ways to optimize customer engagement/operations by delivering a scalable, responsive analytics solution. Get acquainted with a hands-on modern architecture, enabling you to do streaming data ingestion while returning fast queries to power your data-intensive applications.  See: How tech such as Kafka and SingleStore are used to deliver superior customer/business experiences A demo with reference architectures for a modern data intensive application How to ingest data fast and deliver low latency, high concurrency apps using SingleStore.

Zielgruppe: DBAs, Developers, Data Architects, Data Scientists

Sukki is responsible for SingleStore’s Client Technical Services group across the International Region.  Based out of the UK, Sukki gets to work across many different data initiatives across all industries and domains.  Over the last couple of decades, Sukki has worked with OLTP in-memory transactional DB’s and data analytics tools and capabilities.  Come and listen to some of his experience in data strategies, migrations, accelerations, customer and prospect positive outcomes.

Denis is responsible for SingleStore's Field Sales in the German Speaking markets. He has more than 20 years of Sales and Presales expirience in Data Storage and Data Mangement technologies. Being based in Hamburg, Denis is looking forward to discuss your data initiatives in English or German language. 

Sukki Sandhar, Denis Jovic
Sukki Sandhar, Denis Jovic
flag VORTRAG MERKEN
10:00 - 10:50
FMi12
Die Qual der Wahl: Schritt für Schritt zur Open Source IoT Architektur
Die Qual der Wahl: Schritt für Schritt zur Open Source IoT Architektur

OPC-UA, LoRa, MQTT, Lumada ... Insbesondere im Umfeld von IoT existiert eine Vielzahl von Technologien und Protokolle. Aber wann nutzen Sie das Richtige? Am Beispiel einer IoT Referenz-Architektur bauen wir gemeinsam Schritt für Schritt eine Datenplattform auf. Sie lernen Methoden und Technologien kennen, mit denen Sie in der Lage sind Live-Datenströme aus Sensoren oder Applikationen zu nutzen, um innovative Real-Time-Usecases umzusetzen. Wir helfen Ihnen für Ihr IoT Problem die passende Technologie zu wählen und anzuwenden.

Zielgruppe: IoT Experten, Enterprise- & Solution Architekten

Alexander Keidel ist ein außerordentlich erfahrener Senior Solution Architect im Open Source BI/Big Data und IoT Umfeld. In zahlreichen Projekten diverser Branchen konnte er in den letzten Jahren sein Fachwissen und seine tiefe Expertise unter Beweis stellen. Sein aktueller Fokus liegt auf dem Entwurf und Implementierung heterogener Softwarearchitekturen mit Open Source Komponenten wie Kafka, Kong, Pentaho und ThingsBoard.

Alexander Keidel
Alexander Keidel
flag VORTRAG MERKEN
11:00 - 11:50
FMi13
Kafka Connect - Datenintegration in Kafka
Kafka Connect - Datenintegration in Kafka

This presentation is about data integration in kafka. The following question should be answered after the presentation - What is Kafka Connect? - How do i get my data in and out of Kafka? - How do i develop my own Kafka Connectors. - Where are the limitations of Kafka Connect. Furthermore we show a little showcase for a Custom Kafka Connector in order to show the possibilities of Kafka Connect.

Zielgruppe: Data Engineers, Software Engineers, Software Architects

Im a data engineer at SVA. My proficiency is developing data pipelines within Kafka and externals systems like SQL Databases, SAP System and other APIs.

Building on my constant interest in data and its nature, I have entered the Big Data field. Now I am a Big Data Engineer at SVA and specialise in Kafka development.

Marko Oljaca, Rabea Müller
Marko Oljaca, Rabea Müller
flag VORTRAG MERKEN

Zurück