Konferenzprogramm

Track: Data and AI - Bridging the Gaps

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Dienstag
    04.02.
  • Mittwoch
    05.02.
, (Dienstag, 04.Februar 2025)
10:45 - 12:15
Di 6.1
KI: Wann und wann nicht?
KI: Wann und wann nicht?

"KI ist gekommen, um zu bleiben", ist von vielen Seiten zu hören. Das stimmt. KI ist nicht mehr wegzudenken. Millionenfach finden wir KI in Anwendungen und Funktionalitäten wieder. Die Entwicklung ist rasant und viele wollen noch "auf den Zug aufspringen". Darunter sind auch Lösungen, die ohne KI auskommen und sogar effizienter wären. Umso wichtiger ist es, bei der Planung zu erkennen, wann ein Problem auch ohne KI gelöst werden kann. In dieser Session lernen wir ein paar komplexe Beispiele aus der realen Welt kennen und zeigen auf, wo KI nützlich ist und vor allem wo nicht.

Zielpublikum: Projektleiter, Produktmanager, Anfänger in der Entwicklung
Voraussetzungen: Keine
Schwierigkeitsgrad: Advanced

Carlos Fernandez ist leidenschaftlicher Softwareentwickler bei DATEV eG mit mehr als 25 Jahren Praxiserfahrung. Er ist Experte für C#-Entwicklung und Performance-Optimierungen. Seine Expertise in der Leistungsoptimierung bringt er in das Thema Nachhaltigkeit ein. Auch aus diesem Grund ist er in der Green-CoP (Community of Practice) aktiv. Darüber hinaus ist Carlos als Referent und Berater unterwegs. 

Matthias Seiller ist seit 2021 agiler Lerncoach bei DATEV eG und studierte Medieninformatik. Er fokussiert sich auf die Anwendung generativer KI-Technologien zur Optimierung von Lernprozessen und teilt seine Ergebnisse an der Schnittstelle von KI und beruflicher Bildung.

Turbocharging AI Innovation: How AI Platforms Enable The Bulletproof Deployment of GenAI Use Cases
Turbocharging AI Innovation: How AI Platforms Enable The Bulletproof Deployment of GenAI Use Cases

Generative AI is the talk of the town. Anyone who spends just five minutes thinking about AI can surely come up with several useful business use cases. However, all too often, we find ourselves facing the following dilemma: we want to quickly launch our chatbots and assistant systems and bring our ideas to market readiness. Yet at the same time, important, complex, cross-functional aspects such as data protection, compliance, operational readiness, or model fine-tuning often slow down rapid development and deployment.

Furthermore, enterprise scale AI projects often involve many different stakeholders: data engineers, AI specialists, software engineers, operational experts, and business departments. Too much talking and no progress at all are the result.

AI platforms to the rescue! We believe that established platform engineering approaches and technologies, combined with LLM Ops practices, can tackle this dilemma. Only a robust, scalable, and flexible platform enables our teams to efficiently develop, operate, and manage their data, models, and applications. The platform hides the inherent technical complexity, while allowing users to fully focus on the use case and the creation of value and innovation.

We will explore what a corporate AI platform can look like and the components and services it requires. We discuss how a company-wide platform strategy not only simplifies technical implementation but also creates an ecosystem for innovation, fosters collaboration, increases reusability, and ultimately drastically shortens the time to market.

Target Audience: Developers, Architects, Data Scientists, Decision Makers, Platform Engineers
Prerequisites: Basic knowledge in AI
Level: Advanced

Mario-Leander Reimer is a passionate software developer and architect, proud father, and#CloudNativeNerd. Leander is the CTO at QAware. He’s continuously looking for innovations in software engineering and ways to combine and apply state-of-the-art technology in real-world projects. As a speaker at national and international conferences he shares his tech experiences and he teaches cloud computing and software quality assurance as a part-time lecturer.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/mario-leander-reimer/

Sonja Wegner ist Lead Software Architect und Business Unit Director bei der QAware. Ihre aktuellen Schwerpunkte liegen im Design und der Implementierung komplexer Systeme und Software-Architekturen.
Seit einiger Zeit beschäftigt sie sich besonders mit Softwarequalität und deren Messung, APIs und deren Architektur-Aspekten und Teststrategien. Sie teilt ihre Erfahrungen hierzu gerne und regelmäßig bei verschiedenen Konferenzen.

Carlos Fernandez, Matthias Seiller
Mario-Leander Reimer, Sonja Wegner
Carlos Fernandez, Matthias Seiller
Vortrag: Di 6.1-1
Themen: AI
Cloud

Vortrag Teilen

Mario-Leander Reimer, Sonja Wegner
Vortrag: Di 6.1-2
Themen: AI
Cloud

Vortrag Teilen

14:00 - 14:45
Di 6.2
EU AI Act Engineering
EU AI Act Engineering

The EU AI Act was established to promote trustworthy AI. This legislative framework outlines comprehensive and rigorous requirements for AI systems, sorting them into four risk groups: prohibited, high-risk, limited-risk, and minimal-risk AI systems. With a grace period of 6 to 24 months from the regulation's publication, it is recommended for companies using AI to start preparing for the upcoming requirements. To ensure technical readiness for compliance with the AI Act, it is crucial to integrate established data governance, AI governance, and MLOps techniques throughout the life cycle of an ML/AI system.

My talk is intended to provide practitioners with a thorough understanding of the EU AI Act's requirements. They also offer practical guidance on implementing MLOps, observability, and data governance processes that align with the regulation. While exploring the legislation to identify the requirements for AI systems and general-purpose AI applications, our discussions will provide an engineering perspective on the proactive implementation of the provisions of the EU AI Act.

Target Audience: Architects, Developers, ML Engineers
Prerequisites: MLOps
Level: Advanced

Larysa hat einen Doktortitel in Computerwissenschaften. Beruflich ist sie als Head of Data und AI bei innoq.ai tätig. Larysa ist auch die Gründerin von ml-ops.org und Mitbegründerin von datamesh-architecture.com. Sie ist die Gründerin des Women+ in Data and AI Festivals in Berlin.

Larysa Visengeriyeva
Larysa Visengeriyeva
Vortrag: Di 6.2
Themen: AI

Vortrag Teilen

16:15 - 17:15
Di 6.3
From Search Results to Insights: Learnings from Statista’s GenerativeAI Journey
From Search Results to Insights: Learnings from Statista’s GenerativeAI Journey

GenAI services have been rapidly integrated into various digital business models, but what if your data holds better answers? How can this technology be combined with an organization's knowledge and data?

This talk explores Large Language Models (LLMs) and their augmentation with custom data via Retrieval-Augmented Generation (RAG). Discover Statista's pioneering journey from rich search results to concise, informed answers with their LLM-based application, ResearchAI. We'll discuss challenges such as building a skilled team, the impact of exclusive data on answer quality, high costs, query latency, and LLM hallucinations despite accurate data. This session provides a realistic look at the hurdles and strategies for optimizing RAG applications in the real world.

Target Audience: Data Scientists, Data Engineers, Developers, Decision Makers
Prerequisites: Basic knowledge of GenAI
Level: Expert

Leidenschaftlicher Softwarearchitekt, Full-Stack-Entwickler und Speaker mit Begeisterung für Technologie, Architektur und Organisation. Entwickelt und betreibt Software, datengetrieben mit Fokus auf Kundenmehrwert. Bildet sich und andere gern aus und weiter. Stolzes Gründungsmitglied der Hacker-School.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/benedikt-stemmildt/

Matthias Lau is developer and founder of the technology studio and freelancer community Heureka Labs with a passion for software development and innovative digital products. He loves coding, awesome internet concepts, federated learning, Docker, the Apple Multi-Touch Trackpad, Bouldering, Wikipedia and Espresso.

Benedikt Stemmildt, Matthias Lau
Benedikt Stemmildt, Matthias Lau
Vortrag: Di 6.3
Themen: AI

Vortrag Teilen

17:45 - 18:45
Di 6.4
Data Contracts: Bridging the data gap
Data Contracts: Bridging the data gap

Data Contracts sind so etwas wie APIs, aber die Datenwelt funktioniert doch etwas anders. Ein Data Contract definiert das Datenmodell der bereitgestellten Daten und deren Qualitätsattribute in einem YAML-Format. Data Contracts enthalten zudem semantische Definitionen, SLAs, und legen die Nutzungsbedingungen für die Verwendung von Daten fest.

Data Contracts sind in erster Linie auch ein Kommunikationsinstrument, um ein gemeinsames Verständnis darüber auszudrücken, wie Daten strukturiert und interpretiert werden sollten. Sie machen implizite semantische und qualitative Erwartungen explizit. Später in der Entwicklung und Produktion dienen sie auch als Grundlage für die Codegenerierung und automatisierte Tests, um sicherzustellen, dass die bereitgestellten Daten auch der Spezifikation entsprechen.

In diesem Vortrag möchte ich die Data Contract Specification (datacontract.com) und das Data Contract CLI zur Validierung von Data Contracts in CI/CD-Pipelines vorstellen.

Zielpublikum: Data Engineers, Softwarearchitekten, IT-Verantwortliche
Voraussetzungen: Verständnis über grundlegende Datenarchitekturen
Schwierigkeitsgrad: Basic

Jochen Christ ist Tech Lead bei INNOQ und Experte für Data Mesh. Jochen ist Co-Autor von datamesh-architecture.com und datacontract.com. Außerdem hat er das Data-Mesh-Buch von Zhamak Dehghani ins Deutsche übersetzt.

Jochen Christ
Jochen Christ

Vortrag Teilen

, (Mittwoch, 05.Februar 2025)
09:00 - 10:30
Mi 6.1
Wie kann KI Qualitätsprobleme in bestehender Software zielgerichtet beheben?
Wie kann KI Qualitätsprobleme in bestehender Software zielgerichtet beheben?

Es gibt eine große Zahl an Werkzeugen, die Qualitätsprobleme in Bestandscode mittels statischer Analyse erkennen und sichtbar machen. Die automatische Behebung dieser Probleme war bisher aber nur in vergleichsweise einfachen Fällen möglich. Die derzeitigen Entwicklungen in der künstlichen Intelligenz, speziell die Large Language Models (LLMs), verschieben die Grenzen des Möglichen jedoch deutlich.

In diesem Vortrag möchte ich auf Basis eines hierfür erstellten Benchmarks aufzeigen, wie weit sich Qualitätsprobleme heutzutage durch KI beheben lassen. Neben Erfahrungen aus unserer internen Entwicklung möchte ich auch beleuchten, welchen Einfluss die Wahl des Basismodells hat, welche Informationen die LLMs dabei als Input benötigen und an welchen Problemen die KI heute noch scheitert.

Zielpublikum: Architekten, Entwickler, Projektleiter
Voraussetzungen: Interesse an Software-Qualität und KI
Schwierigkeitsgrad: Basic

Dr. Benjamin Hummel hat im Bereich Software Engineering promoviert und zu den Themen Softwarequalität und -wartbarkeit geforscht und publiziert. Seit über 20 Jahren entwickelt er aktiv Methoden und Werkzeuge für die Qualitätsverbesserung von großen Softwaresystemem. Als Mitgründer und CTO der CQSE GmbH verantwortet er seit über 10 Jahren die Entwicklung und den Betrieb der Software-Intelligence-Plattform Teamscale.

Was bedeuten AI-Qualitätsverbesserungs-Tools für unsere Qualitätssicherung?
Was bedeuten AI-Qualitätsverbesserungs-Tools für unsere Qualitätssicherung?

Es gibt viele Tools, die AI nutzen, um uns in der Softwareentwicklung zu assistieren. Einige generieren Code oder Testfälle, andere schlagen Code-Verbesserungen vor oder selektieren Tests auf Basis von Code-Änderungen uvm.

Leider wissen wir wenig darüber, welche Fehler diese AI-Assistenten sporadisch oder häufig machen. Allerdings müssen wir uns vermutlich darauf einstellen, dass sie in allen Phasen der Softwareentwicklung Einzug halten werden, alleine schon deshalb, weil sie bequem sind.

In diesem Vortrag möchte ich darüber sprechen, wie wir dieser Herausforderungen aus Sicht der Qualitätssicherung begegnen können und welche automatisierten Analysen ergänzend oder begleitend zu AI-Tools eingesetzt werden können, um dem Risiko ihres Einsatzes zu begegnen.

Zielpublikum: Entwickler, Architekten, Manager
Voraussetzungen: Interesse an Qualitätssicherung, Code-Analysen und AI-Assistenten
Schwierigkeitsgrad: Basic

Dr. Elmar Juergens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten. Er ist Mitgründer der CQSE GmbH und begleitet seit zehn Jahren Teams bei der Verbesserung ihrer Qualitätssicherungs- und Testprozesse. Juergens spricht regelmäßig auf Forschungs- und Industriekonferenzen und wurde für seine Vorträge mehrfach ausgezeichnet. Elmar Jürgens wurde 2015 zum Junior Fellow der Gesellschaft für Informatik ernannt.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/elmar-juergens/

Benjamin Hummel
Elmar Juergens
Benjamin Hummel
Vortrag: Mi 6.1-1

Vortrag Teilen

Elmar Juergens
Vortrag: Mi 6.1-2

Vortrag Teilen

11:00 - 11:45
Mi 6.2
Data-Aware Architectures als Basis für Analytics & AI
Data-Aware Architectures als Basis für Analytics & AI

Daten sind elementarer Bestandteil jeder Software – und doch kommen sie bei der Betrachtung der Architektur oft zur kurz, insbesondere im Hinblick auf die analytische Nutzung. Ideen wie Data Mesh haben dafür gesorgt, dass „analytische Daten“ auch in der Softwarearchitektur wieder populärer wurden. Schließlich sind sie die Grundlage für GenAI, ML und Data Analytics.

Ich gehe auf typische Vorgehen in der Vergangenheit und auf neue Wege in modernen Softwarearchitekturen ein. Wie schaffe ich es, frühzeitig im Entwicklungsprozess die analytische Nutzung zu berücksichtigen? Welche Methoden und Techniken gibt es, um die Lücke zwischen Softwareengineering und Data Teams zu überbrücken? Außerdem gibt es einen Überblick über die mögliche Implementierung einer solchen Data Aware Architecture.

Zielpublikum: Architekten, Entwickler, Entscheider, sowohl auf der Anwendungs- als auch der Data-Seite
Voraussetzungen: Erfahrung mit der Nutzung oder Bereitstellung von Daten für analytische Zwecke
Schwierigkeitsgrad: Advanced

Matthias Niehoff arbeitet als Head of Data und Data Architect für die codecentric AG und unterstützt Kunden bei der Konzeption und Umsetzung von Datenarchitekturen. Sein Fokus liegt dabei weniger auf dem ML-Modell, sondern vielmehr auf der notwendigen Infrastruktur und Organisation, um Data-Science-Projekte zum Erfolg zu führen.

Matthias Niehoff
Matthias Niehoff

Vortrag Teilen

14:30 - 15:30
Mi 6.3
Generative AI: LLM-basierte Anwendungen – Top Patterns & Lösungen für nahtlose Integration
Generative AI: LLM-basierte Anwendungen – Top Patterns & Lösungen für nahtlose Integration

Generative AI jenseits des Buzzword-Bingos. In diesem Vortrag präsentiert Christian Weyer konkrete Patterns und Lösungen für die Integration von Large Language Models (LLMs) in eigene Softwarearchitekturen. Wichtige Themen wie Semantic Routing, Tool Calling, Guarding oder Observability werden mit Code-Beispielen illustriert. Es erwartet Entwickler und Architekten ein pragmatischer Einblick zur Umsetzung in eigenen Projekten.

Zielpublikum: Entwickler, Architekten, Entscheider für KI-Lösungen
Voraussetzungen: Interesse an Generative AI, Architekturverständnis, ggf. Python lesen können ;-)
Schwierigkeitsgrad: Basic

Christian Weyer ist Mitgründer und CTO der Thinktecture AG. Als Microsoft MVP, Microsoft RD und Google GDE ist er leidenschaftlicher Speaker auf verschiedenen Softwarekonferenzen und -veranstaltungen weltweit. Seit mehr als 25 Jahren liegt sein Herz immer bei den neuesten Technologien und wie man sie sinnvoll für moderne Softwarelösungen einsetzen kann. Sein aktueller Schwerpunkt liegt auf der Umsetzung von Generative-AI-Technologien für ISV- und Unternehmensentwickler.

Christian Weyer
Christian Weyer

Vortrag Teilen

17:00 - 18:00
Mi 6.4
Generative AI Security — A Practical Guide to Securing Your AI Application
Generative AI Security — A Practical Guide to Securing Your AI Application

The pace of innovation in generative AI offers immense opportunities while also introducing new security challenges. As organizations seek to leverage generative AI for innovation, security leaders must take concrete steps to enable rapid experimentation without compromising security.

We will then discuss key strategies for securing generative AI applications, including threat modeling, guardrails, observability, and evaluation of effectiveness of security measures. Through case studies and practical examples, we will show how to apply these strategies in real-world scenarios. Attendees will learn how to identify and mitigate potential risks, and how to evaluate the effectiveness of their security measures.

Target Audience: Security leaders, developers, practitioners, decision makers, software architects, CTOs
Prerequisites: Interest to learn about new technology
Level: Advanced

Manuel Heinkel is a Solutions Architect at AWS, working with software companies in Germany to build innovative and secure applications in the cloud. He supports customers in solving business challenges and achieving success with AWS. Manuel has a track record of diving deep into security and SaaS topics. Outside of work, he enjoys spending time with his family and exploring the mountains.

Puria Izady is a Solutions Architect at AWS, helping software companies in Germany build innovative SaaS solutions. With a background in machine learning and generative AI, he brings technical expertise and business acumen to design AI/ML driven applications at scale. Puria collaborates closely with customers, understanding their needs and tailoring solutions to meet their specific goals. Before joining AWS, Puria worked in a global bank where he modernized a monolithic stack to a scalable and agile architecture while ensuring security and compliance. Outside of work, Puria enjoys exploring new countries and fine-tuning his secret pizza recipe.

Manuel Heinkel, Puria Izady
Manuel Heinkel, Puria Izady

Vortrag Teilen

Zurück