Konferenzprogramm

Konferenzprogramm

Track: Software Architecture - The Impact of Generative AI

Nach Tracks filtern
Alle ausklappen
  • Mittwoch
    11.02.
  • Donnerstag
    12.02.
10:45 - 12:15
Mi 1.1
Domain Modeling Meets GenAI: Turbo-Charging Agile from Domain to Deployment

GenAI tools promise speed, but without solid domain models, they hallucinate and create waste. This talk shows how Domain Modeling techniques give AI the structure it needs while AI gives the speed teams crave to understand their domain more quickly. Attendees will learn concrete techniques—prompt libraries, RAG knowledge bases, code-generation guardrails—to move from sticky notes to production-grade code in a single sprint. We will examine how GenAI can be integrated with Domain Modeling…

Mehr lesen
Joseph Yoder, Marden Neubert
14:00 - 14:45
Mi 1.2
Kill the Vibe? Architektur im AI-Zeitalter

AI verändert, wie wir Software entwickeln – doch was bedeutet das für Architektur? LLMs liefern schnell Ergebnisse, lassen Struktur aber oft emergent entstehen. Architektur wird dadurch nicht überflüssig, sondern zentraler: kürzere Zyklen, schnelleres Feedback, engere Verzahnung von Design und Umsetzung.

Der Talk zeigt, wie LLMs Architekturarbeit verändern – von innovativen Werkzeugen wie AI-Review-Agents oder LLM-Coding-Workflows über angepasste Architekturmethodik, bis hin zu einem neuen…

Mehr lesen
Stefan Toth
16:15 - 17:15
Mi 1.3
KI-Agenten integrieren – verteilte Systeme und Daten mit dem offenen Standard MCP anbinden

KI-Agenten ohne Anbindung an Unternehmenssysteme sind zahnlose Tiger: viel Potenzial, aber praktisch harmlos. Das Model-Context-Protokoll (MCP) löst genau dieses Problem: Als offener Standard verbindet es KI-Agenten unkompliziert mit heterogenen Systemen wie Self-contained Systems, Microservices oder verteilten Datenquellen – quasi USB-C für KI. Gerade für Teams in verteilten Systemlandschaften macht MCP die Integration gangbar. Wir schauen uns anhand konkreter Praxisbeispiele an, wie MCP…

Mehr lesen
Robert Glaser
09:00 - 10:30
Do 1.1
Strategien für die Analyse großer Softwaresysteme mit Sprachmodellen

Den vollmundigen Versprechen mancher Anbieter und Influencer für generative KI steht die praktische Realität gegenüber, dass die Beschränkungen von LLMs zu vielen Problemen führen, ganz besonders beim Softwareengineering. Die Analyse großer Softwarearchitekturen und Codebasen durch LLMs scheitert unter anderem an dem beschränkten Kontextfenster der Foundation-Modelle. Das gilt im Umkehrschluss auch für deren Generierung. Wie sich diese Problematik zumindest teilweise umgehen lässt, möchte der…

Mehr lesen
Michael Stal
11:00 - 11:45
Do 1.2
Meine KI und ich – beste Freunde oder enttäuschte Beziehung?

Überall entstehen aktuell neue Ideen und Möglichkeiten, mithilfe von GenAI konkrete Unterstützung für im Grunde alle Rollen im Software-Engineering zu erhalten. Das kann in höherer Qualität der Softwareprodukte, verbesserter Effizienz während der Entwicklung oder besseren Entscheidungen münden. Wie gut das funktioniert und was für Potenziale hier in frühen SE-Phasen schlummern, haben wir innerhalb verschiedener Projekte genauer untersucht und ein Plugin entwickelt, um Erkenntnisse zu gewinnen,…

Mehr lesen
Frank Elberzhager
14:30 - 15:30
Do 1.3
Können KI-Modelle elegante APIs entwerfen? Ein DDD-inspirierter Blick

Dieser Vortrag zeigt, wie LLMs auf Basis von DDD-Praktiken wie Domain Storytelling, Event Storming und Context Mapping bei der Gestaltung verständlicher und domänengerechter APIs unterstützen können. Anhand des Synergetic-Blueprint-Prozesses wird erläutert, wo KI echten Mehrwert bietet – und wo menschliches Urteilsvermögen weiterhin unersetzlich bleibt.

Zielpublikum: Architekten, Entwickler, Product Owner, Produkt-Manager
Voraussetzungen:Erste Erfahrungen in DDD und Softwarearchitektur
Level:

Mehr lesen
Annegret Junker
17:00 - 18:00
Do 1.4
Pimp Dein LLM! – Model Context Protocol mit Spring AI

In dieser Session tauchen wir in das Model Context Protocol (MCP) ein – eine leistungsstarke Methode zur Orchestrierung von Kontextdaten für LLMs. Zunächst entwickeln wir einen MCP-Server mit Spring AI, der über Claude Desktop mit verschiedenen Services verbunden wird. Anschließend erstellen wir einen MCP-Client mit Spring AI, der den Kontext aus verschiedenen Datenquellen verarbeiten kann. Zum Abschluss widmen wir uns dem Thema Security und zeigen, wie der MCP-Server mit OAuth2 abgesichert…

Mehr lesen
Kai Tödter

Zurück