Track: 30. April
- Donnerstag
30.04.
Den vollmundigen Versprechen mancher Anbieter und Influencer für generative KI steht die praktische Realität gegenüber, dass die Beschränkungen von LLMs zu vielen Problemen führen, ganz besonders beim Softwareengineering. Die Analyse großer Softwarearchitekturen und Codebasen durch LLMs scheitert unter anderem an dem beschränkten Kontextfenster der Foundation-Modelle. Das gilt im Umkehrschluss auch für die Generierung entsprechender Systeme. Wie sich diese Problematik zumindest teilweise umgehen…
Kai Tödter präsentiert eine innovative Möglichkeit, Large Language Models (LLMs) effizienter und flexibler einzusetzen.
In dieser Session tauchen wir in das Model Context Protocol (MCP) ein – eine leistungsstarke Methode zur Orchestrierung von Kontextdaten für LLMs. Zunächst entwickeln wir einen MCP-Server mit Spring AI, der über Claude Desktop mit einem Movie- und einem Wetter-Service verbunden wird. Dabei demonstrieren wir die Anbindung sowohl über STDIO als auch über REST, um die…