Konferenzprogramm

Die im Konferenzprogramm der OOP 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Unser Programm gibt es auch als praktische PDF-Datei:
» PDF-Download

Track: Testing & Quality

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Dienstag
    30.01.
  • Mittwoch
    31.01.
, (Dienstag, 30.Januar 2024)
09:00 - 10:30
Di 9.1
Test Strategy Storming – Ein leichtgewichtiger Weg zu einer Minimum-Viable-Teststrategie
Test Strategy Storming – Ein leichtgewichtiger Weg zu einer Minimum-Viable-Teststrategie

Wenn man eine gute Übersicht über eine komplette Domäne mit einem einfachen Event-Storming-Workshop bekommt, warum machen wir dann nicht etwas Ähnliches, wenn wir eine Teststrategie entwickeln? Wir haben einen neuen kollaborativen Ansatz in Projekten erprobt und gute Ergebnisse erzielt. Am Ende hatten wir ein gemeinsames Bild, wie man mit dem Testen startet, sowie ein Backlog von offenen Punkten. Der Vortrag zeigt die Schritte, wie man in der Praxis zu einer "Minimum Viable Test Strategy" kommt.

Zielpublikum: Architekt:innen, Test Manager:innen, Tester:innen, Projektleiter:innen
Voraussetzungen: Grundkenntnisse Testen
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der Vortrag liefert ein Vorgehen, wie man eine grobe Teststrategie visualisieren kann und wie man sie mit den wesentlichen Stakeholdern kollaborativ entwirft. Als erster Schritt werden Teststufen und Testarten festgelegt. Danach werden Details wie Verantwortlichkeiten, Werkzeuge, Umgebungen und Metriken diskutiert. Dabei entstehen die ersten Regeln für das Testen und gleichzeitig ein Backlog für das Klären offener Punkte.
Die Methode ist analog zum Event Storming sehr leichtgewichtig, so dass sie direkt anwendbar ist.

Kathrin Potzahr ist seit 25 Jahren Architektin in der Software-Entwicklung geschäftskritischer Systeme. Sie berät Unternehmen, wie man Qualität frühzeitig sicherstellt und kontinuierlich hält.

Mit dem Zweiten testet man besser: Die Entwicklung effizienter Testverfahren für das ZDF
Mit dem Zweiten testet man besser: Die Entwicklung effizienter Testverfahren für das ZDF

Die Abstände zwischen Entwicklungsphase und Release werden kürzer. Das betrifft neue Produkte gleichermaßen, wie zusätzliche Features in App-/Webanwendungen. In der Projektleitung mangelt es oft an Integrations- und Abnahmeverfahren sowie einem Device-Setup passend zur Zielgruppe. Der Schlüssel: Kontinuität und Agilität. Am Beispiel des App-Testings für das ZDF beleuchten wir die größten Mythen über externes Testing und Automation und werfen einen Blick auf die Zukunft kombinierter QA-Verfahren.

Zielpublikum: Entscheider:innen, Projektleiter:innen, Product Owner:innen, Berater:innen, Softwareentwickler:innen
Voraussetzungen: Interesse an der Entwicklung von QA und Teststrategien
Schwierigkeitsgrad: Anfänger

Extended Abstract:
In diesem Vortrag erweitern wir die Perspektive der fachlichen Umsetzung von Testing und Automation um die Herausforderungen im agilen Prozess. Welche Anforderungen birgt eine schwer einzugrenzende Zielgruppe? Die Apps des ZDF stehen durch den öffentlich-rechtlichen Verbund in besonderer Weise auf dem Prüfstand. Wie gelingt es hier auf Seiten der Qualitätssicherung, effiziente und langfristige Lösungen zu schaffen? Unter dem Stichwort agile Testverfahren geben die Speaker Einblicke und Impulse und öffnen das Gespräch für die Seiten der Projektleitung, Entwicklung und des Testmanagements, um auf neue Methoden und die Zukunft der QA zu blicken.

Anika Strake arbeitet seit 2019 bei Appmatics. Zunächst brachte sie sich als QA-Automatisierungsingenieurin ein. Heute ist sie TeamLead Automation und betreut Testverfahren für Partner, wie ZDF, Migros & BVG.

Benedikt Broich ist seit 2016 Teil von Appmatics und begleitet die Entwicklung der QA-Prozesse. Als Teamlead arbeitet er an der Schnittstelle vom Testmanagement und Partnern, wie Klett, Kicker & Eurowings.

Kathrin Potzahr
Anika Strake, Benedikt Broich
Kathrin Potzahr
Vortrag: Di 9.1-1

Vortrag Teilen

Anika Strake, Benedikt Broich
Vortrag: Di 9.1-2

Vortrag Teilen

14:00 - 14:45
Di 9.2
Plädoyer für eine geeignete Werkzeugunterstützung im Testdesign
Plädoyer für eine geeignete Werkzeugunterstützung im Testdesign

Prozessunterstützende Werkzeuge erleichtern uns die tägliche Arbeit. Sie helfen uns, Software zu entwickeln und zu testen oder das Projekt zu steuern. Doch es gibt es gibt einen blinden Fleck: das Testdesign. Gute Tests scheinen vom Himmel zu fallen. Man muss sie nur niederschreiben oder programmieren.
Tatsächlich gibt es ein enormes Verbesserungs- und Einsparungspotenzial, welches in den meisten Organisationen ungenutzt liegen gelassen wird. In diesem Vortrag zeigen wir, welche das sind und wie modellbasiertes Testen zur Lösung beitragen kann.

Zielpublikum: Tester:innen, Testmanager:innen, Manager:innen, Projektleiter:innen Entscheider:innen
Voraussetzungen: Erfahrung mit Tests in Projekten
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Während die Industrialisierung der Software-Entwicklung in vielen Bereichen vorangekommen ist (Stichwort „CI/CD“), gibt es im Test noch immer einen grauen Fleck: das Testdesign. Von außen wenig wahrgenommen, bemühen sich Fachexperten – meist völlig ohne Werkzeugunterstützung – ihr Bestes zu geben. Das ist bestenfalls Handwerk, wenn nicht gar Kunst!
Wieso „ohne Werkzeugunterstützung“? Wir haben doch ein ALM-Tool eingeführt! Sehr gut, nur war nicht von Testmanagement die Rede, sondern von Testdesign; also von der Erstellung geeigneter Testfälle, die mit möglichst wenig Aufwand möglichst viele Aspekte abprüfen. Testdesign ist eine entscheidende Aktivität im Testprozess, die obendrein hohes Verbesserungspotenzial besitzt. Es gibt also keinen Grund, weshalb Tester sich mit einem Text-Editor zufriedengeben sollten, während die Kollegen aus der Entwicklung diverse Tools zur Unterstützung ihrer Arbeit einsetzen.
Dieser Vortrag macht auf ein Manko aufmerksam, welches nicht länger akzeptiert werden sollte, und zwar weder von Testern noch von Managern. Wieso verbringen wir Stunden mit Besprechungen zur Klärung von Anforderungen, wenn es etablierte Methoden gibt, dies zu verbessern (Stichwort: modellbasiertes Testdesign)? Wieso überarbeiten wir Testfälle und Testskripte mühsam per Hand, wenn es auch hier Werkzeuge gibt, die uns einen Teil der Arbeit abnehmen könnten?
Wir werden zeigen, welche Aktivitäten dringend Werkzeugunterstützung benötigen und wie diese aussehen kann. Ein ganz wichtiger Aspekt ist dabei selbstverständlich der Einsatz von KI, die auf vielfältige Weise hilfreich sein wird. Doch es gibt auch andere, eher prozess-basierte Ansätze wie ATDD.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Anne_Kramer

Während ihrer beruflichen Laufbahn in stark regulierten Branchen (E-Payment, Medizintechnik, Automotive) hat Anne Kramer einen außergewöhnlichen Erfahrungsschatz in IT-Projekten in den Bereichen QS und Test gesammelt. Anne gibt ihr Wissen und ihre Erfahrung mit Leidenschaft weiter, insbesondere wenn es um Testdesign-Ansätze geht, die auf visuellen Darstellungen basieren. Seit April 2022 ist Anne Global Customer Success Managerin bei Smartesting, einem französischen Hersteller von SW-Testwerkzeugen.

Anne Kramer
Anne Kramer

Vortrag Teilen

16:15 - 17:15
Di 9.3
Asking the Right Questions When Testing AI Systems
Asking the Right Questions When Testing AI Systems

While AI systems differ in some points from "traditional" systems, testing them does not have to be more difficult - knowing the right questions to ask will go a long way. In this talk we will:

  • Arm you with a checklist of questions to ask when preparing to test an AI system
  • Show you that testers and data scientist have common ground when testing AI systems

Keep calm and test on - AI systems are not that different from "normal" systems.

Target Audience: Testers, Data Scientists, Developers, Product Owners, Architects
Prerequisites: Basic knowledge of software testing
Level: Advanced

Extended Abstract:
If you're a tester about to test your first AI system, or wanting to move into that area, you're probably wondering how you can prepare for the role. While we usually do not deal with complexity in the magnitude of Large Language models like chatGPT, AI systems still seemingly offer different challenges than "traditional" systems.
You're not the first person to deal with these questions. In fact, a group of us got together to explore it in more detail. Is there a general framework of questions that testers can use to help develop a quality strategy for systems that use AI? We wanted to see if we could design one. To this end, we got together a group with diverse roles: tester, test architect, data scientist, project lead and CEO.
Join us in this talk to hear how we approached the task and what our results are, including an example of using our checklist of questions to analyse a system that uses AI. Along the way we also addressed questions like "What is the role of a tester in such projects?" and "How much math do I need?" - we'll talk about those discussions, too. We encourage participants to use our checklist and give us feedback on it!

Gregor Endler holds a doctor's degree in Computer Science for his thesis on the completeness of timestamped data.
His work at codemanufaktur GmbH deals with Machine Learning and Data Analysis.

Marco Achtziger is working for Siemens Healthineers in Forchheim. He has several qualifications from iSTQB and iSQI and is a certified Senior Software-Architect by Siemens AG but is a test architect in his heart. In that area he also works as a trainer for a Siemens AG/Healthineers wide training program for test architects. He always seeks to exchange knowledge and experiences from other companies to make sure that we all learn from each other. He does that also as speaker on several conferences like OOP or Agile Testing Days and several other conferences.

Gregor Endler, Marco Achtziger
Gregor Endler, Marco Achtziger

Vortrag Teilen

17:45 - 18:45
Di 9.4
Generative AI for Cybersecurity
Generative AI for Cybersecurity

Security engineering from TARA and security requirements to security testing demand mechanisms to generate, verify, and connect the resulting work products. Traditional methods need lots of manual work and yet show inconsistencies and imbalanced tests. Generative AI allows novel methods with semi-automatic cyber security requirements engineering, traceability, and testing. In this industry presentation, we show two promising approaches with NLP and transformers and how to embed them into an industry-scale security pipeline from TARA to test.

Target Audience: Test Engineers, QA Experts, Security Experts, Requirements and Systems Engineers
Prerequisites: Some background on security and testing. We will hands-on introduce the AI methods.
Level: Advanced

Extended Abstract:
Security engineering from TARA and security requirements to security testing demand mechanisms to generate, verify, and connect the resulting work products. Traditional methods need lots of manual work such as for traceability and yet show little impact when looking at the many inconsistencies and imbalanced tests. NLP especially transformers allow novel methods with semi-automatic cyber security requirements engineering, traceability, and testing.
We focus here on using generative AI with NLP because they can support the methods described in the standard while there is no need to change the form of representation from what is required by cybersecurity standards and respective stakeholders. Especially the use of Large Language Models (LLM) for text generation, aggregation, and classification has recently proven promising to improve the efficiency and effectiveness of security analysis and tests.
Grey Box Penetration Testing is an approach where only publicly available information is used to perform an attack on the SUT. This often requires massive research effort. Threat catalogs were known and often used threats are recorded can increase the performance while testing. To provide additional aid we are currently working towards building an AI-supported threat catalogue. Therefore, we use a special transformer model which is specialized in searching and summarizing information. When fed with known information about the SUT this model searches all available databases like CVE or CAPEC, previously recorded attack patterns, and other contextual information available and gives the penetration test engineer an initial idea of how to approach an attack on the SUT.
Using the AI to generate both grey and white box attack paths is an approach to check how much information about the system or components such as libraries and dependencies which are used in the SUT are available. Having introduced these methods to the security life-cycle, we will in the next step better integrate the tools. This will facilitate a swift turn-around upon changes in an agile delivery pipeline and thus achieve consistency from TARA to security requirements and (regression) test cases.
Vector together with the University of Stuttgart has developed transformers and generative AI-based methodologies for the specification and validation of cybersecurity requirements with the goal to increase productivity and quality.
In this industry presentation, we practically show how generative AI can scale into an industry-scale security pipeline.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/christof.ebert

Christof Ebert is the managing director of Vector Consulting Services in Stuttgart, Germany. He holds a PhD from University of Stuttgart, is a Senior Member of the IEEE and teaches at University of Stuttgart and Sorbonne university in Paris. Cybersecurity has been his focus since studying in USA and directly contributing against the Morris worm.

Christof Ebert, Maximilian Beck
Christof Ebert, Maximilian Beck

Vortrag Teilen

, (Mittwoch, 31.Januar 2024)
09:00 - 10:30
Mi 9.1
Quality Coaching – Qualität in die agile Transformation bringen
Quality Coaching – Qualität in die agile Transformation bringen

Agile Transformation wird oft als obligatorische Aufgabe gesehen, ohne den tatsächlichen organisatorischen Bedarf zu berücksichtigen. Doch sie bietet Chancen zur
Prozessverbesserung. Der Haken ist aber oft, dass der genaue, eigene Bedarf im Unternehmen oft nicht bekannt ist und nach "best practices" der Industrie gehandelt wird.
Frei nach dem Motto „was bei anderen funktioniert, ist für uns nur recht“ werden Gilden und Tribes initiiert, Communities of Practice gebildet und die Re-Organisationen in die Wege geleitet.

Doch wie können wir die eigenen Bedarfe identifizieren? Woher bekommen wir das Wissen über den Status Quo in der Organisation? Als Tester im Herzen hinterfragen wir gerne den Systemzustände und wie es dazu kam. In diesem Vortrag möchten wir gerne praktische Beispiele aus unserer Projekterfahrung mit Behörden und privaten Unternehmen einfließen lassen und aufzeigen, wie wir als Coaches und Berater einen nachhaltigen, individuellen Wandel begeleitet haben.

Zielpublikum: Tester:innen, Testautomatisierer:innen, Manager:innen, Führungskräfte, Entscheider:innen
Voraussetzungen: Projekterfahrung, Kenntnisse Software-Entwicklungs-Teams, Change-Management
Schwierigkeitsgrad: Anfänger

Extended Abstract:
In unserem Vortrag möchten wir skizzieren, wie wir den Wandel der IT-Abteilungen z.B. großer Behörden begleitet haben. Wir werden unsere Erfahrung von Beginn des Projekts
teilen und auch auf Ideen eingehen, die nicht funktioniert haben und wie wir damit umgegangen sind.

  • Wie kamen wir an die notwendige Datenbasis? Wie können Interview-Leitfäden aussehen und wen sollte man befragen?
  • Kann man überhaupt KPIs eines Change-Projekts bilden?
  • Wie sieht eine Kommunikationsstrategie aus, von vorstandsgerechter Management- Summary bis zur detailreichen Kommunikation innerhalb der Abteilungen?
  • Konnten wir Ideen generalisieren und wiederverwenden, oder ist alles individuell geschnitten?
  • All das und noch viel mehr werden wir anhand eines agilen Lebenszyklusmodells behandeln und unsere Erfahrung mit Ihnen teilen.

Wir wollen in diesem Vortrag betonen, warum Quality Coaches in einer strategischen Position sind, um als Schnittstelle zwischen Test-Abteilungen, Management und Mitarbeiter:innen, den Wandel aktiv mitzugestalten.

Bastian Knerr studierte Accounting und Controlling, bevor er im Bereich Software Compliance arbeitet. Schließlich fand er vor etwa drei Jahren seine Leidenschaft fürs Software Testing. Er begann mit manuellen Tests und arbeitet nun als IT-Projektleiter oder Testmanager in agilen Projekten verschiedenster Industrien und Behörden. In seiner täglichen Arbeit liebt er es, Systeme ganzheitlich zu betrachten und eine Schnittstelle zwischen verschiedenen Bereichen (einschließlich Menschen) zu sein. In seiner Freizeit liebt er es, kreativ zu sein (malen, Musik machen), joggen zu gehen, alte griechische Philosophen zu lesen und Zeit mit Freunden zu verbringen.

Bastian Baumgartner ist ein Tester und Testmanager mit mehreren Jahren Erfahrung in nationalen und internationalen Projekten. Er hat es sich zur Aufgabe gemacht, die bestmögliche Beratung in Bezug auf (Test-)Planung, Methodik und Strategie an den jeweiligen Kunden anzupassen, um die Qualität der Software zu optimieren. In zahlreichen Projekten, sowohl im öffentlichen als auch im privaten Sektor, konnte er ständig seine Erfahrungen im Bereich Testen, Testmanagement und Testumgebungsbewirtschaftung erweitern. Besonders in komplexen Projekten hat er bestehende Prozesse weiterentwickelt oder neue Prozesse entwickelt, um die Anforderungen des End-to-End-Testmanagements zu erfüllen und zu optimieren. Bastian Baumgartner ist maßgeblich an der Gestaltung und Schulung des TestMaster beteiligt und erfüllt diese Rolle in komplexen agilen Kundenprojekten.

Kommunikation kann gelingen – mit live Quality Coaching
Kommunikation kann gelingen – mit live Quality Coaching

Stell dir vor, wie viel Zeit UND Nerven du sparen könntest, wenn Kommunikation einfach mal funktionieren würde! Klingt wie ein Märchen für dich? Kennen wir. Richtige Kommunikation ist ein Skill, den unsere "T-Shape Teams" häufig erst noch erlernen müssen. Eine Möglichkeit ist durchs Coaching. Bei uns schlüpft der Quality Coach schnell mal in die Rolle des Übersetzers - ob von Wasserfall-Sprech zu Agile, von emotional zu sachlich, von technisch zu fachlich oder von kompliziert-chaotisch zu einfach-strukturiert. Geht nicht? Geht doch!

Zielpublikum: Architekt:innen, Entwickler:innen, Projektleiter:innen, Manager:innen, Entscheider:innen, Testmanager:innen, Quality Coaches, Tester:innen
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Stell dir vor, wie viel Zeit UND Nerven du sparen könntest, wenn Kommunikation einfach mal funktionieren würde! Klingt wie ein Märchen für dich? Kennen wir.
Selbst mit einem Studium im Kommunikationsmanagement und als erfahrener Redakteur und Regisseur begegnen wir in unserem Alltag der Software-Entwicklung immer wieder Stolperfallen durch misslungene Kommunikation.
Auch Kommunikation ist ein Skill, den unsere "T-Shape Teams" häufig erst noch erlernen müssen. Eine Möglichkeit ist durchs Coaching. Bei uns schlüpft der Quality Coach schnell mal in die Rolle des Übersetzers - ob von Wasserfall-Sprech zu Agile, von emotional zu sachlich, von technisch zu fachlich oder von kompliziert-chaotisch zu einfach-strukturiert.
Und nicht nur das, die Rolle sensibilisiert und bringt den Leuten Tipps bei, ihre Kommunikation nachhaltig zu verbessern.
Setz dich in unser Theaterstück und erlebe ein Live-Coaching, aus dem du direkt einige wertvolle Tipps mitnehmen wirst. Wir werden einen Testmanager aus der Wasserfall-Welt mit einem agilen Tester auf der Bühne diskutieren lassen und schauen dann einem Quality Coach dabei zu, was ihm auffällt und wie sich das Ganze retten lässt. Am Ende schauen wir uns an, ob die beiden was daraus gelernt haben.
Wir werden Antworten auf folgende Fragen finden:
Sind Akzeptanzkriterien gleich Akzeptanzkriterien? Was können wir tun, um Kommunikation zu erleichtern? Wie arbeitet ein Quality Coach? Und warum tun sich Personen, die in der traditionellen Softwarelieferung arbeiten, so schwer, mit denen im agilen Liefermodus zusammen zu arbeiten, und andersrum genauso? Und natürlich: Was kann ich tun, damit mir Kommunikation gelingt?

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Viviane.Hennecke

English below

Viviane Henneckes Schwerpunkt liegt auf der Verbesserung von Qualitätsprozessen. Hierfür kombiniert sie seit 2018 bei Accenture Tester- & Trainererfahrung mit ihrem Hintergrund in Kommunikationsmanagement.
----------
Viviane Hennecke's focus area is on structured improvements of quality processes in scaled agile initiatives. She is known to combine her neurodivergent mind with testing and trainer experience and with her background in communication management. She joined Accenture in May 2018. She took different roles such as agile tester, test manager, agile test and quality coach. She creates and delivers trainings, speeches, and articles.

Emmanuel Losch kombiniert 10 Jahre im Kommunikationsbereich mit seiner Zertifizierung zum Webentwickler. Als diplomierter Regisseur und Werbetexter verbindet er dies bei Accenture mit Softwaretechnologien.

Lisa Worms' Spezialgebiet ist die Testautomatisierung. Ursprünglich kommt sie aus dem Kommunikation- und Marketingbereich. Seit 2022 ist sie bei Accenture vor allem als Test Automation Engineer tätig.

Bastian Knerr, Bastian Baumgartner
Viviane Hennecke, Emmanuel Losch, Lisa Worms
Bastian Knerr, Bastian Baumgartner

Vortrag Teilen

Viviane Hennecke, Emmanuel Losch, Lisa Worms

Vortrag Teilen

11:00 - 11:45
Mi 9.2
Technical Neglect
Technical Neglect

Many developers evoke technical debt to explain the misfortunes and troubles of their codebase and delivery. While unmanaged technical debt weighs down an architecture and exerts drag on its schedule, it is more often an effect than a cause. In this talk, we will look at what is and is not meant by technical debt with a view to properly attributing the root and recurring cause as technical neglect than technical debt. Without seeing technical neglect for what it is, we will continue to misattribute our problems to an effect rather than a cause.

Target Audience: Developers, Architects, Technical Managers
Prerequisites: Responsibility for software development, whether implementing it, guiding it or managing it
Level: Advanced

Extended Abstract:
Many developers evoke the mischievous spirit and day-to-day burden of technical debt to explain the misfortunes and troubles of their codebase and delivery. While unmanaged technical debt weighs down an architecture and exerts drag on its schedule, it is more often an effect than a cause. In this talk, we will look at what is and is not meant by technical debt — and other metaphors — with a view to properly attributing the root and recurring cause as technical neglect than technical debt. Without seeing technical neglect for what it is, we will continue to misattribute our problems to an effect rather than a cause.

Kevlin Henney is an independent consultant, speaker, writer and trainer. His development interests are in programming, practice and people. He is co-author of two volumes in the ”Pattern-Oriented Software Architecture” series, and editor and contributor for multiple books in the ”97 Things” series. He lives in Bristol and online.

Kevlin Henney
Kevlin Henney

Vortrag Teilen

14:30 - 15:30
Mi 9.3
Fostering the EU AI Act | A new dimension in assuring high risk AI
Fostering the EU AI Act | A new dimension in assuring high risk AI

In the evolving AI landscape, the EU AI Act introduces new standards for assuring high-risk AI systems. This presentation will explore the tester's role in navigating these standards, drawing from the latest research and from our experiences with an Automatic Employment Decision System, a high-risk AI. We'll discuss emerging methodologies, conformity assessments, and post-deployment monitoring, offering insights and practical guidance for aligning AI systems with the Act's requirements.

Target Audience: QA Professionals, AI Engineers/Architects, Business Leaders, POs/PMs, Policy Makers
Prerequisites: Basic Understanding of AI, Familiar with Testing, Awareness of EU AI Act, Interest in AI Asurance
Level: Advanced

Extended Abstract:
As the landscape of Artificial Intelligence (AI) rapidly evolves, the upcoming EU AI Act is set to introduce a new paradigm for assuring high-risk AI systems. This session will allow participants to delve into the pivotal role of testers in this context. We will decode the complexities of the Act and get to see how fostering the Act will ensure robust, transparent, and ethically aligned AI systems.
Drawing on recent research and my own experience in testing high-risk AI systems, I will discuss the emerging methodologies for testing high-risk AI, including explainability methods, robustness testing, and fairness testing. Together, we will also explore the Act's emphasis on conformity assessments and post-deployment monitoring, highlighting the tester's role in these processes. Participants will gain a unique behind-the-scenes look at how we have gone from chaos to order in testing an Automatic Employment Decision System, a high-risk AI.
Joining this session will equip participants with valuable insights and practical guidance on aligning AI systems with the EU AI Act. This is a must-attend for testers, AI developers, and business leaders alike who are navigating this new frontier, exploring the challenges, opportunities, and future directions in the assurance of high-risk AI systems. By the end of the session, participants will be better prepared to face the challenges posed by the EU AI Act and will have a clear understanding of the future directions in the assurance of high-risk AI systems.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/andrei.nutas

Andrei Nutas is an AI Assurance Consultant with over 7 years of industry experience. For the past year, among other things, Andrei has helped Nagarro align its Automated Employment Decision System to the upcoming EU AI Act. In his free time, he is a research fellow with the West University of Timisoara where he focuses on AI Alignment and AI Ethics.

Andrei Nutas
Andrei Nutas

Vortrag Teilen

17:00 - 18:00
Mi 9.4
Unabhängig von Microservices – wie geht man vor, um Code entlang von Domänen umzustrukturieren?
Unabhängig von Microservices – wie geht man vor, um Code entlang von Domänen umzustrukturieren?

Das eigene Software-System in Microservices transformieren? Unabhängig davon, wir Softwerker sollten auch bestehenden Code entlang von Fachlichkeiten besser trennen. Wie gehen wir vor? Strangler-Pattern? Ist keine praktische Anleitung. Den Code in Geschäftsdomänen konzeptionell aufteilen und dann neu zu strukturieren? Klingt nach Big-upfront-Design.
Im Vortrag zeigen wir, wie man die bestehende Datenbasis über Code hinaus nutzen kann. Wie man z.B. die Features (im Issue-Tracker) oder die Beiträge der einzelnen Entwickler dabei berücksichtigt.

Zielpublikum: Architekt:innen, Projekt-/Technische Leiter:innen, Key Developer:innen, Manager:innen, Entscheider:innen
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Das eigene Software-System in Microservices transformieren? Unabhängig davon, wir Softwerker sollten auch bestehenden Code entlang von Fachlichkeiten besser trennen. Wie gehen wir vor? Strangler-Pattern? Ist keine praktische Anleitung. Den Code in Geschäftsdomänen konzeptionell aufteilen und dann refactoren? Klingt nach Big-upfront-Design.
Im Vortrag zeigen wir, wie man die bestehende Datenbasis über Code hinaus nutzen kann. Wie man von Features (im Issue-Tracker) ausgeht, diese probeweise Domänen zuweist und deren Kopplungen (Überlappungen, Aufruf-Abhängigkeiten) im Code evaluiert. Damit dann den Refactoring-Bedarf lokalisieren und den Aufwand bewerten. Und wie automatisierte Refactoring-Vorschläge dabei eine Rolle spielen.
Die Herausforderungen sind die gleichen, wir müssen sie nur anders angehen.

Behandelte Problemstellungen:

  1. Wie trennt man bestehenden Code nach fachlichen Verantwortlichkeiten?
  2. Wie führt man das Ganze probeweise durch vor dem Refactoring/Coding?
  3. Wie nutzt man die Features des Issue-Trackers dafür?
  4. Wie nutzt man das Code-Repository dafür?
  5. Wie wird der Refactoring/Redesign-Bedarf lokalisiert?
  6. Wie bewertet man den Aufwand dafür?

Nutzen für den Teilnehmer:

  1. Teilnehmer lernen ein praktisches Vorgehen zur Trennung des Codes entlang fachlicher Verantwortlichkeiten
  2. Teilnehmer lernen mehr über architekturelle technische Schulden
  3. Teilnehmer wohnen einem unterhaltsamen Vortrag bei :-)

Egon Wuchner hat mehr als 18 Jahre bei der Siemens AG als Software Engineer, Architekt und Projektleiter zu den Themen Software-Architektur und Qualität gearbeitet. 2018 hat er Cape of Good Code gegründet.

Konstantin Sokolov hat für Siemens als Freelancer an den Themen mit Egon zusammengearbeitet. Zusammen haben sie Cape of Good Code mit dem Ziel gegründet, Software-Analysen anzubieten, auf die es ankommt.

Egon Wuchner, Konstantin Sokolov
Egon Wuchner, Konstantin Sokolov

Vortrag Teilen

Zurück