Hinweis: Die aktuelle OOP-Konferenz finden Sie hier!

Konferenzprogramm

Unsere Empfehlung: Die Virtual Deep Dives

Mehr als 30 Jahre OOP-Erfahrung trifft auf moderne Innovation: Taucht mit uns tief in die wichtigsten Themen gegenwärtiger Software-Architektur ein – auf den "Virtual Deep Dives | powered by OOP".

Diese Konferenz versteht sich als Online-Ergänzung zur OOP München und bietet die Möglichkeit, sich intensiv und interaktiv mit den neuesten Trends und Best Practices in der Software-Architektur auseinanderzusetzen. Unsere Expert:innen und Branchenführer werden tiefe Einblicke in ihre Arbeitsweise geben und wertvolles Wissen teilen, das Sie direkt in Ihre Projekte integrieren können.

» Zu den Virtual Deep Dives

Rückblick auf das Programm der OOP München 2024

Die im Konferenzprogramm der OOP 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Thema: Quality Assurance

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Montag
    29.01.
  • Dienstag
    30.01.
  • Mittwoch
    31.01.
  • Donnerstag
    01.02.
  • Freitag
    02.02.
, (Montag, 29.Januar 2024)
10:00 - 17:00
Mo 2
Limitiert KPIs als Brücke zwischen Business und IT – Der Praxiskurs zur Entwicklung von KPIs und Metriken
KPIs als Brücke zwischen Business und IT – Der Praxiskurs zur Entwicklung von KPIs und Metriken

Wenn Sie wissen möchten, was KPIs sind, wieso diese nicht das Gleiche sind wie Metriken oder SLAs und wie Sie sie strukturiert entwickeln können – dann sind Sie in diesem Kurs genau richtig!
In einem Rollenspiel in Kleingruppen erarbeiten Sie anhand von 4 Themenbereichen einen Key-Performance-Indicator (KPI) und dessen Rollout.
Erleben Sie, wie unterschiedlich komplex die einzelnen Diskussionen aller Stakeholder bis zur Erstellung des KPI sein können. Und erfahren Sie, wie Sie die Hürden einer Einführung in Ihrem Unternehmen meistern können.

Max. Teilnehmendenzahl: 50

Zielpublikum: Entwickler:innen, Projektleiter:innen, Manager:innen, Entscheider:innen, Tester:innen, Product Owner:innen, Scrum Master:innen
Voraussetzungen: Interesse an Metriken / KPIs. Projekt- / PM-Erfahrung ist von Vorteil
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Viele Konferenzbeiträge der letzten Jahre waren geprägt von Vorträgen, die KPIs erwähnten und als wichtig unterstrichen. Aus den Rückfragen der Teilnehmer wurde ersichtlich, dass die meisten den Unterschied zwischen einer Metrik, einem SLA und einem KPI nicht kennen, geschweige denn eine allgemeine Methode zur Entwicklung eben dieser.
Mit diesem Tutorial möchten wir zum einen ein grundlegendes Verständnis für das Thema und die Entwicklung von KPIs schaffen. Zum anderen möchten wir praktisch erlebbar machen, wie die einzelnen Stakeholder während der Entwicklung eines KPI unterschiedlich agieren, welche Diskussionen mit welchem Ziel geführt werden müssen und letztendlich welcher Aufwand spendiert werden muss.

Mehr Inhalte dieser Speaker? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Daniel.Pollighttps://www.sigs.de/autor/Evgeniia.Antonova

Daniel Pollig ist Experte für Software-QA & -Testing mit 12+ Jahren Kundenerfahrung.
Themenschwerpunkte: QA-Assessments, Beratung von Teststrategien, -organisationen sowie KPIs und Metriken auf Management-Ebene.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/daniel-pollig/

Evgeniia Antonova ist Expertin für Qualitätssicherung mit 12+ Jahren Kundenerfahrung in der Pharma-, Banken- und Maschinenbauindustrie; spezialisiert als Berater auf Testprozessdesign, Testmethodik und Teststrategie.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/evgeniia-antonova/

Daniel Pollig, Evgeniia Antonova
Raum 05
Daniel Pollig, Evgeniia Antonova
Raum 05

Vortrag Teilen

10:00 - 13:00
Mo 5
Limitiert Testing Wisdoms to Expand Our Horizons
Testing Wisdoms to Expand Our Horizons

To expand our horizons in testing, we should ask ourselves the following questions:

  1. What did we learn from the history of testing?
  2. What did we miss and what did we forget?
  3. How can we do better testing in the future?

Therefore, in this interactive tutorial we will identify, discover, investigate, reflect, and discuss testing wisdoms from different categories to answer these questions and to expand our horizons – you are invited to bring your own top 3 testing wisdoms (I will bring my top n) and share them with your peers in this tutorial!

Max. number of participants: 50

Target Audience: Test Architects, Test Engineers, Software-Architects, Developers, Product Owners, Quality Managers
Prerequisites: Basic knowledge about testing and quality engineering
Level: Advanced

Extended Abstract:
Effective and efficient software and system development requires superior test approaches in place and a strong commitment to quality in the whole team. To realize the right mix of test methods and quality measures is no easy task in real project life due to increasing demand for reliability of systems, cost efficiency, and market needs on speed, flexibility, and sustainability.
To address these challenges and to expand our horizons in testing, we should ask ourselves the following questions:

  • What did we learn from the history of testing?
  • What did we miss and what did we forget?
  • How can we do better testing in the future?

Therefore, in this interactive tutorial we will identify, discover, investigate, reflect, and discuss testing wisdoms from different categories (techniques, people, history) to answer these questions and at the same time to expand our horizons – you are invited to bring your own top 3 testing wisdoms (I will bring my top n) and share them with your peers in this tutorial!
Projected learning outcomes and lessons learned

  • Get familiar with testing wisdoms – known and unknown, old and new.
  • Learn and share experiences on how to discover and adopt testing wisdoms.
  • Apply discussed testing wisdoms to improve your test approaches in the future!

Peter Zimmerer is a Principal Key Expert Engineer at Siemens AG, Technology, in Garching, Germany. For more than 30 years he has been working in the field of software testing and quality engineering. He performs consulting, coaching, and training on test management and test engineering practices in real-world projects and drives research and innovation in this area. As ISTQB® Certified Tester Full Advanced Level he is a member of the German Testing Board (GTB). Peter has authored several journal and conference contributions and is a frequent speaker at international conferences.

Peter Zimmerer
Raum 03
Peter Zimmerer
Raum 03

Vortrag Teilen

17:30 - 19:00
Nmo 5
Schach dem Risiko – Risikomanagement als Spiel
Schach dem Risiko – Risikomanagement als Spiel

Risiken bei der Software-Entwicklung richtig einzuschätzen ist essentiell für die Qualität des erstellten Produkts und die Einhaltung von Rahmenbedingungen für das Projekt. Risiken werden dabei meist durch Brainstorming ermittelt, dabei können jedoch Risiken übersehen werden, ggf. mit katastrophalen Folgen. Risk Storming und andere Gamification-Techniken für das Risikomanagement helfen, Risiken zu erkennen, wirksame Gegenmaßnahmen zu ergreifen und somit das Risiko in Schach zu halten.

Laptop (mit Browserzugang) wird benötigt.

Zielpublikum: Projektleiter:innen, Projektmanager:innen, Testmanager:innen
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Risiken bei der Software-Entwicklung richtig einzuschätzen ist essentiell für die Qualität des erstellten Produkts und die Einhaltung von Rahmenbedingungen für das Projekt. Risiken werden dabei meist durch Brainstorming ermittelt, dabei können jedoch Risiken übersehen, ggf. mit katastrophalen Folgen. Insbesondere die Vielfältigkeit der potenziellen Risiken macht es schwer, an alles zu denken.
Risk Storming und andere Gamification-Techniken für das Risikomanagement helfen, Risiken zu erkennen, indem sie verschiedene Denkansätze für das Risiko-Brainstorming bieten und den Prozess gezielt leiten. Darüber hinaus lassen sich wirksame Gegenmaßnahmen ableiten, um den ermittelten Risiken mit geeigneten Mitteln entgegenzuwirken, ihr Schadenspotenzial zu verringern oder ihre Auftrittswahrscheinlichkeit zu reduzieren, u.a. mit der Erstellung eines Testplans. Dabei wird Risikomanagement zum Spiel, das nicht nur Spaß macht, sondern auch zeiteffizient und effektiv ist.
Anhand eines konkreten Beispiels spielen wir das Risikomanagement einmal durch. Dabei kommt neben Risk Storming von Ministry of Testing auch das Risk Management Game zum Einsatz, mit dem Eintrittswahrscheinlichkeiten und Schadenshöhe von Risiken reduziert werden sollen. Wir werfen zudem einen Blick auf verwandte Spiele wie das Mängelquartett, aus dem wir weitere Inspiration ziehen können. Mitmachen ist ausdrücklich erwünscht!

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/dehla.sokenou

Dr.-Ing. Dehla Sokenou promovierte 2005 an der TU Berlin über UML-basiertes Testen. Sie fühlt sich in allen Phasen der Softwareentwicklung zu Hause, einen besonderen Schwerpunkt bilden allerdings auch weiterhin alle Themen rund um Qualitätssicherung und Testen. Bei der WPS ist sie als Test- und Qualitätsmanagerin sowie Softwarearchitektin tätig. Daneben ist sie Sprecherin der GI-Fachgruppe Test, Analyse und Verifikation von Software (TAV). 

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/dehla-sokenou/

Dehla Sokenou
Raum 13b
Dehla Sokenou
Raum 13b
Vortrag: Nmo 5

Vortrag Teilen

, (Dienstag, 30.Januar 2024)
09:00 - 10:30
Di 2.1
Leichtgewichtige und fokussierte Software-Reviews
Leichtgewichtige und fokussierte Software-Reviews

Der Wert von Software-Reviews wird allgemein akzeptiert. Bei klassischen Methoden steht diesem gleichzeitig ein erheblicher Aufwand gegenüber. Das macht es Entwicklungsteams schwierig, ihre Vorhaben zum richtigen Zeitpunkt angemessen zu beleuchten, um Risiken aufzudecken und die Architektur abzusichern. In diesem Vortrag skizziere ich praktikable Ansätze, mit denen Sie und Ihr Team mit überschaubarem Aufwand und im Extremfall im Alleingang wertvolle Ergebnisse erzielen.

Zielpublikum: In erster Linie Architekt:innen und Entwickler:innen, ansonsten alle in Softwarevorhaben Beteiligte
Voraussetzungen: Erfahrung in Software-Entwicklungsvorhaben
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der Wert von Software-Reviews wird allgemein akzeptiert. Bei klassischen Methoden wie ATAM steht diesem gleichzeitig ein erheblicher Aufwand gegenüber. Das macht es Entwicklungsteams schwierig, ihre Vorhaben zum richtigen Zeitpunkt angemessen zu beleuchten, um Risiken aufzudecken und die Architektur abzusichern. In diesem Vortrag skizziere ich praktikable Ansätze, mit denen Sie und Ihr Team mit überschaubarem Aufwand und im Extremfall im Alleingang wertvolle Ergebnisse erzielen.
Zur Motivation: Es gibt einige "große" Methoden zur Architekturbewertung wie ATAM oder CBAM, oder sehr "flapsige", die nur Bauchgefühl haben. Da einen Mittelweg zu finden ist nicht leicht.
Aus der Praxis von 50+ Reviews konnten wir aber einen funktionierenden Kern ableiten, der fundiert und trotzdem schlank ist. Das Ergebnis stelle ich in dieser Session vor und gebe Orientierung, wie Sie das Schritt für Schritt auf Ihre eigenen Softwarelösungen anwenden.
Der Clou: Die gezeigte Methodik ist darauf getunt, durch Fokussierung bereits früh verwertbare und vorzeigbare Ergebnisse zu liefern. Weitere Schritte liefern wo nötig tiefere Erkenntnisse und mehr Sicherheit.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/stefan.zoerner

Stefan Zörner ist Softwareentwickler und -architekt bei embarc in Hamburg. Er wirkt bei Entwurfs- und Umsetzungsfragen mit, unterstützt beim Festhalten von Architektur und beleuchtet Lösungsansätze in Bewertungen. Sein Wissen und seine Erfahrung teilt er regelmäßig in Vorträgen, Artikeln und Workshops. Stefan ist aktives Board-Mitglied im iSAQB und Autor des Buchs „Softwarearchitekturen dokumentieren und kommunizieren“.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/stefan-zoerner/

Stefan Zörner
Raum 13a
09:00 - 10:30
Di 3.1
All tests are green? Oh no!! Why it is sometimes good, if a test fails
All tests are green? Oh no!! Why it is sometimes good, if a test fails

Test coverage: 100% - Check!
And why do we still have bugs?
OK, tests don't prove the absence of errors.
And at the end of the day, they are just code which could contain bugs as well.
And perhaps they give us a false sense of security.
But how do I know, that my test are good?
One way to find out is using Mutation Testing.
In this talk I want to explain, what Mutation Testing is, how to do it and when it is helpful.

Target Audience: Developers, Achitects, Testers
Prerequisites: Basic knowledge in Programming, some experience in writing tests
Level: Basic

Extended Abstract:
More and more teams are writing tests for their production code, be it by applying concepts like TDD or BDD or by just writing them "after the fact". Sometimes there is also a test coverage metric that needs to be met. The positive effect is definitely that there are tests. Be it for my future self or a future colleague or as a form of documentation.
Tests are a means of telling something about the quality of production code. Mutation testing can help tell something about the quality of tests. It helps to find missing tests and potential bugs.
The concept of mutation testing is already more than 50 years old, but its application has not yet become widespread.
This talk should encourage you to take a closer look at mutation testing to find out what possibilities it offers in your own project, but also to see what disadvantages or pitfalls there are.

Birgit Kratz is freelancing software developer and consultant with more than 20 years experience in the Java ecosystem.
Her domain as well as her passion is using agile development methods and spreading the software-crafting ideas.
This is why she is a co-organizer of the German software crafting community (Softwerkskammer) events in Cologne and Düsseldorf for many years now.
And she helps organizing the SoCraTes conference (Software Crafting and Testing Conference).
To balance her job activities she rides her road bike quite extensively.

Shifting accessibility testing to the left
Shifting accessibility testing to the left

How often have you heard that ‘Yes this is important, but we don’t have the capacity right now’ or ‘sure let’s put it in the backlog’?
This is something we should not brush off or take lightly. Accessibility testing is vital especially when your product is a user facing application.
We need to be socially aware as a team and build quality towards our product with making it more accessible.

Target Audience: Everyone as Accessibility is for social awareness
Prerequisites: None
Level: Basic

Extended Abstract:
At least 1 in 5 people in the UK have a long term illness, impairment or disability. Many more have a temporary disability. A recent study found that 4 in 10 local council homepages failed basic tests for accessibility.
This is quite vital and the sooner we as testers can advocate this into our teams, we make our product more accessible, reduce the risk of bad product reviews, reputation and also be more socially aware. Let's shift left and make accessibility testing built-in our teams.

  1. Understand why accessibility testing is important?
  2. How I adapted accessibility mindset?
  3. How to coach team and bring accessibility into your teams?
  4. Demonstrate various tools available to perform accessibility testing (with demo)

Laveena Ramchandani is a dedicated and experienced Test Manager with over 10 years of experience in the field. She is deeply passionate about continuous learning and sharing knowledge within the testing community. As a leader in data science testing and testing in general, Laveena has significantly contributed to enhancing the skillsets of individuals within the industry, particularly through her impactful presence on digital platforms.
In 2022, Laveena was recognized as a finalist for the prestigious Digital Star Award at the everywoman in Technology Awards. In addition to her recognition, she has been featured on several podcasts and blogs, serves as a trainer for new testers with The Coders Guild, and is a sought-after international speaker. Her commitment to the community continues to inspire and shape the next generation of testers.

Birgit Kratz
Raum 04b
Laveena Ramchandani
Raum 04b
Birgit Kratz
Raum 04b

Vortrag Teilen

Laveena Ramchandani
Raum 04b

Vortrag Teilen

09:00 - 10:30
Di 9.1
Test Strategy Storming – Ein leichtgewichtiger Weg zu einer Minimum-Viable-Teststrategie
Test Strategy Storming – Ein leichtgewichtiger Weg zu einer Minimum-Viable-Teststrategie

Wenn man eine gute Übersicht über eine komplette Domäne mit einem einfachen Event-Storming-Workshop bekommt, warum machen wir dann nicht etwas Ähnliches, wenn wir eine Teststrategie entwickeln? Wir haben einen neuen kollaborativen Ansatz in Projekten erprobt und gute Ergebnisse erzielt. Am Ende hatten wir ein gemeinsames Bild, wie man mit dem Testen startet, sowie ein Backlog von offenen Punkten. Der Vortrag zeigt die Schritte, wie man in der Praxis zu einer "Minimum Viable Test Strategy" kommt.

Zielpublikum: Architekt:innen, Test Manager:innen, Tester:innen, Projektleiter:innen
Voraussetzungen: Grundkenntnisse Testen
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der Vortrag liefert ein Vorgehen, wie man eine grobe Teststrategie visualisieren kann und wie man sie mit den wesentlichen Stakeholdern kollaborativ entwirft. Als erster Schritt werden Teststufen und Testarten festgelegt. Danach werden Details wie Verantwortlichkeiten, Werkzeuge, Umgebungen und Metriken diskutiert. Dabei entstehen die ersten Regeln für das Testen und gleichzeitig ein Backlog für das Klären offener Punkte.
Die Methode ist analog zum Event Storming sehr leichtgewichtig, so dass sie direkt anwendbar ist.

Kathrin Potzahr ist seit 25 Jahren Architektin in der Software-Entwicklung geschäftskritischer Systeme. Sie berät Unternehmen, wie man Qualität frühzeitig sicherstellt und kontinuierlich hält.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/kathrin-potzahr/

Mit dem Zweiten testet man besser: Die Entwicklung effizienter Testverfahren für das ZDF
Mit dem Zweiten testet man besser: Die Entwicklung effizienter Testverfahren für das ZDF

Die Abstände zwischen Entwicklungsphase und Release werden kürzer. Das betrifft neue Produkte gleichermaßen, wie zusätzliche Features in App-/Webanwendungen. In der Projektleitung mangelt es oft an Integrations- und Abnahmeverfahren sowie einem Device-Setup passend zur Zielgruppe. Der Schlüssel: Kontinuität und Agilität. Am Beispiel des App-Testings für das ZDF beleuchten wir die größten Mythen über externes Testing und Automation und werfen einen Blick auf die Zukunft kombinierter QA-Verfahren.

Zielpublikum: Entscheider:innen, Projektleiter:innen, Product Owner:innen, Berater:innen, Softwareentwickler:innen
Voraussetzungen: Interesse an der Entwicklung von QA und Teststrategien
Schwierigkeitsgrad: Anfänger

Extended Abstract:
In diesem Vortrag erweitern wir die Perspektive der fachlichen Umsetzung von Testing und Automation um die Herausforderungen im agilen Prozess. Welche Anforderungen birgt eine schwer einzugrenzende Zielgruppe? Die Apps des ZDF stehen durch den öffentlich-rechtlichen Verbund in besonderer Weise auf dem Prüfstand. Wie gelingt es hier auf Seiten der Qualitätssicherung, effiziente und langfristige Lösungen zu schaffen? Unter dem Stichwort agile Testverfahren geben die Speaker Einblicke und Impulse und öffnen das Gespräch für die Seiten der Projektleitung, Entwicklung und des Testmanagements, um auf neue Methoden und die Zukunft der QA zu blicken.

Anika arbeitet seit 2019 bei Appmatics. Zunächst brachte sie sich als QA-Automatisierungsingenieurin ein. Heute ist sie Team Lead Automation und betreut Testverfahren für Partner, wie ZDF, Migros & BVG.

Benedikt Broich ist seit 2016 Teil von Appmatics und begleitet die Entwicklung der QA-Prozesse. Als Teamlead arbeitet er an der Schnittstelle vom Testmanagement und Partnern, wie Klett, Kicker & Eurowings.

Kathrin Potzahr
Raum 04a
Anika Strake, Benedikt Broich
Raum 04a
Kathrin Potzahr
Raum 04a
Vortrag: Di 9.1-1

Vortrag Teilen

Anika Strake, Benedikt Broich
Raum 04a
Vortrag: Di 9.1-2

Vortrag Teilen

14:00 - 14:45
Di 2.2
From Legacy to Cloud – Mistakes You Don’t Want to Make Your Own
From Legacy to Cloud – Mistakes You Don’t Want to Make Your Own

Come and hear the story of a company that is on the journey from the old monolithic, on-premise, waterfall world to the new modular, agile, domain-driven, multi-tenant, cloud-based microservices world. The challenges come from different directions: both technical and organizational aspects have to be mastered. The domain has to be understood, so that the system can be structured right. The big bang has to be avoided.
In this talk we will look at how our “fictional” company has struggled with and finally overcome those challenges.

Target Audience: Architects, Developers, Project Leaders, Managers
Prerequisites: Programming Experience
Level: Advanced

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/henning.schwentner

Henning Schwentner loves programming in high quality. He lives this passion as coder, coach, and consultant at WPS – Workplace Solutions. There he helps teams to structure their monoliths or to build new systems from the beginning with a sustainable architecture. Microservices or self-contained systems are often the result. Henning is author of “Domain Storytelling” (Addison-Wesley, 2022), and the www.LeasingNinja.io as well as translator of “Domain-Driven Design kompakt” (dpunkt, 2017).

More content from this speaker? Have a look at sigs.de: https://www.sigs.de/experten/henning-schwentner/

Henning Schwentner
Raum 01
14:00 - 14:45
Di 9.2
Plädoyer für eine geeignete Werkzeugunterstützung im Testdesign
Plädoyer für eine geeignete Werkzeugunterstützung im Testdesign

Prozessunterstützende Werkzeuge erleichtern uns die tägliche Arbeit. Sie helfen uns, Software zu entwickeln und zu testen oder das Projekt zu steuern. Doch es gibt einen blinden Fleck: das Testdesign. Gute Tests scheinen vom Himmel zu fallen. Man muss sie nur niederschreiben oder programmieren.
Tatsächlich gibt es ein enormes Verbesserungs- und Einsparungspotenzial, welches in den meisten Organisationen ungenutzt liegen gelassen wird. In diesem Vortrag zeigen wir, welche das sind und wie modellbasiertes Testen zur Lösung beitragen kann.

Zielpublikum: Tester:innen, Testmanager:innen, Manager:innen, Projektleiter:innen Entscheider:innen
Voraussetzungen: Erfahrung mit Tests in Projekten
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Während die Industrialisierung der Software-Entwicklung in vielen Bereichen vorangekommen ist (Stichwort „CI/CD“), gibt es im Test noch immer einen grauen Fleck: das Testdesign. Von außen wenig wahrgenommen, bemühen sich Fachexperten – meist völlig ohne Werkzeugunterstützung – ihr Bestes zu geben. Das ist bestenfalls Handwerk, wenn nicht gar Kunst!
Wieso „ohne Werkzeugunterstützung“? Wir haben doch ein ALM-Tool eingeführt! Sehr gut, nur war nicht von Testmanagement die Rede, sondern von Testdesign; also von der Erstellung geeigneter Testfälle, die mit möglichst wenig Aufwand möglichst viele Aspekte abprüfen. Testdesign ist eine entscheidende Aktivität im Testprozess, die obendrein hohes Verbesserungspotenzial besitzt. Es gibt also keinen Grund, weshalb Tester sich mit einem Text-Editor zufriedengeben sollten, während die Kollegen aus der Entwicklung diverse Tools zur Unterstützung ihrer Arbeit einsetzen.
Dieser Vortrag macht auf ein Manko aufmerksam, welches nicht länger akzeptiert werden sollte, und zwar weder von Testern noch von Managern. Wieso verbringen wir Stunden mit Besprechungen zur Klärung von Anforderungen, wenn es etablierte Methoden gibt, dies zu verbessern (Stichwort: modellbasiertes Testdesign)? Wieso überarbeiten wir Testfälle und Testskripte mühsam per Hand, wenn es auch hier Werkzeuge gibt, die uns einen Teil der Arbeit abnehmen könnten?
Wir werden zeigen, welche Aktivitäten dringend Werkzeugunterstützung benötigen und wie diese aussehen kann. Ein ganz wichtiger Aspekt ist dabei selbstverständlich der Einsatz von KI, die auf vielfältige Weise hilfreich sein wird. Doch es gibt auch andere, eher prozess-basierte Ansätze wie ATDD.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Anne_Kramer

Während ihrer beruflichen Laufbahn in stark regulierten Branchen (E-Payment, Medizintechnik, Automotive) hat Anne einen außergewöhnlichen Erfahrungsschatz in IT-Projekten gesammelt - insbesondere in den Bereichen QS und Test. Anne gibt ihr Wissen und ihre Erfahrung mit Leidenschaft weiter, insbesondere wenn es um Testdesign-Ansätze geht, die auf visuellen Darstellungen basieren. Seit April 2022 ist Anne Global Customer Success Managerin bei Smartesting, einem französischen Hersteller von SW-Testwerkzeugen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/anne-kramer/

Anne Kramer
Raum 12a
Anne Kramer
Raum 12a

Vortrag Teilen

16:15 - 17:15
Di 9.3
Asking the Right Questions When Testing AI Systems
Asking the Right Questions When Testing AI Systems

While AI systems differ in some points from "traditional" systems, testing them does not have to be more difficult - knowing the right questions to ask will go a long way. In this talk we will:

  • Arm you with a checklist of questions to ask when preparing to test an AI system
  • Show you that testers and data scientist have common ground when testing AI systems

Keep calm and test on - AI systems are not that different from "normal" systems.

Target Audience: Testers, Data Scientists, Developers, Product Owners, Architects
Prerequisites: Basic knowledge of software testing
Level: Advanced

Extended Abstract:
If you're a tester about to test your first AI system, or wanting to move into that area, you're probably wondering how you can prepare for the role. While we usually do not deal with complexity in the magnitude of Large Language models like chatGPT, AI systems still seemingly offer different challenges than "traditional" systems.
You're not the first person to deal with these questions. In fact, a group of us got together to explore it in more detail. Is there a general framework of questions that testers can use to help develop a quality strategy for systems that use AI? We wanted to see if we could design one. To this end, we got together a group with diverse roles: tester, test architect, data scientist, project lead and CEO.
Join us in this talk to hear how we approached the task and what our results are, including an example of using our checklist of questions to analyse a system that uses AI. Along the way we also addressed questions like "What is the role of a tester in such projects?" and "How much math do I need?" - we'll talk about those discussions, too. We encourage participants to use our checklist and give us feedback on it!

Gregor Endler erwarb mit seiner Dissertation “Adaptive Data Quality Monitoring with a Focus on the Completeness of Timestamped Data” 2017 den Doktortitel in Informatik. Seitdem ist er als Data Scientist bei der codemanufaktur GmbH tätig. Seine Arbeit umfasst insbesondere Machine Learning, Datenanalyse und Datenvisualisierung.

Marco Achtziger is Test Architect working for Siemens Healthineers in Forchheim. In this role he supports teams working in an agile environment in implementing and executing tests in the preventive test phase in a large project. He has several qualifications from iSTQB and iSQI and is a certified Software Architect by Siemens AG and Siemens Senior Key Expert in the area of Testing and Continuous Delivery.

Gregor Endler, Marco Achtziger
Raum 13b
Gregor Endler, Marco Achtziger
Raum 13b

Vortrag Teilen

, (Mittwoch, 31.Januar 2024)
09:00 - 10:30
Mi 6.1
Coffee chat with documentation, are you ready?
Coffee chat with documentation, are you ready?

The introduction of ChatGPT, CoPilot X brings in a lot of hype over developer experiences, especially documentation. But are we ready to chat with our documentation, instead of reading, using these tools? How can we, as maintainers, leverage these tools to offer a better experience in documentation for developers as our users? Join my talk and let's find out.

Target Audience: Engineers, Developers
Prerequisites: Programming
Level: Advanced

Maya Shavin is Senior Software-Engineer in Microsoft, working extensively with JavaScript and frontend frameworks and based in Israel. She founded and is currently the organizer of the VueJS Israel Meetup Community, helping to create a strong playground for Vue.js lovers and like-minded developers. Maya is also a published author, international speaker and an open-source library maintainer of frontend and web projects. As a core maintainer of StorefrontUI framework for e-commerce, she focuses on delivering performant components and best practices to the community while believing a strong Vanilla JavaScript knowledge is necessary for being a good web developer.

GenAI: Revolutionizing Software Testing with Automated Test Cases and AI Analysis
GenAI: Revolutionizing Software Testing with Automated Test Cases and AI Analysis

Discover the transformative power of GenAI in software testing. This lecture showcases a powerful GenAI-powered test framework that enhances testing efficiency. Learn how GenAI analyzes applications to generate automated test cases, uncover hidden defects with generative AI's random exploratory tests. Experience AI-powered peer reviewers for code analysis and quality evaluations. Explore Smart Report AI, providing comprehensive analysis and insights into test execution, results, and defects. Join us to revolutionize your software testing with GenAI.

Target Audience: Quality Engineers, Architects, Developers, Project Leader, Managers
Prerequisites: Basic knowledge on modern software development
Level: Advanced

Extended Abstract:
In the rapidly evolving landscape of software development Generative AI holds immense potential to revolutionize the field of software testing. This lecture aims to explore the transformative capabilities of GenAI in software testing by showcasing the powerful GenAI powered test framework and its key components.
The lecture begins by introducing the main framework, which combines the power of GenAI and automation to enhance the efficiency and effectiveness of software testing. Attendees will learn how GenAI can analyze the application under test and generate automated test cases based on a predefined test framework. These test cases can be executed locally or seamlessly integrated into DevOps processes, allowing for efficient and comprehensive testing of applications.
Furthermore, the lecture delves into the utilization of generative AI for the generation of random exploratory tests. By leveraging the capabilities of GenAI, testers can uncover hidden defects and vulnerabilities that may go unnoticed with traditional testing approaches. This demonstration highlights the innovative potential of GenAI in driving comprehensive test coverage.
Additionally, the lecture showcases the Smart Peer AI component of the framework. Attendees will discover how AI-powered peer reviewers can anticipate functional and non-functional issues, providing insightful code analysis and quality evaluations. By incorporating specific coding best practices, architectural standards, and non-standard attributes, Smart Peer AI enhances code quality and accelerates the development process.
Finally, the lecture concludes by presenting the Smart Report AI, an AI-powered solution that analyzes test reports generated from automated testing processes. This component provides a comprehensive analysis of test execution, environment configuration, test results, defect severity automated analysis, reproducibility steps, and suggestions for fixes. Smart Report AI empowers testers with valuable insights and facilitates effective decision-making in the testing and development lifecycle.

Davide Piumetti is a Technology Architect with expertise in software testing and part of Switzerland quality engineering leadership. With over 15 years of experience he drives innovative projects in Big Data, Generative AI, and Test@DevOps. He is also exploring the potential of high-performance computing and quantum computing in software testing. Committed to pushing boundaries, he shapes the future of quality engineering through innovation and continuous improvement.

Maya Shavin
Raum 05
Davide Piumetti
Raum 05
09:00 - 10:30
Mi 9.1
Quality Coaching – Qualität in die agile Transformation bringen
Quality Coaching – Qualität in die agile Transformation bringen

Agile Transformation wird oft als obligatorische Aufgabe gesehen, ohne den tatsächlichen organisatorischen Bedarf zu berücksichtigen. Doch sie bietet Chancen zur
Prozessverbesserung. Der Haken ist aber oft, dass der genaue, eigene Bedarf im Unternehmen oft nicht bekannt ist und nach "best practices" der Industrie gehandelt wird.
Frei nach dem Motto „was bei anderen funktioniert, ist für uns nur recht“ werden Gilden und Tribes initiiert, Communities of Practice gebildet und die Re-Organisationen in die Wege geleitet.

Doch wie können wir die eigenen Bedarfe identifizieren? Woher bekommen wir das Wissen über den Status Quo in der Organisation? Als Tester im Herzen hinterfragen wir gerne den Systemzustände und wie es dazu kam. In diesem Vortrag möchten wir gerne praktische Beispiele aus unserer Projekterfahrung mit Behörden und privaten Unternehmen einfließen lassen und aufzeigen, wie wir als Coaches und Berater einen nachhaltigen, individuellen Wandel begeleitet haben.

Zielpublikum: Tester:innen, Testautomatisierer:innen, Manager:innen, Führungskräfte, Entscheider:innen
Voraussetzungen: Projekterfahrung, Kenntnisse Software-Entwicklungs-Teams, Change-Management
Schwierigkeitsgrad: Anfänger

Extended Abstract:
In unserem Vortrag möchten wir skizzieren, wie wir den Wandel der IT-Abteilungen z.B. großer Behörden begleitet haben. Wir werden unsere Erfahrung von Beginn des Projekts
teilen und auch auf Ideen eingehen, die nicht funktioniert haben und wie wir damit umgegangen sind.

  • Wie kamen wir an die notwendige Datenbasis? Wie können Interview-Leitfäden aussehen und wen sollte man befragen?
  • Kann man überhaupt KPIs eines Change-Projekts bilden?
  • Wie sieht eine Kommunikationsstrategie aus, von vorstandsgerechter Management- Summary bis zur detailreichen Kommunikation innerhalb der Abteilungen?
  • Konnten wir Ideen generalisieren und wiederverwenden, oder ist alles individuell geschnitten?
  • All das und noch viel mehr werden wir anhand eines agilen Lebenszyklusmodells behandeln und unsere Erfahrung mit Ihnen teilen.

Wir wollen in diesem Vortrag betonen, warum Quality Coaches in einer strategischen Position sind, um als Schnittstelle zwischen Test-Abteilungen, Management und Mitarbeiter:innen, den Wandel aktiv mitzugestalten.

Bastian Knerr studierte Accounting und Controlling, bevor er im Bereich Software Compliance arbeitet. Schließlich fand er vor etwa drei Jahren seine Leidenschaft fürs Software Testing. Er begann mit manuellen Tests und arbeitet nun als IT-Projektleiter oder Testmanager in agilen Projekten verschiedenster Industrien und Behörden. In seiner täglichen Arbeit liebt er es, Systeme ganzheitlich zu betrachten und eine Schnittstelle zwischen verschiedenen Bereichen (einschließlich Menschen) zu sein. In seiner Freizeit liebt er es, kreativ zu sein (malen, Musik machen), joggen zu gehen, alte griechische Philosophen zu lesen und Zeit mit Freunden zu verbringen.

Bastian Baumgartner ist ein Tester und Testmanager mit mehreren Jahren Erfahrung in nationalen und internationalen Projekten. Er hat es sich zur Aufgabe gemacht, die bestmögliche Beratung in Bezug auf (Test-)Planung, Methodik und Strategie an den jeweiligen Kunden anzupassen, um die Qualität der Software zu optimieren. In zahlreichen Projekten, sowohl im öffentlichen als auch im privaten Sektor, konnte er ständig seine Erfahrungen im Bereich Testen, Testmanagement und Testumgebungsbewirtschaftung erweitern. Besonders in komplexen Projekten hat er bestehende Prozesse weiterentwickelt oder neue Prozesse entwickelt, um die Anforderungen des End-to-End-Testmanagements zu erfüllen und zu optimieren. Bastian Baumgartner ist maßgeblich an der Gestaltung und Schulung des TestMaster beteiligt und erfüllt diese Rolle in komplexen agilen Kundenprojekten.

Kommunikation kann gelingen – mit live Quality Coaching
Kommunikation kann gelingen – mit live Quality Coaching

Stell dir vor, wie viel Zeit UND Nerven du sparen könntest, wenn Kommunikation einfach mal funktionieren würde! Klingt wie ein Märchen für dich? Kennen wir. Richtige Kommunikation ist ein Skill, den unsere "T-Shape Teams" häufig erst noch erlernen müssen. Eine Möglichkeit ist durchs Coaching. Bei uns schlüpft der Quality Coach schnell mal in die Rolle des Übersetzers - ob von Wasserfall-Sprech zu Agile, von emotional zu sachlich, von technisch zu fachlich oder von kompliziert-chaotisch zu einfach-strukturiert. Geht nicht? Geht doch!

Zielpublikum: Architekt:innen, Entwickler:innen, Projektleiter:innen, Manager:innen, Entscheider:innen, Testmanager:innen, Quality Coaches, Tester:innen
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Stell dir vor, wie viel Zeit UND Nerven du sparen könntest, wenn Kommunikation einfach mal funktionieren würde! Klingt wie ein Märchen für dich? Kennen wir.
Selbst mit einem Studium im Kommunikationsmanagement und als erfahrener Redakteur und Regisseur begegnen wir in unserem Alltag der Software-Entwicklung immer wieder Stolperfallen durch misslungene Kommunikation.
Auch Kommunikation ist ein Skill, den unsere "T-Shape Teams" häufig erst noch erlernen müssen. Eine Möglichkeit ist durchs Coaching. Bei uns schlüpft der Quality Coach schnell mal in die Rolle des Übersetzers - ob von Wasserfall-Sprech zu Agile, von emotional zu sachlich, von technisch zu fachlich oder von kompliziert-chaotisch zu einfach-strukturiert.
Und nicht nur das, die Rolle sensibilisiert und bringt den Leuten Tipps bei, ihre Kommunikation nachhaltig zu verbessern.
Setz dich in unser Theaterstück und erlebe ein Live-Coaching, aus dem du direkt einige wertvolle Tipps mitnehmen wirst. Wir werden einen Testmanager aus der Wasserfall-Welt mit einem agilen Tester auf der Bühne diskutieren lassen und schauen dann einem Quality Coach dabei zu, was ihm auffällt und wie sich das Ganze retten lässt. Am Ende schauen wir uns an, ob die beiden was daraus gelernt haben.
Wir werden Antworten auf folgende Fragen finden:
Sind Akzeptanzkriterien gleich Akzeptanzkriterien? Was können wir tun, um Kommunikation zu erleichtern? Wie arbeitet ein Quality Coach? Und warum tun sich Personen, die in der traditionellen Softwarelieferung arbeiten, so schwer, mit denen im agilen Liefermodus zusammen zu arbeiten, und andersrum genauso? Und natürlich: Was kann ich tun, damit mir Kommunikation gelingt?

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Viviane.Hennecke

Vivianes Leidenschaft liegt auf der Verbesserung von Qualitätsprozessen. Hierfür kombiniert sie seit 2018 bei Accenture Testing-, Coaching- & Trainererfahrung mit ihrem Hintergrund in Kommunikationsmanagement.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/viviane-hennecke/

Emmanuel verbindet 10 Jahre im Kommunikationsbereich mit seiner Zertifizierung zum Webentwickler. Als diplomierter Regisseur und Werbetexter vereint er dies bei Accenture mit Softwaretechnologien.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei:  https://www.sigs.de/experten/emmanuel-losch/

Lisas Spezialgebiet ist die Testautomatisierung. Ursprünglich kommt sie aus dem Kommunikation- und Marketingbereich. Seit 2022 ist sie bei Accenture vor allem als Test Automation Engineer tätig.

Bastian Knerr, Bastian Baumgartner
Raum 04a
Viviane Hennecke, Emmanuel Losch, Lisa Worms
Raum 04a
Bastian Knerr, Bastian Baumgartner
Raum 04a

Vortrag Teilen

Viviane Hennecke, Emmanuel Losch, Lisa Worms
Raum 04a

Vortrag Teilen

14:30 - 15:30
Mi 9.3
Fostering the EU AI Act | A new dimension in assuring high risk AI
Fostering the EU AI Act | A new dimension in assuring high risk AI

In the evolving AI landscape, the EU AI Act introduces new standards for assuring high-risk AI systems. This presentation will explore the tester's role in navigating these standards, drawing from the latest research and from our experiences with an Automatic Employment Decision System, a high-risk AI. We'll discuss emerging methodologies, conformity assessments, and post-deployment monitoring, offering insights and practical guidance for aligning AI systems with the Act's requirements.

Target Audience: QA Professionals, AI Engineers/Architects, Business Leaders, POs/PMs, Policy Makers
Prerequisites: Basic Understanding of AI, Familiar with Testing, Awareness of EU AI Act, Interest in AI Asurance
Level: Advanced

Extended Abstract:
As the landscape of Artificial Intelligence (AI) rapidly evolves, the upcoming EU AI Act is set to introduce a new paradigm for assuring high-risk AI systems. This session will allow participants to delve into the pivotal role of testers in this context. We will decode the complexities of the Act and get to see how fostering the Act will ensure robust, transparent, and ethically aligned AI systems.
Drawing on recent research and my own experience in testing high-risk AI systems, I will discuss the emerging methodologies for testing high-risk AI, including explainability methods, robustness testing, and fairness testing. Together, we will also explore the Act's emphasis on conformity assessments and post-deployment monitoring, highlighting the tester's role in these processes. Participants will gain a unique behind-the-scenes look at how we have gone from chaos to order in testing an Automatic Employment Decision System, a high-risk AI.
Joining this session will equip participants with valuable insights and practical guidance on aligning AI systems with the EU AI Act. This is a must-attend for testers, AI developers, and business leaders alike who are navigating this new frontier, exploring the challenges, opportunities, and future directions in the assurance of high-risk AI systems. By the end of the session, participants will be better prepared to face the challenges posed by the EU AI Act and will have a clear understanding of the future directions in the assurance of high-risk AI systems.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/andrei.nutas

Andrei Nutas is a Test Architect at Adesso with over 7 years of industry experience. For the past year, among other things, Andrei has helped align an Automated Employment Decision System to the upcoming EU AI Act. In his free time, he is a research fellow with the West University of Timisoara where he focuses on AI Alignment and AI Ethics.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/andrei-nutas/

Andrei Nutas
Raum 04a
Andrei Nutas
Raum 04a

Vortrag Teilen

17:00 - 18:00
Mi 6.4
Techniques for Improving Data Quality: The Key to Machine Learning
Techniques for Improving Data Quality: The Key to Machine Learning

One of the fundamental challenges for machine learning (ML) teams is data quality, or more accurately the lack of data quality. Your ML solution is only as good as the data that you train it on, and therein lies the rub: Is your data of sufficient quality to train a trustworthy system? If not, can you improve your data so that it is? You need a collection of data quality “best practices”, but what is “best” depends on the context of the problem that you face. Which of the myriad of strategies are the best ones for you?

Target Audience: Developers, Data Engineers, Managers, Decision Makers
Prerequisites: None
Level: Advanced

Extended Abstract:
This presentation compares over a dozen traditional and agile data quality techniques on five factors: timeliness of action, level of automation, directness, timeliness of benefit, and difficulty to implement. The data quality techniques explored include: data cleansing, automated regression testing, data guidance, synthetic training data, database refactoring, data stewards, manual regression testing, data transformation, data masking, data labeling, and more. When you understand what data quality techniques are available to you, and understand the context in which they’re applicable, you will be able to identify the collection of data quality techniques that are best for you.

Scott Ambler is an Agile Data Coach and Consulting Methodologist with Ambysoft Inc., leading the evolution of the Agile Data and Agile Modeling methods. Scott was the (co-)creator of PMI’s Disciplined Agile (DA) tool kit and helps organizations around the world to improve their way of working (WoW) and ways of thinking (WoT). Scott is an international keynote speaker and the (co-)author of 30 books.

Scott W. Ambler
Raum 22a
17:00 - 18:00
Mi 9.4
Unabhängig von Microservices – wie geht man vor, um Code entlang von Domänen umzustrukturieren?
Unabhängig von Microservices – wie geht man vor, um Code entlang von Domänen umzustrukturieren?

Das eigene Software-System in Microservices transformieren? Unabhängig davon, wir Softwerker sollten auch bestehenden Code entlang von Fachlichkeiten besser trennen. Wie gehen wir vor? Strangler-Pattern? Ist keine praktische Anleitung. Den Code in Geschäftsdomänen konzeptionell aufteilen und dann neu zu strukturieren? Klingt nach Big-upfront-Design.
Im Vortrag zeigen wir, wie man die bestehende Datenbasis über Code hinaus nutzen kann. Wie man z.B. die Features (im Issue-Tracker) oder die Beiträge der einzelnen Entwickler dabei berücksichtigt.

Zielpublikum: Architekt:innen, Projekt-/Technische Leiter:innen, Key Developer:innen, Manager:innen, Entscheider:innen
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Das eigene Software-System in Microservices transformieren? Unabhängig davon, wir Softwerker sollten auch bestehenden Code entlang von Fachlichkeiten besser trennen. Wie gehen wir vor? Strangler-Pattern? Ist keine praktische Anleitung. Den Code in Geschäftsdomänen konzeptionell aufteilen und dann refactoren? Klingt nach Big-upfront-Design.
Im Vortrag zeigen wir, wie man die bestehende Datenbasis über Code hinaus nutzen kann. Wie man von Features (im Issue-Tracker) ausgeht, diese probeweise Domänen zuweist und deren Kopplungen (Überlappungen, Aufruf-Abhängigkeiten) im Code evaluiert. Damit dann den Refactoring-Bedarf lokalisieren und den Aufwand bewerten. Und wie automatisierte Refactoring-Vorschläge dabei eine Rolle spielen.
Die Herausforderungen sind die gleichen, wir müssen sie nur anders angehen.

Behandelte Problemstellungen:

  1. Wie trennt man bestehenden Code nach fachlichen Verantwortlichkeiten?
  2. Wie führt man das Ganze probeweise durch vor dem Refactoring/Coding?
  3. Wie nutzt man die Features des Issue-Trackers dafür?
  4. Wie nutzt man das Code-Repository dafür?
  5. Wie wird der Refactoring/Redesign-Bedarf lokalisiert?
  6. Wie bewertet man den Aufwand dafür?

Nutzen für den Teilnehmer:

  1. Teilnehmer lernen ein praktisches Vorgehen zur Trennung des Codes entlang fachlicher Verantwortlichkeiten
  2. Teilnehmer lernen mehr über architekturelle technische Schulden
  3. Teilnehmer wohnen einem unterhaltsamen Vortrag bei :-)

Egon Wuchner worked more than 18 years at Siemens Corporate Technology and founded Cape of Good Code. He has worked as software engineer, software architect and project manager dealing with software architecture issues like software code and architecture quality attributes. He does consulting in the fields of software architecture analysis and improvement based on tools like the DETANGLE® Suite from Cape of Good Code.

Konstantin Sokolov hat für Siemens als Freelancer an den Themen mit Egon zusammengearbeitet. Zusammen haben sie Cape of Good Code mit dem Ziel gegründet, Software-Analysen anzubieten, auf die es ankommt.

Egon Wuchner, Konstantin Sokolov
Raum 12a
Egon Wuchner, Konstantin Sokolov
Raum 12a

Vortrag Teilen

18:30 - 20:00
Nmi 3
Diät für Eure Architekturdokumentation – Unser Ernährungsplan
Diät für Eure Architekturdokumentation – Unser Ernährungsplan

In Projekten treffen wir oft auf zwei Arten von Architekturdokumentation:
Gar keine oder veraltet in gigantischem Umfang. Der Effekt ist der gleiche – es wird nichts mehr dokumentiert, begründet mit "Keine Zeit" oder "Das findet niemand mehr".
Wir stellen Euch den Architecture Communication Canvas (ACC) vor, mit welchem Ihr in kurzer Zeit die wichtigsten Aspekte Eurer Architektur dokumentieren und kommunizieren könnt. Mit Praxisbezug zeigen wir Euch, dass Dokumentation sparsam und dabei nützlich für Stakeholder sein kann – und Spaß macht!

Zielpublikum: Architekt:innen, Entwickler:innen
Voraussetzungen: Grundwissen in Software-Architektur/Architekturdokumentation
Schwierigkeitsgrad: Anfänger

Extended Abstract:
In den meisten Projekten treffen wir auf folgende Arten von Architekturdokumentation:
Entweder gibt es gar keine Dokumentation, oder es existiert veraltete Dokumentation in gigantischem Umfang. Unabhängig davon ist der Effekt jedoch der gleiche – es wird nichts Neues mehr dokumentiert. Begründet wird dies meist mit "Das liest doch niemand", "Dafür haben wir keine Zeit" oder "Das findet ja niemand mehr". Kommt Euch bekannt vor? Dann ist dieser Vortrag genau das Richtige für Euch.
Wir stellen Euch heute den Architecture Communication Canvas (ACC) vor, mit welchem Ihr in kurzer Zeit die wichtigsten Aspekte Eurer Architektur dokumentieren und kommunizieren könnt. Der Canvas ist kompatibel zum arc42-Template, jedoch wesentlich kompakter. Mit Beispielen aus der Praxis sowie praktischen Tipps zeigen wir Euch, dass Dokumentation zugleich sparsam erstellt werden und dabei nützlich für Stakeholder sein kann – und das Ganze auch noch Spaß macht!

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/gernot.starke

Benjamin Wolf arbeitet als Senior IT Consultant bei INNOQ. Seine Schwerpunkte liegen auf dem Modernisieren von Legacy-Systemen, Architekturdokumentation sowie Architekturberatung und -entwicklung. Dabei richtet er ein besonderes Augenmerk auf die Entwicklungsprozesse und die Einstellung zu Softwarequalität in Teams. 
Benjamin ist Committer im arc42-Projekt, aktives Mitglied im iSAQB e. V. und dort aktuell stellvertretender Vorsitzender des Vereins.

Dr. Gernot Starke unterstützt als INNOQ-Fellow Kunden und Projekte in unterschiedlichen Branchen bei Architektur- und Reviewaufgaben. Er ist (Mit-)Gründer und Committer von arc42, Gründer und Committer von aim42.org sowie Autor mehrerer Fachbücher. Gernot ist aktives Mitglied im iSAQB e.V. und leitet dort die Arbeitsgruppe „Foundation Level“.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/gernot-starke/

Benjamin Wolf, Gernot Starke
Raum 13b
Benjamin Wolf, Gernot Starke
Raum 13b

Vortrag Teilen

, (Donnerstag, 01.Februar 2024)
09:00 - 09:45
Do 2.1
Quality Metrics Unleashed: Softwarequalität im Griff mit Visualisierung und Alerting
Quality Metrics Unleashed: Softwarequalität im Griff mit Visualisierung und Alerting

Das Sicherstellen der Softwarequalität in Microservice-Architekturen ist eine echte Herausforderung: Unsere bewährten Ansätze skalieren nicht mehr für komplexe Systeme mit zahlreichen Komponenten.
Wir präsentieren unseren Ansatz, der die Softwarequalität in komplexen Microservice-Architekturen beherrschbar macht. Wir sammeln und visualisieren verschiedene Metriken an zentraler Stelle, setzen auf Alerting bei Anomalien und unterstützen damit unsere Teams, frühzeitig zu erkennen, wohin wir unsere Aufmerksamkeit gezielt lenken müssen.

Zielpublikum: Architekt:innen, Entwickler:innen
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Mit einer geschickten Kombination von Open-Source-Tools haben wir unser Problem gelöst, den Überblick über zahlreiche verteilte Repos und Komponenten zu behalten.
Wir betrachten dabei verschiedene Metriken: sowohl die Codequalität, als auch fachliche und technische Schulden, die Einhaltung von Architekturvorgaben und viele weitere.

Sonja Wegner is Business Unit Director at QAware. She is responsible for the technical success of projects in the area of aftersales for the customer BMW. Her current focus is on the design and implementation of complex systems and software architectures. 

Als Senior Software Engineer bei der QAware hat sich Ildikó Tárkányi auf den Aufbau und das Testen komplexer Softwaresysteme spezialisiert. Durch ihre Leidenschaft für Technologie und ihr Engagement für hohe Qualitätsstandards meistert sie anspruchsvolle Probleme. Sie ist eine begeisterte Befürworterin des Wissenstransfers und nimmt an fachlichen Diskussionen und Austausch gerne teil.

Sonja Wegner, Ildikó Tárkányi
Raum 13a
09:00 - 10:30
Do 8.1
Best Practices, um Architekturdokumentation aktuell zu halten
Best Practices, um Architekturdokumentation aktuell zu halten

Eine explizite Softwarearchitektur ist der Garant für erfolgreiche Softwareprojekte. Zur Unterstützung der Kommunikation braucht es eine inhaltlich hinreichende und aktuelle Dokumentation. Der Docs-as-Code-Ansatz unterstützt, indem die Dokumentation in Form leichtgewichtiger Text- und Grafikformate näher an den Quellcode gebracht, in der Versionsverwaltung abgelegt, mit leichtgewichtigen Entwicklerwerkzeugen (IDE/Texteditor, Build-Tools, CI/CD-Pipelines) bearbeitet und in die Softwareentwicklungsprozesse integriert wird.

Zielpublikum: Architekt:innen, Entwickler:innen, Entscheider:innen
Voraussetzungen: Grundlegende Kenntnisse von Architekturdokumentation und für automatisiertes Build-Management
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Der Vortrag stellt leichtgewichtige Methoden, Vorlagen und Tools vor, die zum Erstellen einer hochwertigen, sich selbst validierenden Softwaredokumentation eingesetzt werden. Wir schauen uns Ansätze wie Docs-as-Code, leichtgewichtige Textformate, Ablage in der Versionsverwaltung und die Einbettung in die Build- und Review-Prozesse an. Das Sichtbarmachen von Software-Architekturkonzepten im Code und das Einbinden von Software-Analyse-Werkzeugen ermöglichen den kontinuierlichen Abgleich der Soll- und Ist-Strukturen und machen die Architekturdokumentation lebendiger.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Falk.Sippach

Falk Sippach ist bei der embarc Software Consulting GmbH als Softwarearchitekt, Berater und Trainer stets auf der Suche nach dem Funken Leidenschaft, den er bei seinen Teilnehmern, Kunden und Kollegen entfachen kann. Bereits seit 20 Jahren unterstützt er in meist agilen Softwareentwicklungsprojekten im Java-Umfeld. Als aktiver Bestandteil der Community (Mitorganisator der JUG Darmstadt und Mitglied der Java Champions) teilt er zudem sein Wissen gern in Artikeln, Blog-Beiträgen sowie bei Vorträgen auf Konferenzen oder User-Group-Treffen und unterstützt bei der Organisation diverser Fachveranstaltungen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/falk-sippach/

Falk Sippach
Raum 02
Falk Sippach
Raum 02

Vortrag Teilen

11:00 - 11:45
Do 2.2
Qualityland of Confusion
Qualityland of Confusion

Are you lost when folks talk about "quality" in the context of software? Just when you thought "high quality" means "good" and "QA" means "assure it's good", somebody hits you over the head with ISO 25010, where "quality" is just a neutral property of a software system. It's all a big happy pile of terminology quicksand where you sink faster the more you struggle for unambiguous and clear definitions. But we're here to help you out. We'll be looking at what's relevant about quality from a software architecture perspective.

Target Audience: Architects, Developers
Prerequisites: None
Level: Basic

Extended Abstract:
Among the prominent confusions is "quality requirements" vs. "functional requirements" - someone is sure to tell you that the first one is something not entirely unlike “non-functional” requirements. But if that distinction even is a thing, what's that "functional suitability" category of the ISO 25010 quality model? And where exactly do requirements even enter the picture? Once they do, how do we tell whether they are satisfied or not? And if they're not, how does all this terminology help with devising tactics for making things better? We'll separate out the taxonomy from the metrology, the metrology from the requirements, the functional from the non-functional (as far as this makes sense) and everything in between. We'll survey different ways of looking at quality and identify the murky areas where you need to be explicit about what you mean.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/michael.sperber

Dr. Michael Sperber is CEO of Active Group in Tübingen, Germany. Mike specializes in functional architecture, and has been an internationally recognized expert in the field. He has authored many papers on the subject as well as several books. Mike is also an accredited iSAQB trainer, curator of its FUNAR and DSL curricula, and a member of iSAQB's Foundation working group.

More content from this speaker? Have a look at sigs.de: https://www.sigs.de/experten/michael-sperber/

Alexander Lorz is a member of the iSAQB Foundation Level Working Group, head of the WG Train-the-Trainer, and author of the CPSA-F reference training material for international training providers.

Michael Sperber, Alexander Lorz
Raum 04a
Michael Sperber, Alexander Lorz
Raum 04a

Vortrag Teilen

11:00 - 11:45
Do 4.2
What if? Simulation in portfolio management and replacing estimation as a risk management strategy
What if? Simulation in portfolio management and replacing estimation as a risk management strategy

Managers and leaders worldwide struggle to decide between projects A, B, or both. Traditional estimation techniques fail because humans can't predict the future. This talk proposes a simulation-based approach inspired by investment strategies, industrial management, and poker playing. By leveraging AI, forecasting, and computing power, simulations offer a reliable and adaptable portfolio planning strategy. Rather than relying on human estimation, simulations streamline decision-making and provide reassurance.

Target Audience: Portfolio Managers, Product Leaders, CPO, CEO, CTO, Product Managers, Product Owners
Prerequisites: Beginner level probabilistic forecasting, familiarity with portfolio level decisions
Level: Basic

Extended Abstract:
Right now, around the world, managers and leaders are scratching their heads to try and answer the question “Should we take project A, B, or both?”. The techniques they are using, are woefully inadequate to answer their question because they rely on a skill humans don’t possess: predicting the future!
Estimation as a portfolio and risk management strategy relies on our ability to predict the future. But we don’t have that skill! What can we use instead then?
In this talk, we explore how we can learn from the world of investment (risk management), industrial management (process control), and poker playing (thinking in bets) to create a powerful simulation strategy that will streamline and reassure your portfolio planning team. Unlike humans, simulation can take as many ideas as you can throw at it, and can come up with the most likely winning scenarios quickly, repeatably, and is infinitely adaptable to future surprises.
Why rely on estimation when we can rely on AI, Forecasting, and the near-infinite computing power we have in even the most humble of spreadsheet programs?
Key Learnings

  • Basics of simulating portfolio decisions
  • Comparing simulation vs estimation for portfolio level decisions
  • Examples of simulation use in complex scenario assessment, with N >> 1 options for decision
  • How to effectively support decision making with simulation.

Vasco Duarte, a leading figure in the agile community, co-founded Agile Finland and hosts the popular Scrum Master Toolbox Podcast with over 10 million downloads. His book "NoEstimates" provides a unique approach to Agile, enhancing software development's sustainability and profitability. As a keynote speaker, he shares his expertise, empowering organizations to improve effectiveness, adaptability, and responsiveness. Vasco's contributions have reshaped the landscape of software development.

Daniel Vacanti is a 25-plus year software industry veteran who has spent most of his career focusing on Lean and Agile practices. In 2007, he helped to develop the Kanban as a strategy for knowledge work and managed the world’s first project implementation using Kanban that year. He has been conducting Lean-Agile training, coaching, and consulting ever since. In 2013 he founded ActionableAgileTM which provides industry-leading predictive analytics tools and services organizations that utilize Lean-Agile practices. In 2014 he published his book, “Actionable Agile Metrics for Predictability”, which is the definitive guide to flow-based metrics and analytics. In 2017, he helped to develop the “Professional Scrum with Kanban” class with Scrum.org and in 2018 he published his second book, “When Will It Be Done?”. Most recently, Daniel co-founded ProKanban.org whose aim is to create a safe, diverse, inclusive community to learn about Kanban.

Vasco Duarte, Daniel S. Vacanti
Raum 03
Vasco Duarte, Daniel S. Vacanti
Raum 03
Vortrag: Do 4.2

Vortrag Teilen

14:30 - 15:30
Do 2.3
Neue Qualitäten braucht das Land
Neue Qualitäten braucht das Land

Heutzutage erfordern Systeme eine hohe Bandbreite an Qualitäten: immer online, schnell, robust, elastisch, skalierbar und sicher, oder was auch immer Ihre Interessenvertreter unter Qualität verstehen.
Ich erkläre, was Software-Entwicklungsprojekte brauchen: spezifische, konkrete und überprüfbare Qualitätsanforderungen, und warum bestehende Normen (wie ISO) in dieser Hinsicht nicht ausreichen.
Abschließend zeige ich einen pragmatischen, leichtgewichtigen (Open-Source-) Ansatz, der zu spezifischen und umsetzbaren Qualitätsanforderungen führt.

Zielpublikum: Entwicklungsteams
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Heutzutage erfordern Systeme eine beeindruckende Bandbreite an Qualitäten: immer online, schnell, robust, elastisch, skalierbar und sicher, oder was auch immer Ihre Interessenvertreter unter Qualität verstehen.
Und genau hier beginnt das Problem: Die Stakeholder wissen oft nicht genau, was ihre Qualitätsanforderungen sind. Und wenn sie es doch wissen, bleiben diese Anforderungen oft implizit.
Ich erkläre, was Software-Entwicklungsprojekte brauchen: spezifische, konkrete und überprüfbare Qualitätsanforderungen, und warum bestehende Normen (wie ISO) in dieser Hinsicht nicht ausreichen.
Abschließend zeige ich einen pragmatischen, leichtgewichtigen Ansatz, der zu spezifischen und umsetzbaren Qualitätsanforderungen führt.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/gernot.starke

Dr. Gernot Starke unterstützt als INNOQ-Fellow Kunden und Projekte in unterschiedlichen Branchen bei Architektur- und Reviewaufgaben. Er ist (Mit-)Gründer und Committer von arc42, Gründer und Committer von aim42.org sowie Autor mehrerer Fachbücher. Gernot ist aktives Mitglied im iSAQB e.V. und leitet dort die Arbeitsgruppe „Foundation Level“.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/gernot-starke/

Gernot Starke
Raum 05
14:30 - 15:30
Do 3.3
NEU: Predicting the Future of Quality, Testing and Teams
NEU: Predicting the Future of Quality, Testing and Teams

The world is constantly changing. As IT professionals, we are aware of the intrinsic changeability of projects, contexts and our business, but the events of the last years have put this into sharper focus. How will external changes shape our teams and our work?
Alex looks at what factors are at work now, and what kinds of effects will they have on how we work, and the roles of testers and software professionals. She will also look at activities on an individual and company level, to best prepare ourselves for a nebulous future.

Target Audience: Everyone
Prerequisites: None
Level: Advanced

Extended Abstract:
The world is constantly changing, and everything is impermanent. As IT professionals, we are aware of the intrinsic changeability of projects, contexts and our business, but the events of the last years have put this into sharper focus. How will external changes shape our teams and our work?
How can we shape ourselves proactively in order to be able to respond to changes, make changes or our own and even thrive? Alex looks at what factors are at work now, and what kinds of effects will they have on how we work, and the roles of testers and software professionals. She will also look at concrete activities on an individual and company level, to best prepare ourselves for a nebulous future.

Alex Schladebeck is one of the managing directors at Bredex GmbH in Braunschweig, Germany with 7 years of managing experience, and 4 years of managing managers. An effervescent addition to any situation, Alex uses her unique style to her advantage in the corporate world of negotiating contracts and keeping a medium-sized company afloat amidst bigger players. Next to her leadership and strategic activities, Alex still works with customers in workshops about quality, agile and communication topics. She has won the award for “Most Influential Agile Testing Professional”, is a member of the ASQF Steering Committee and has been an active speaker since 2009 and international keynote speaker since 2016. Alex's current career grew from her years of expertise as an exploratory tester. Her presentations on the topic, with her contribution to the field through microheuristics, brought her to the realisation that the same skills of systematically exploring and categorising give her the best tools she could have to both succeed as a manager of managers, and teach others to do the same.

Alex Schladebeck
Raum 12a
Alex Schladebeck
Raum 12a

Vortrag Teilen

17:00 - 18:00
Do 1.4
Wie fit ist deine Architektur? Automatisierte Architekturtests & statische Codeanalyse mit ArchUnit
Wie fit ist deine Architektur? Automatisierte Architekturtests & statische Codeanalyse mit ArchUnit

Im Architektur-Entwurf treffen wir ständig Architekturentscheidungen, die im besten Fall explizit, dokumentiert und verstanden sind. Aber wie praktisch wäre es, wenn man kontinuierlich prüfen könnte, ob diese Richtlinien auch eingehalten werden? Hier helfen Architecture Fitness Functions. Wir zeigen, wie man mit ArchUnit solche Fitness Functions schreibt, die die Struktur unseres Codes überprüfen, und wie man diese in den Entwicklungsprozess integriert. Außerdem zeigen wir, wie man mit der API von ArchUnit statische Codeanalysen durchführt.

Zielpublikum: Architekt:innen, Entwickler:innen
Voraussetzungen: Basis-Kenntnisse Java
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Architekturentscheidungen zu treffen und zu dokumentieren, ist aufwändig und mühsam, mit der Folge, dass Entscheidungen oft nur implizit getroffen werden und dann in Vergessenheit geraten, geschweige denn im Lauf der ständigen Weiterentwicklung eingehalten werden.
Architecture Fitness Functions dienen dazu, Architekturentscheidungen im besten Fall automatisiert zu überprüfen. So bekommt das Entwicklungsteam jederzeit Feedback, ob die Architektur noch den festgelegten Regeln entspricht.
Manche Entscheidungen wie Namenskonventionen lassen sich schon lange über altbekannte Tools wie Checkstyle abtesten. Komplexere Entscheidungen aber lassen sich nicht immer einfach prüfen – oder sie erfordern ein komplexes Metamodell, das aufwändig zu erstellen und zu pflegen ist. Hier kommt ArchUnit ins Spiel.
In unserem Talk stellen wir anhand konkreter Fragestellungen vor, wie man mit ArchUnit automatisiert Architekturentscheidungen überprüft und in einen Standard-Testzyklus einbindet. Dazu bringt ArchUnit von Haus aus eine ganze Reihe von Standard-Hilfsmitteln mit. Besser noch: Eigene Architekturregeln lassen sich leicht in Form von Tests definieren und so im automatisierten Build überprüfen. Zugleich sind die Architekturregeln über die Tests dokumentiert.
Beispiele: Sind Abhängigkeiten zwischen Komponenten richtig definiert? Sind Strukturen innerhalb einer Komponente richtig modelliert, z.B. als Onion-Architektur?
Dieselbe API von ArchUnit kann man aber auch für statische Codeanalyse einsetzen, deren Output nicht in einem Test, sondern als Input in weitere Tools eingeht. Damit lassen sich einfach kleine Helferlein schreiben, um gezielt über statische Code-Analyse Handlungsbedarf identifizieren und analysieren zu können.
ArchUnit lässt sich demnach für kleine, mittlere und komplexe Fragestellungen einsetzen. Das skaliert gut und ermöglicht eine leichtgewichtige und automatisierte Absicherung von Architekturentscheidungen.
Wir zeigen zahlreiche Beispiele direkt im Code und geben damit einen ausführlichen Überblick über die Benutzung der ArchUnit-API.

Dr. Kristine Schaal ist als Software-Architektin seit fast 25 Jahren in der Software-Entwicklung tätig. In der Individualentwicklung arbeitet sie für Kunden verschiedener Branchen, überwiegend im Java-Umfeld.

Kristine Schaal
Raum 13b
Kristine Schaal
Raum 13b

Vortrag Teilen

17:00 - 18:00
Do 3.4
Herausforderungen von Designern und Entwicklern bei der Umsetzung der Barrierefreiheit
Herausforderungen von Designern und Entwicklern bei der Umsetzung der Barrierefreiheit

Die digitale Barrierefreiheit nimmt Fahrt auf und ist ein absolutes Trendthema. Eigentlich ist dazu alles schon gesagt worden, es muss nur noch realisiert werden. Es ist entscheidend, Barrierefreiheit systematisch in Arbeitsabläufe von Designern und Entwicklern zu integrieren. Drei Hauptfragen stehen im Fokus:

  1. Warum wird Barrierefreiheit in Projekten oft nicht priorisiert?
  2. Welche Bedürfnisse und Herausforderungen haben Designer & Entwickler?
  3. Wie kann Barrierefreiheit in Entwicklungsprozesse integriert werden?

Zielpublikum: Designer:innen, Entwickler:innen, Projektleiter:innen, Manager:innen, Entscheider:innen
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Unser Lösungsvorschlag:
Je weiter ein Projekt fortgeschritten ist, desto schwieriger wird es, Barrierefreiheit miteinzubeziehen. Das Problem vieler Ressourcen und Tools ist ihre retrospektive Natur: Sie beurteilen die Barrierefreiheit eines Produkts, wenn es bereits fertig ist. Zu diesem Zeitpunkt sind Änderungen oft zu aufwändig oder die Zeit zu knapp. Doch wie gewährleistet unser Ansatz, dass Barrierefreiheit in jede Prozessphase einfließt?

  1. Handlungsorientierte Aufgaben bereitstellen: Designer und Entwickler benötigen umsetzbare Informationen. Oft sind Richtlinien und Standards zu abstrakt formuliert, um sie in Prozessen zu operationalisieren.
  2. Klarheit über Verantwortlichkeiten schaffen: Jede Aufgabe wird einer konkreten Rolle zugewiesen. Barrierefreiheit ist die Verantwortung aller Teammitglieder, nicht nur von Entwicklern.
  3. Aufzeigen von Aufgabenabhängigkeiten: Das fördert die Zusammenarbeit der Projektbeteiligten. Es wird aufgezeigt, welche Aufgaben voneinander abhängig sind.
  4. „On-demand“ statt Informationsflut: Jede Aufgabe wird einer konkreten Projektphase zugeordnet. So stellen wir sicher, dass nur wesentliche Informationen der richtigen Person zum richtigen Zeitpunkt zur Verfügung stehen.

Franziska Kroneck studiert im Masterstudiengang User Experience Design (UXD). Sie hat 5 Jahre Berufserfahrung im Bereich UXD bei verschiedenen Unternehmen wie sepp.med, Bosch Safety Systems, Cariad und msg systems.

Dr. Andrea Nutsi ist seit 2018 als Senior UX Consultant bei der msg systems ag mit Schwerpunkt User Research und User Testing branchenübergreifend tätig. Zuvor hat sie in Medieninformatik promoviert.

Franziska Kroneck, Andrea Nutsi, Lisa Schoetz
Raum 03
Franziska Kroneck, Andrea Nutsi, Lisa Schoetz
Raum 03

Vortrag Teilen

, (Freitag, 02.Februar 2024)
09:00 - 16:00
Fr 6
Limitiert Exploratory Testing – Agile Testing on Steroids
Exploratory Testing – Agile Testing on Steroids

In this interactive training session, we will dive into the fascinating world of exploratory testing. Exploratory testing is a mindset and approach that empowers testers to uncover hidden defects, explore the boundaries of software systems, and provide valuable feedback to improve overall quality.
Through a combination of theory, practical examples, and hands-on exercises, participants will gain a solid understanding of exploratory testing principles and techniques, and learn how to apply them effectively in their testing efforts.

Max. number of participants: 12

Target Audience: Developers, Testers, Business Analysts, Scrum Masters, Project Manager
Prerequisites: None
Level: Basic

Extended Abstract:
In this interactive and engaging 3-hour training session, we will dive into the fascinating world of exploratory testing. Exploratory testing is a mindset and approach that empowers testers to uncover hidden defects, explore the boundaries of software systems, and provide valuable feedback to improve overall quality.
Through a combination of theory, practical examples, and hands-on exercises (with a E-Commerce Platform), participants will gain a solid understanding of exploratory testing principles and techniques, and learn how to apply them effectively in their testing efforts.
Whether you are a beginner or an experienced tester, this training will equip you with the skills and knowledge to become a more effective and efficient explorer of software.
Learning Outcomes:

  1. Understand the fundamentals of exploratory testing and its importance in software development.
  2. Learn various techniques and strategies for conducting exploratory testing.
  3. Develop the ability to identify high-risk areas and prioritize testing efforts during exploration.
  4. Acquire practical tips for documenting and communicating exploratory testing findings.
  5. Gain hands-on experience through interactive exercises to apply exploratory testing techniques.
  6. Enhance critical thinking and problem-solving skills to uncover hidden defects.
  7. Improve overall testing efficiency and effectiveness by incorporating exploratory testing into your testing process.
  8. Learn how to collaborate effectively with developers, product owners, and other stakeholders during exploratory testing.
  9. Gain insights into tools and technologies that can support and enhance exploratory testing activities.
  10. Leave with a comprehensive understanding of exploratory testing and the confidence to apply it in real-world scenarios.

Join us for this immersive training session, and unlock the potential of exploratory testing to uncover valuable insights and improve the quality of your software products.

Matthias Zax ist ein engagierter Agile Engineering Coach bei der Raiffeisen Bank International AG (RBI), wo er erfolgreiche digitale Transformationen durch agile Methoden vorantreibt. Mit einer tief verwurzelten Leidenschaft für Softwareentwicklung ist Matthias ein #developerByHeart, der seine Fähigkeiten im Bereich Softwaretest und Testautomatisierung im DevOps-Umfeld seit 2018 verfeinert hat. 
Matthias ist eine treibende Kraft hinter der RBI Test Automation Community of Practice, sowie auch für kontinuierliches Lernen und Innovation.

Matthias Zax is an accomplished Agile Engineering Coach at Raiffeisen Bank International AG (RBI), where he drives successful digital transformations through agile methodologies. With a deep-rooted passion for software development, Matthias is a #developerByHeart who has honed his skills in software testing and test automation in the DevOps environment since 2018.
Matthias is a key driving force behind the RBI Test Automation Community of Practice, where he leads by example. He is a firm believer in the importance of continuous learning and innovation, which he actively promotes through his coaching and mentorship.
 

Matthias Zax
Raum: Sissi
Matthias Zax
Raum: Sissi

Vortrag Teilen

Zurück