Konferenzprogramm

Die im Konferenzprogramm der OOP 2022 Digital angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Unser Programm gibt es auch als praktische PDF-Datei >>Zum Download

Track: Testing & Quality

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Dienstag
    01.02.
  • Mittwoch
    02.02.
, (Dienstag, 01.Februar 2022)
09:00 - 10:45
Di 8.1
Qualität verbessern mit Gamification
Qualität verbessern mit Gamification

Gamification bringt Spaß in den Projektalltag. Aber lohnt es sich überhaupt?
Um dies einschätzen zu können, geben wir einen Überblick über verschiedene spielerische Ansätze, die auf die Qualitätssicherung von Software fokussieren.
Wir gehen darauf ein, wie man Gamification gezielt und im richtigen Maß in Projekte einführt, welche Schwerpunkte gesetzt werden sollten und wie skeptische Kollegen überzeugt werden können.
Damit kann der Vortrag als Entscheidungsgrundlage dienen. Richtig eingesetzt, lohnt sich Gamification!

Zielpublikum: Projektleiter:innen, Manager, Entscheider
Voraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Anfänger

Extended Abstract

Spielerische Ansätze in der Software-Entwicklung sind nicht neu und finden immer häufiger ihren Platz im Projektalltag. Doch kosten diese nicht einfach nur Zeit und Geld? Bringt es überhaupt Vorteile, das Team „spielen“ zu lassen? Und wie misst man Erfolg oder auch das Scheitern einer Spielidee?
Wir zeigen am Beispiel von Gamification-Ansätzen in der Qualitätssicherung, dass diese das Potenzial haben, nicht nur den Projektalltag aufzulockern und den Teamzusammenhalt zu stärken, sondern auch die Softwarequalität spielend zu verbessern. Gezielte Produktverbesserung, z. B. durch Bug-Hunting, wird ebenso adressiert wie systematische Prozessverbesserung, z. B. durch Maturity Poker.
Voraussetzung ist, dass Gamification gezielt eingesetzt wird, um effizient zu sein. Der spielerische Ansatz muss zum Team und zum Projekt passen, Schwächen beheben und auf Lösungen für bestehende Probleme fokussieren.
Der Vortrag will eine Entscheidungshilfe geben, wann sich spielerische Ansätze lohnen und wann man eher auf sie verzichten sollte. Denn nur, wenn sich Erfolge einstellen und Gamification das Projekt voranbringt, stehen alle Beteiligten hinter dem Vorgehen, und die investierte Zeit ist nicht „verspielt".

Dehla Sokenou fühlt sich in allen Phasen der Software-Entwicklung zu Hause, besonders im Testen. Bei WPS - Workplace Solutions ist sie als Test- und Qualitätsmanagerin und Software-Architektin tätig.
Baris Güldali begleitet als Agile Coach und Quality Coach agile Teams und unterstützt diese bei der Erreichung ihrer Sprintziele. Er organisiert Community-Events mit Schwerpunkt Agilität und Qualität.
Supersonic Subatomic Mocking: Testen einer Quarkus-App mit Kotlin, JUnit und MockK
Supersonic Subatomic Mocking: Testen einer Quarkus-App mit Kotlin, JUnit und MockK

Schon von Quarkus gehört, dem neuen und effizienten JVM-Framework? Das - nicht unerfolgreich - etablierten Frameworks wie Spring Boot Konkurrenz macht?
Und bist Du daran interessiert, wie man eine Quarkus-App erstellt und - noch wichtiger - Teile davon isoliert testet?
Interessiert? Dann lass mich von unseren Erfahrungen berichten, wie sich Quarkus-Apps mit Kotlin, JUnit und MockK testen lassen. Praktische Einblicke garantiert!

Zielpublikum: Developers
Voraussetzungen: Basic knowledge about JVM languages, JVM frameworks and the microservice architecture pattern
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract
Das relativ junge Quarkus konnte sich zu einem ernst zu nehmenden Konkurrenten für etablierte Microservice-Frameworks wie Spring Boot entwickeln. Das liegt insbesondere daran, dass das leistungsfähige und dennoch leichtgewichtige JVM-Framework es schafft, Startzeiten und Speicherverbrauch von Anwendungen erheblich zu reduzieren. Damit ist es nicht nur für die Entwicklung von Microservices in containerisierten Cloud-Plattformen wie Kubernetes interessant, sondern auch für Serverless Computing.
Und es unterstützt meine Lieblings-Programmiersprache: Kotlin!
Wenn man eine Anwendung mit Quarkus und Kotlin entwickelt, kommt man früher oder später (hoffentlich früher ;-) ) nicht umhin, isolierte Tests zu schreiben. Nur so lässt sich bekanntermaßen automatisiert feststellen, ob sich der Anwendungscode wie erwartet verhält. Und als Kotlin-Entwickler will man dazu bekannte Technologien wie z. B. JUnit und MockK nutzen. Es gibt dabei aber einige wesentliche Aspekte, die beim Testen und Mocking von CDI-Beans in Quarkus beachtet werden müssen.
Interessiert? Dann habt teil an unseren Erfahrungen, wie sich Quarkus-Apps mit Kotlin, JUnit und MockK testen lassen. Praktische Einblicke garantiert!

In seiner Tätigkeit für die Novatec Consulting GmbH unterstützt Christian Schwörer Kunden bei der digitalen Transformation hin zu verteilten, Cloud-basierten (Microservice-)Architekturen. Dabei setzt er häufig und gerne Spring Boot/Cloud ein, zunehmend aber auch andere Frameworks wie Micronaut, Ktor oder Quarkus. Er ist der Überzeugung, dass sich die praktische Auseinandersetzung mit dem Thema für jeden Architekten und Entwickler lohnt – auch wenn Microservices und Serverless sicher nicht die "Silver Bullet" für alle Probleme des Software-Engineerings sind und daher ganz gezielt eingesetzt werden sollten.
Dehla Sokenou, Baris Güldali
Christian Schwörer
Dehla Sokenou, Baris Güldali

Vortrag Teilen

Christian Schwörer
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:45
Di 8.2
Human Testing: Wieso wir den Menschen in den Mittelpunkt stellen!
Human Testing: Wieso wir den Menschen in den Mittelpunkt stellen!

<provocative statement>Manuelles Testen ist die Abarbeitung einzelner definierter Testschritte. Hierfür benötigt es keine speziellen Skills, wir brauchen nur Click-Monkeys – oder?!</provocative statement
<mind change>Falsch! Wir müssen den Menschen in den Fokus stellen. Manuelles Testen sollte vielmehr als “Human Testing” betrachtet werden. Die Tester:innen nutzen all ihre Stärken zum Durchführen der Tests - eigenständiges Denken, neue Ideen entwickeln, sowie kollaborative Ansätze stehen hierbei im Zentrum des „Human Testing“.</mind change>

Zielpublikum: Tester:innen, Testmanager, Product Owner, Scrum Master, Stakeholder
Voraussetzungen: Grundlegende Kenntnisse im Testing
Schwierigkeitsgrad: Anfänger

Extended Abstract
In vielen Projekten erleben wir immer mehr, dass manuelles Testen nur als Abarbeitung diverser Testfälle gesehen wird. Hierfür werden lediglich “dumme” Click-Monkeys benötigt, Tester:innen die Testfälle Schritt für Schritt durchführen und diese nicht hinterfragen.
Aus unserer Erfahrung ist dies ein Unding, setzt die Leistung der Tester:innen herab und verschwendet wertvolle Ressourcen. Die einfache Abarbeitung von Testschritten kann in der Regel automatisiert werden.
Durch den erhöhten Automatisierungsgrad wird mehr Kapazität für den/die Tester:in geschaffen. Manuelles Testen suggeriert die oben beschriebene Abarbeitung einzelner Testschritte, wohingegen Human Testing mehr den Wert des Menschen in den Mittelpunkt rückt. Hierbei kann er/sie seine/ihre Stärken voll ausspielen und zum Beispiel in Testing Sessions auch mal über den Tellerrand hinausschauen, um eigenen Testideen zu folgen oder sich in Themen zu explorieren (beispielsweise via Testing Touren).
Human Testing rückt nicht nur den Menschen in den Mittelpunkt, sondern drückt auch die Wertigkeit des Testens aus. Es ist eben nicht nur die Durchführung manueller Testfälle, sondern vielmehr eine vertrauensvolle Zusammenarbeit mit Fokus auf Qualität.
In unserem Vortrag erläutern wir zum einen die Vorurteile gegenüber manuellem Testen, die uns in unzähligen Projekten begegnet sind, sowie mögliche Ansätze, wieso das manuelle Testen zukünftig als Human Testing zu betrachten ist. Ebenso zeigen wir auf, welchen Standard wir im Testing zwingend erreichen müssen, so dass die Rolle des Testers den verdienten Respekt erhält.

Maria Petzold coacht gerne Projektkolleg:innen zu allen QA relevanten Themen. Gerne verwendet sie hierbei auch neue Ansätze, so z. B. die Einführung explorativer Testmethoden im regulierten Umfeld.

Benedikt Wörners Leidenschaft ist es, Kunden bei der agilen Transformation zu helfen. Er eröffnet den Kunden neue Wege und Perspektiven, z. B. anhand explorativer und kollaborativer Testmethoden.

Maria Petzold, Benedikt Wörner
Maria Petzold, Benedikt Wörner
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 17:15
Di 8.3
80/20-Optimierung von Test-Suites: Erfahrungen aus Forschung & Praxis
80/20-Optimierung von Test-Suites: Erfahrungen aus Forschung & Praxis

Wenn ein System wächst, wächst auch die Anzahl automatisierter Tests. Wir sehen immer öfter Test-Suiten, die Stunden oder Tage laufen. Das ist lähmend langsam. Wenn die Ausführung aller Tests zu lange dauert, kann man einen Teil der Tests häufiger ausführen als den Rest. Der Schlüssel ist, diese Teilmenge so zu wählen, dass sie in einem Bruchteil der Zeit einen Großteil der Fehler findet. Im Vortrag stellen wir verschiedene Ansätze hinsichtlich Kosten, Nutzen und Anwendbarkeit und Erfahrungen aus Forschung und Praxiseinsatz vor.

Zielpublikum: Entwickler:innen, Tester:innen, Verantwortliche für Entwicklung und Test
Voraussetzungen: Interesse an Software-Test
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract
Mit dem Alter und der Größe eines Softwaresystems steigt typischerweise der Bedarf für ausgiebige und qualitativ hochwertige Software-Tests. Zudem werden für mehr Anwendungscode auch mehr Tests benötigt. Damit steigt die Ausführungszeit der Tests.
In der Praxis führt das immer häufiger zu Test-Suiten, die Stunden bis Tage brauchen, um einmal zu laufen. Das bringt eine Reihe von Problemen mit sich. Für die Entwickler bedeutet es, dass sie Feedback für den geänderten Code erst eine lange Zeit, nachdem sie die Änderungen gemacht haben, bekommen. Das macht es deutlich schwieriger, die Fehler im Code zu finden und zu beheben. Außerdem werden moderne Verfahren, wie zum Beispiel Continuous Integration dadurch deutlich erschwert. All das mindert den Wert der Tests ausgerechnet für die Systeme, in denen sie absolut essenziell sind, nämlich große komplexe Software-Systeme.
Eine naheliegende Lösung für das Problem ist es, einen Teil der Tests häufiger auszuführen, als den Rest. Die Herausforderung dabei ist, diese Teilmenge an Tests so zu bestimmen, dass man möglichst viel Zeit einsparen kann, ohne die Fähigkeit der Tests, Fehler zu finden, erheblich zu mindern. Um das zu erreichen, gibt es verschiedene Ansätze, von denen jeder Vor- und Nachteile mit sich bringt.
Ein Ansatz ist die Test-Suite-Minimierung. Dabei werden verschiedene Kriterien verwendet, wie testfallspezifische Coverage [1] und Ausführungszeit, um ein Subset von Tests zu wählen, das in einem Bruchteil der Zeit einen Großteil der Fehler finden soll. [2] Ziel dieses Verfahrens ist es, eine Liste von Tests zu wählen, die jeden Tag oder öfter ausgeführt werden kann, um schnelleres Feedback zu ermöglichen. Die vollständige Test-Suite sollte dennoch in regelmäßigen Abständen ausgeführt werden.
Der zweite Ansatz, den wir betrachten, ist die Test-Impact-Analyse. Dabei werden Testfälle aussortiert, die bei ihrer nächsten Ausführung höchstwahrscheinlich keine Fehler finden. Die Annahme, dass ein Testfall beim nächsten Testlauf keinen Fehler findet, begründen wir durch die Änderungen seit dem letzten Testlauf. Ein Test, der keinen Code abdeckt, der seit dem letzten Mal geändert wurde, wird voraussichtlich auch keinen neuen Fehler finden. Zudem werden die Testfälle so sortiert, dass innerhalb der kürzest möglichen Zeit eine möglichst hohe Code Coverage erreicht wird. [3]
Im Vortrag gehen wir auf die Vor- und Nachteile der beiden Verfahren ein und präsentieren unsere Erfahrungen aus Forschung und Praxis.

Weiterführende Literatur
[1] F. Dreier, Obtaining Coverage per Test Case, Masterarbeit (2017)
[2] R. Noemmer, Conception and Evaluation of Test Suite Minimization Techniques for Regression Testing in Practice, Masterarbeit (2019)
[3] E. Juergens, D. Pagano, Test-Impact-Analyse: Fehler früh erkennen trotz großer, langlaufender Test-Suites, OBJEKTspektrum 06/2018,
[4] J. Rott, R. Niedermayr, E. Juergens, D. Pagano, Ticket Coverage: Putting Test Coverage into Context, Proceedings of the 8th Workshop on Emerging Trends in Software Metrics (2017)
[5] E. Juergens, D. Pagano, Haben wir das Richtige getestet? Erfahrungen mit Test-Gap-Analyse in der Praxis, Whitepaper (2016)
[6] R. Noemmer, R. Haas, An Evaluation of Test Suite Minimization Techniques, International Conference on Software Quality (2020)

Dr. Elmar Juergens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten. Er ist Mitgründer der CQSE GmbH und begleitet seit zehn Jahren Teams bei der Verbesserung ihrer Qualitätssicherungs- und Testprozesse. Juergens spricht regelmäßig auf Forschungs- und Industriekonferenzen und wurde für seine Vorträge mehrfach ausgezeichnet. Elmar Jürgens wurde 2015 zum Junior Fellow der Gesellschaft für Informatik ernannt.

Raphael Noemmer hat seinen Informatik-Master an der TU München mit einem Fokus auf Software-Engineering und Software-Qualität abgeschlossen. Seine Masterarbeit behandelt das Thema Test-Minimierung.
Elmar Juergens, Raphael Noemmer
Elmar Juergens, Raphael Noemmer
Vortrag: Di 8.3
flag VORTRAG MERKEN

Vortrag Teilen

17:45 - 18:45
Di 8.4
TA-Tool im Katalog bestellt – Das Testautomatisierungswerkzeug finden trotz flexibler Anforderungen
TA-Tool im Katalog bestellt – Das Testautomatisierungswerkzeug finden trotz flexibler Anforderungen

Der effektive Einsatz einer Testautomatisierungslösung steht und fällt mit den verwendeten Werkzeugen. In dem Vortrag stellen wir die Ergebnisse einer wissenschaftlichen Arbeit zur Erstellung eines Kriterienkataloges für die Auswahl des passenden Testautomatisierungswerkzeugs für unsere Projekte vor. Dabei wurden die Kriterien und deren Gewichtung nach Vorgehensmodellen, Technologie, Einsatzgebiet sowie dem Blickwinkel der Rollen evaluiert. Die Anwendung des Kriterienkatalogs soll leichtgewichtig sein und Vorgaben des agilen Manifests befolgen.

Zielpublikum: Tester:innen, Agile Teams, Testmanager:innen, Entwickler:innen, Projektleiter:innen, Manager, Entscheider
Voraussetzungen: Grundkenntnisse Testen/Testautomatisierung, Projekterfahrung, Fachkenntnisse agile Methoden
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract
Der effektive Einsatz einer Testautomatisierungslösung steht und fällt mit den verwendeten Werkzeugen. Für die gezielte Auswahl der Werkzeuge und besonders für die Begründung gegenüber dem Management benötigen Projekte daher einen Katalog von Kriterien. Dabei unterscheiden sich die Kriterien bzw. deren Gewichtung je nach Einsatzgebiet, Vorgehen, Technologie und besonders der Rolle des Betrachters.
In dem Vortrag stellen wir die Ergebnisse einer wissenschaftlichen Konzeption eines Kriterienkataloges für die Auswahl der passenden Testwerkzeuglösung im Rahmen der Testautomatisierung für die ZEISS Digital Innovation vor. Dabei wurden die Kriterien und deren Gewichtung unter anderem nach den verwendeten Vorgehensmodellen (Agile, Scaled, Klassisch), der verwendeten Technologie, dem Einsatzgebiet sowie den Blickwinkeln der unterschiedlichen Rollen evaluiert.
Als Endergebnis soll es möglich sein, passende Testautomatisierungstestwerkzeuge je nach Projekteinsatz anhand des Kriterienkatalogs evaluieren bzw. empfehlen zu können. Durch die flexible Entscheidungsvorlage soll sichergestellt werden, dass die im Kundenprojekt eingesetzten Testwerkzeuge allen relevanten Anforderungen des Projekts, aber auch des Unternehmens entsprechen. Dabei soll die Anwendung des Kriterienkatalogs leichtgewichtig sein und besonders die Vorgaben des agilen Manifests befolgen.

Kay Grebenstein arbeitet als Testmanager und agiler QA-Coach für die Carl Zeiss Digital Innovation. Er hat in den letzten Jahren in Projekten unterschiedlicher fachlicher Domänen (Telekommunikation, Industrie, Versandhandel, Energie, ...) Qualität gesichert und Software getestet.

Mylaine Pemedjeu Mougoue studierte Wirtschaftsinformatik an der HTW Berlin und arbeitete bereits parallel zum Studium im Bereich Qualitätssicherung in verschiedenen Unternehmen.
Kay Grebenstein, Mylaine Pemedjeu Mougoue
Kay Grebenstein, Mylaine Pemedjeu Mougoue
Vortrag: Di 8.4
flag VORTRAG MERKEN

Vortrag Teilen

, (Mittwoch, 02.Februar 2022)
09:00 - 10:45
Mi 8.1
Quality Engineering Instead of Testing… Why? How?
Quality Engineering Instead of Testing… Why? How?

To continuously deliver IT systems at speed with a focus on business value, high-performance IT delivery teams integrate quality engineering in their way of working.

Quality engineering is the new concept in achieving the right quality of IT systems. Testing only after an IT product was developed is an outdated approach. Built-in quality from the start is needed to guarantee business value in today’s IT delivery models. Quality engineering is about changes in skills, organization, automation and quality measures.

Target Audience: All people involved in high-performance IT delivery teams
Prerequisites: General knowledge of IT delivery
Level: Advanced

Extended Abstract

To continuously deliver IT systems at speed with a focus on business value, high-performance cross-functional IT delivery teams integrate quality engineering in their way of working.

Quality engineering is the new concept in achieving the right quality of IT systems. Testing an application only after the digital product has been fully developed has long been a thing of the past. More is needed to guarantee the quality of applications that are delivered faster and more frequently in today’s high-performance IT delivery models. It is about achieving built-in quality. The road to quality engineering means changes in terms of starting points, skills, organization, automation and quality measures.

Our new VOICE model guides teams to align their activities with the business value that is pursued, and by measuring indicators, teams give the right information to stakeholders to establish their confidence that the IT delivery will actually result in business value for the customers.

Teams benefit from the clear definition of QA&Testing topics that are a useful grouping of all activities relevant to quality engineering. Organizing topics are relevant to align activities between teams and performing topics have a focus on the operational activities within a team.

Also, to be able to deliver quality at speed, for today’s teams it is crucial to benefit from automating activities, for example in a CI/CD pipeline, whereby people must remember that automation is not the goal but just a way to increase quality and speed.

In this presentation the audience will learn why a broad view on quality engineering is important and how quality engineering can be implemented to achieve the right quality of IT products, the IT delivery process and the people involved.

This presentation is based on our new book "Quality for DevOps teams" (ISBN 978-90-75414-89-9) which supports high-performance cross-functional teams in implementing quality in their DevOps culture, with practical examples, useful knowledge and some theoretical background.

Rik Marselis is principal quality consultant at Sogeti in the Netherlands. He is a well-appreciated presenter, trainer, author, consultant, and coach in the world of quality engineering. His presentations are always appreciated for their liveliness, his ability to keep the talks serious but light, and his use of practical examples with humorous comparisons.
Rik is a trainer for test design techniques for over 15 years.
Impact Assessment 101 to 301: From Beginner to Journeyman
Impact Assessment 101 to 301: From Beginner to Journeyman

In large software projects the assessment of the impact of a code change can be a cumbersome task. If the software has grown and shows an evolutionary design there are always unwanted side effects.

Change control boards are established. But on what data do they judge what can happen with the changes? Very often there is the HIPPO syndrome which means it is the highest paid person's opinion.

In this talk we will show you ways to come to a deterministic prediction of the impact, what data you need and what you can do with it.

Target Audience:
Architects, Test Managers, Developers, Testers
Prerequisites: Basic knowledge of collected data in software projects
Level: Advanced

Marco Achtziger is Test Architect at Siemens Healthineers. He has several qualifications from iSTQB/iSQI, is certified Software Architect and trainer for the Test Architect curriculum at Siemens AG.
Gregor Endler holds a doctor's degree in Computer Science for his thesis on completeness estimation of timestamped data. His work at codemanufaktur GmbH deals with Machine Learning and Data Analysis.
Rik Marselis
Marco Achtziger, Gregor Endler
Rik Marselis

Vortrag Teilen

Marco Achtziger, Gregor Endler
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 11:45
Mi 8.2
Agiles Entwickeln und Testen – (K)ein Widerspruch?
Agiles Entwickeln und Testen – (K)ein Widerspruch?

Die Praxis in den agilen Teams ergibt immer größeren Bedarf an grundlegenden Testfähigkeiten auch für klassische Entwicklerrollen. Aber oft fehlen die entsprechenden Expertisen und die Akzeptanz für das Testen. Nötig ist eine stärker ausgeprägte Kultur des Testens als Schlüsselfaktor für den Erfolg agiler Projekte. Daher wurde vom GTB auf Basis des etablierten „Certified Tester“-Quasistandards für Testing-Skills ein auf die Bedürfnisse von Entwicklern zugeschnittener Kanon an Testwissen und ein praxisbezogener Kurs als Hilfestellung definiert.

Zielpublikum: Entwickler & Tester, Architekt:innen, Productmanager:innen, DevOps, Qualitätsmanager:innen, Entscheider, Human Resource
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger

Extended Abstract

Agil ist weiter auf dem Vormarsch und aus unserer Praxis wissen wir, dass gerade in der agilen Welt die Komplexität der Aufgaben im Team und Anforderungen an die Qualität der Produkte stetig und rasant zunehmen. Schnelle Entwicklungszyklen und Technologien wie KI, Machine Learning und IoT erhöhen den Druck auf die Projekte.

In den agilen Projekten werden Entwickler:innen zunehmend mit Testaufgaben betraut und Tester:innen zunehmend mit der Entwicklung von Testautomatisierung. Daher ergibt sich in den Teams ein wachsender Bedarf an grundlegenden Testfähigkeiten auch für die klassischen Entwicklerrollen im Team. Allerdings weisen viele agile Projekte missionskritische Lücken in der Qualitätssicherung auf. Zwei Schwerpunkte sind hier entscheidend: fehlende Akzeptanz für das Testen in den agilen Teams und oft fehlende Testexpertisen.

Um dies zu adressieren und zu verbessern, benötigen wir ein stärkeres Bewusstsein für die Herausforderungen und Fallstricke und eine stärker ausgeprägte Kultur einer Qualitätssicherungs-Community. Wir sehen deutlichen Bedarf an Verbesserung der Testexpertisen über alle Testaspekte und Teststufen als Schlüsselfaktor, Produkte nachhaltig und erfolgreich agil zu entwickeln. Was wir in anderen Worten ermöglichen müssen: Entwickler:innen können testen und Tester:innen können Automatisierung entwickeln. Und wir benötigen dafür die nötige Unterstützung aus dem Management.

Aber welche Testthemen sind zu stärken oder überhaupt zu etablieren? Und welche Testexpertisen werden dafür benötigt? Basierend auf dieser Frage wurde vom GTB (German Testing Board e.V.) ein auf die Bedürfnisse von Entwickler:innen zugeschnittener Kanon an Testthemen und Testexpertisen definiert. Dieser Kanon soll Entwickler:innen die Möglichkeit geben, die für die Erstellung der Software benötigten Kenntnisse über Testgrundlagen systematisch aufzubauen und zu erweitern.

Darauf basierend hat GTB auch einen Lehrplan "A4Q Testing Foundations for Developers" auf Basis des seit vielen Jahren etablierte Quasistandards des „ISTQB® Certified Testers“ entwickelt. In dem Lehrgang wird auch auf Hands-on-Aspekte viel Wert gelegt, d.h. es wird auch programmiert. Kanon und Kurs sind als Handreichung zu verstehen, Akzeptanz für das Thema Testen und die nötige Systematik der Testexpertisen im Team zu stärken. Die damit gewonnene gemeinsame Sprechweise hilft auch dabei, dass sich Entwickler:innen und Tester:innen bei ihrer Arbeit noch besser verstehen.

Dr. Armin Metzger hat über 25 Jahre Erfahrung in Software-Entwicklung und -test in Industrie- und Forschungsprojekten und internationalen Gremien. Seit 2018 ist er Geschäftsführer des German Testing Board.
Dr. Erhardt Wunderlich arbeitet bei Alstom im Center of Expertise an dem Thema Tools and Processes. Dr. Wunderlich hat über 30 Jahre Erfahrung in Software-Entwicklung und -test in verschiedenen Branchen.
Armin Metzger, Erhardt Wunderlich, Andreas Reuys
Armin Metzger, Erhardt Wunderlich, Andreas Reuys
Vortrag: Mi 8.2
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:30
Mi 8.3
Metamorphes Testen
Metamorphes Testen

Metamorphes Testen ist ein relativ neues Testverfahren, das sich besonders gut eignet, wenn kein ausreichendes Testorakel verfügbar ist. Metamorphes Testen betrachtet mehrere Ausführungen des Testobjekts und prüft, ob die Eingaben und Ausgaben bei diesen Ausführungen zueinander konsistent sind. Der Beitrag stellt das Verfahren vor, gibt einen Überblick über die bisherigen Erfahrungen bei klassischen und bei KI-basierten Systemen und ordnet es in die Testmethodik ein.

Zielpublikum: Softwaretester:innen
Voraussetzungen: Certified Tester Foundation Level
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract

Es kann schwierig sein festzustellen, ob die Ausgaben eines Testfalls korrekt sind. Ein Beispiel ist die Suche nach einem gängigen Text in einem großen Datenbestand. Eine Abhilfe kann sein, die Textsuche durch zusätzliche Filterkriterien einzuschränken und zu prüfen, ob das Suchergebnis eine Teilmenge des Ergebnisses der ursprünglichen Suche ist. Metamorphes Testen ist ein Testverfahren, das diesen Ansatz systematisiert. Es betrachtet mehrere Ausführungen des Testobjekts und prüft, ob die Eingaben und Ausgaben bei diesen Ausführungen zueinander konsistent sind. Die Konsistenzbedingungen werden meist aus der Spezifikation gewonnen.

Erfüllt das Testobjekt bei einer Gruppe von Testfällen eine Konsistenzbedingung nicht wie erwartet, so wurde eine Fehlerwirkung gefunden. Der Beitrag stellt das Verfahren vor, gibt einen Überblick über die bisherigen Erfahrungen bei klassischen und bei KI-basierten Systemen und ordnet es in die Testmethodik ein.

Matthias Hamburg war bis zu seiner Pensionierung im September 2019 Managing Consultant bei der Sogeti Deutschland GmbH. Seine fachlichen Schwerpunkte sind bei der Testanalyse, Testmanagement und Testprozessverbesserung. Im German Testing Board (GTB) und seinem Dachverband ISTQB engagiert er sich weiterhin ehrenamtlich. Unter anderem gibt er das Standardglossar der Testbegriffe in Englisch und in Deutsch und den Advanced Test Analyst-Lehrplan heraus.
Matthias Hamburg
Matthias Hamburg
flag VORTRAG MERKEN

Vortrag Teilen

17:00 - 18:00
Mi 8.4
Tiefkühlpizza, Softwaretesten und der Mann im Mond – Wie die NASA mich für Workshops inspirierte
Tiefkühlpizza, Softwaretesten und der Mann im Mond – Wie die NASA mich für Workshops inspirierte

In den 1960er Jahre entwickelte die NASA eine Methode zur Sicherstellung von Lebensmittelqualität: die Gefahrenanalyse der kritischen Kontrollpunkte nach HACCP. Diese Methode inspirierte mich zu einem Workshop, der über Teamgrenzen hinweg gemeinsam einen Blick auf die Qualität unseres Produkts wirft.

In meinem Vortrag zeige ich Ihnen, wie ich als ursprünglich gelernter Koch, heute in der Rolle des Qualitätsmanagers, instinktiv Methoden der Lebensmittelhygiene anwende. Mit dem Ziel, welches wir alle möchten: die Qualität des Produkts!

Zielpublikum: Prozessverantwortliche, Testmanager:innen, Qualitymanager:innen, Entwickler:innen, Manager, Entscheider
Voraussetzungen: Keine besonderen Vorkenntnisse nötig
Schwierigkeitsgrad: Anfänger

Extended Abstract

Zu Beginn der 1960er Jahre entwickelte die NASA eine Methode zur Sicherstellung von Lebensmittelqualität. Diese Methode inspirierte mich zu einem Workshop, der über Teamgrenzen hinweg, gemeinsam einen Blick auf die Qualität unseres Produkts wirft.

In meinem Vortrag zeige ich Ihnen, wie ich als gelernter Koch instinktiv Methoden der Lebensmittelhygiene anwende. In der Rolle als Qualitätsmanager führte ich Workshops durch, die unseren Entwicklungsprozess entscheidend veränderten – mit Methoden aus der Gastronomie.

Die Gefahrenanalyse der kritischen Kontrollpunkte nach HACCP (hazard analysis and critical control points) ist bis heute eine gesetzlich vorgeschriebene Methode in der Lebensmittelindustrie und Gastronomie, um die Qualität (Hygiene) von Lebensmittel-Produkten sicherzustellen. Diese Methode war der Ausgangspunkt für den Prozessanalyse-Workshop Quality Storming. Der, für Software-Entwicklung erdacht, in den Jahren immer mehr verbessert wurde.

Ich zeige Ihnen, wie Sie mit drei verschiedenen Quality Storming-Varianten die Hygiene ihrer Entwicklungsprozesse entscheidend verbessern können. Wir schauen gemeinsam, warum permanente Temperaturkontrollen von Tiefkühlpizza die gleichen Ziele haben wie Softwaretests in der Entwicklung: die Qualität des Produkts!

Als Quality Evangelist lautet Georg Haupts Motto: „Aus der Praxis für die Praxis!“ Denn als Test- und Qualitäts-Management-Experte blickt er auf 20 Jahre praktische Erfahrung für sowohl agile als auch klassische Soft- und Hardwaretests zurück. Weitere Schwerpunkte sind: Test-Automatisierung, Test-Analyse sowie Security-Tests. Hierbei liegen ihm besonders teamübergreifende und agile Qualitätssicherung am Herzen.
Georg Haupt legt hohen Wert auf eine ausgewogene Mischung aus manuellen, explorativen und automatisierten Tests. Das Entwickeln und Etablieren von Testmethoden und Prozessen ist für ihn langjährige Praxis. Darüber hinaus bietet Georg Haupt praktische Erfahrung in der Einführung von teamübergreifenden Test- und Testmanagementwerkzeugen und Prozessen.

Georg Haupt
Georg Haupt
flag VORTRAG MERKEN

Vortrag Teilen

Zurück