Hinweis: Die aktuelle OOP-Konferenz finden Sie hier!
SIGS DATACOM Fachinformationen für IT-Professionals

COMPLEXITY:
Managing Today's Challenges

München, 03. - 07. Februar 2014

Konferenz

Haben wir unsere Änderungen eigentlich getestet? Möglichkeiten und Grenzen von Test-Gap Analyse

Datum:04.02.2014
Uhrzeit:17:45 - 18:45
Vortrag: Di 5.4
cart
Sprecher:

Bei langlebiger Software treten meist dort Fehler auf, wo viel geändert wurde. Testmanager versuchen daher, geänderte Bereiche besonders ausführlich testen zu lassen. Unsere Studien zeigen aber, dass trotzdem signifikante Mengen an geändertem Code ungetestet in Produktion gelangen und den Großteil der Feldfehler verursachen. Der Vortrag präsentiert einen pragmatischen Ansatz zur Identifikation von geändertem, ungetestetem Code und Erfahrungen aus mehrjährigem Einsatz bei manuellen Tests von betrieblichen Informationssystemen der Munich Re.

Zielpublikum: Testmanager, Architekten, Projektmanager, Entscheider
Voraussetzungen: Erfahrung im Testen komplexer Software
Schwierigkeitsgrad: Fortgeschritten

Sie lernen:
- Verständnis der Größenordnungen und Auswirkungen von ungestesteten Änderungen, die in der Praxis in Produktion gelangen - selbst wenn die beteiligten Prozesse und Personen einen hohen Reife- und Professionalitätsgrad aufweisen.
- Verständnis über Möglichkeiten und Grenzen des neuen Analyseverfahrens "Test-Gap Analyse".
- Erfahrungen aus dem mehrjährigen Einsatz in verschiedenen Projekten
bei der Munich Re. War Stories und Anekdoten aus realen Projekten, die man mit nach Hause nehmen kann, um die gleichen Schmerzen bei sich selbst zu vermeiden.


Ausführliche Beschreibung:
Bei langlebiger Software treten im Feld vor allem in den Bereichen Fehler auf, die im letzten Release verändert oder neu entwickelt wurden. Um diese Fehler vor dem Release zu finden, sollten geänderte und neue Code-Bereiche besonders ausführlich getestet werden. Diese Erkenntnis wurde in der Forschung vielfach empirisch bestätigt und wird in der Praxis längst gelebt: Testmanager beziehen bei der Testplanung die Change-Requests mit ein, die seit dem letzten Release umgesetzt wurden. Aber wie gut gelingt es Ihnen wirklich, zentrale Änderungen auch zu testen?
In großen Projekten werden Entwicklung und Test meist von verschiedenen Teams, oft in unterschiedlichen Firmen, Ländern und sogar Zeitzonen durchgeführt. Das erschwert die Kommunikation und reißt Lücken in die Abstimmung zwischen den Teams. Zudem lassen sich häufig Change-Requests nicht trivial zu Testfällen zuordnen. Gerade technische Änderungen, wie bspw. die präventive Behebung von Wartungsproblemen oder die Migration auf eine neue Version einer Third-Party Komponente, stellen hier Herausforderungen dar. Unsere empirischen Untersuchungen zeigen, dass dadurch in der Praxis ein signifikanter Anteil an geändertem oder neuem Code ungetestet in Produktion gelangt; dieser Code ist jedoch nachweislich für einen Großteil der Feldfehler verantwortlich.
Dieser Vortrag stellt die sogenannte „Test-Gap Analyse“ vor. Test-Gap Analyse kombiniert statische und dynamische Analyseverfahren um solche Code-Bereiche zu ermitteln, die neu (oder geändert) und ungetestet sind. Der Vortrag stellt Erfahrungen aus mehreren Jahren Einsatz bei der Munich Re in Projekten vor, in denen bis zu 20 Entwickler und bis zu 30 Tester gleichzeitig involviert waren und in denen sowohl automatisierte, als auch manuelle Tests zum Einsatz kamen. Der Vortrag präsentiert Ansatz, Lessons Learned, Nutzen und Grenzen von Test-Gap Analyse. Dabei kommen zum einen technische Aspekte, wie die geeignete Erhebung von Test-Coverage und die aussagekräftige Ermittlung von Unterschieden zwischen Programmversionen zum Tragen. Vor allem aber gehe ich auf den Einsatz, Nutzen und die Interpretation der Daten und ihre Bedeutung und Anwendbarkeit für einen effektiven Qualitätssicherungsprozess ein.