Hinweis: Die aktuelle OOP-Konferenz finden Sie hier!
SIGS DATACOM Fachinformationen für IT-Professionals

SOFTWARE MEETS BUSINESS:
Die Konferenz für Software-Architekturen
30. Januar - 03. Februar 2017

Sessionsdetails

Vortrag: Mi 5.2
Datum: Mi, 01.02.2017
Uhrzeit: 11:00 - 11:45
cart

Haben wir das Richtige getestet? Oh Nein! Erfahrungen mit Test-Gap-Analyse in der Praxis

Uhrzeit: 11:00 - 11:45
Vortrag: Mi 5.2

 

Bei langlebiger Software treten die meisten Fehler dort auf, wo viel geändert wurde. Test-Gap-Analyse (TGA) erkennt ungetestete Änderungen und erlaubt uns, Testaktivitäten darauf zu fokussieren.
Nach einer Einführung in Test-Gap-Analyse stellen wir die Erfahrungen vor, die wir in den letzten Jahren im Einsatz bei Kunden und der eigenen Entwicklung gesammelt haben. Wir gehen auf unterschiedliche Testphasen (u.a. Hotfix- & Release-Test) und Arten (u.a. Unit-, Integrations- & "Trampel"-Tests) ein und stellen Lessons Learned und Best Practices vor.

Zielpublikum: Test-Manager, Tester, Entwickler, Projektleiter, Leiter Anwendungsentwicklung.
Voraussetzungen: grundlegende Erfahrung im Testen von Software. Interesse an Optimierung von Test-Prozessen.
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Bei langlebiger Software treten die meisten Fehler dort auf, wo viel geändert wurde. Wenn wir richtig testen wollen, müssen wir daher sicherstellen, dass keine wichtigen Änderungen ungetestet bleiben. Hierbei hilft uns die Test-Gap-Analyse, ein Analyseverfahren, das ungetestete Änderungen ermittelt.
Nach einer kurzen Einführung in die Test-Gap-Analyse stellen wir im Vortrag die Erfahrungen vor, die wir in den letzten Jahren im Einsatz bei Kunden und in der eigenen Entwicklung gesammelt haben und beantworten u.a. folgende Fragen: Wie lassen sich Hotfix-Tests absichern? Wie kann ich iterationsbegleitend ermitteln, wie gründlich ausgewählte kritische User Stories oder Change Requests getestet wurden? Wie stehen im Release-Test die Testabdeckungen von unterschiedlichen Teststufen (Unit-Test, Integrationstest, Akzeptanztest, User-Trampeltest usw.) zueinander und welche Änderungen wurden von keiner Teststufe geprüft?
Außerdem stellen wir Best Practices und nützliche KPIs im kontinuierlichen Einsatz vor und geben einen Ausblick zum Einsatz im Produktivbetrieb, der es erlaubt, zu ermitteln, ob alte und neue Features von Anwendern tatsächlich eingesetzt werden.