Unsere Empfehlung: Die Virtual Deep Dives
Mehr als 30 Jahre OOP-Erfahrung trifft auf moderne Innovation: Taucht mit uns tief in die wichtigsten Themen gegenwärtiger Software-Architektur ein – auf den "Virtual Deep Dives | powered by OOP".
Diese Konferenz versteht sich als Online-Ergänzung zur OOP München und bietet die Möglichkeit, sich intensiv und interaktiv mit den neuesten Trends und Best Practices in der Software-Architektur auseinanderzusetzen. Unsere Expert:innen und Branchenführer werden tiefe Einblicke in ihre Arbeitsweise geben und wertvolles Wissen teilen, das Sie direkt in Ihre Projekte integrieren können.
» Zu den Virtual Deep Dives
Rückblick auf das Programm der OOP München 2024
Die im Konferenzprogramm der OOP 2024 angegebenen Uhrzeiten entsprechen der Central European Time (CET).
Track: Testing & Quality
- Dienstag
30.01. - Mittwoch
31.01.
Wenn man eine gute Übersicht über eine komplette Domäne mit einem einfachen Event-Storming-Workshop bekommt, warum machen wir dann nicht etwas Ähnliches, wenn wir eine Teststrategie entwickeln? Wir haben einen neuen kollaborativen Ansatz in Projekten erprobt und gute Ergebnisse erzielt. Am Ende hatten wir ein gemeinsames Bild, wie man mit dem Testen startet, sowie ein Backlog von offenen Punkten. Der Vortrag zeigt die Schritte, wie man in der Praxis zu einer "Minimum Viable Test Strategy" kommt.
Zielpublikum: Architekt:innen, Test Manager:innen, Tester:innen, Projektleiter:innen
Voraussetzungen: Grundkenntnisse Testen
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Der Vortrag liefert ein Vorgehen, wie man eine grobe Teststrategie visualisieren kann und wie man sie mit den wesentlichen Stakeholdern kollaborativ entwirft. Als erster Schritt werden Teststufen und Testarten festgelegt. Danach werden Details wie Verantwortlichkeiten, Werkzeuge, Umgebungen und Metriken diskutiert. Dabei entstehen die ersten Regeln für das Testen und gleichzeitig ein Backlog für das Klären offener Punkte.
Die Methode ist analog zum Event Storming sehr leichtgewichtig, so dass sie direkt anwendbar ist.
Kathrin Potzahr ist seit 25 Jahren Architektin in der Software-Entwicklung geschäftskritischer Systeme. Sie berät Unternehmen, wie man Qualität frühzeitig sicherstellt und kontinuierlich hält.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/kathrin-potzahr/
Die Abstände zwischen Entwicklungsphase und Release werden kürzer. Das betrifft neue Produkte gleichermaßen, wie zusätzliche Features in App-/Webanwendungen. In der Projektleitung mangelt es oft an Integrations- und Abnahmeverfahren sowie einem Device-Setup passend zur Zielgruppe. Der Schlüssel: Kontinuität und Agilität. Am Beispiel des App-Testings für das ZDF beleuchten wir die größten Mythen über externes Testing und Automation und werfen einen Blick auf die Zukunft kombinierter QA-Verfahren.
Zielpublikum: Entscheider:innen, Projektleiter:innen, Product Owner:innen, Berater:innen, Softwareentwickler:innen
Voraussetzungen: Interesse an der Entwicklung von QA und Teststrategien
Schwierigkeitsgrad: Anfänger
Extended Abstract:
In diesem Vortrag erweitern wir die Perspektive der fachlichen Umsetzung von Testing und Automation um die Herausforderungen im agilen Prozess. Welche Anforderungen birgt eine schwer einzugrenzende Zielgruppe? Die Apps des ZDF stehen durch den öffentlich-rechtlichen Verbund in besonderer Weise auf dem Prüfstand. Wie gelingt es hier auf Seiten der Qualitätssicherung, effiziente und langfristige Lösungen zu schaffen? Unter dem Stichwort agile Testverfahren geben die Speaker Einblicke und Impulse und öffnen das Gespräch für die Seiten der Projektleitung, Entwicklung und des Testmanagements, um auf neue Methoden und die Zukunft der QA zu blicken.
Anika arbeitet seit 2019 bei Appmatics. Zunächst brachte sie sich als QA-Automatisierungsingenieurin ein. Heute ist sie Team Lead Automation und betreut Testverfahren für Partner, wie ZDF, Migros & BVG.
Benedikt Broich ist seit 2016 Teil von Appmatics und begleitet die Entwicklung der QA-Prozesse. Als Teamlead arbeitet er an der Schnittstelle vom Testmanagement und Partnern, wie Klett, Kicker & Eurowings.
Vortrag Teilen
Vortrag Teilen
Prozessunterstützende Werkzeuge erleichtern uns die tägliche Arbeit. Sie helfen uns, Software zu entwickeln und zu testen oder das Projekt zu steuern. Doch es gibt einen blinden Fleck: das Testdesign. Gute Tests scheinen vom Himmel zu fallen. Man muss sie nur niederschreiben oder programmieren.
Tatsächlich gibt es ein enormes Verbesserungs- und Einsparungspotenzial, welches in den meisten Organisationen ungenutzt liegen gelassen wird. In diesem Vortrag zeigen wir, welche das sind und wie modellbasiertes Testen zur Lösung beitragen kann.
Zielpublikum: Tester:innen, Testmanager:innen, Manager:innen, Projektleiter:innen Entscheider:innen
Voraussetzungen: Erfahrung mit Tests in Projekten
Schwierigkeitsgrad: Anfänger
Extended Abstract:
Während die Industrialisierung der Software-Entwicklung in vielen Bereichen vorangekommen ist (Stichwort „CI/CD“), gibt es im Test noch immer einen grauen Fleck: das Testdesign. Von außen wenig wahrgenommen, bemühen sich Fachexperten – meist völlig ohne Werkzeugunterstützung – ihr Bestes zu geben. Das ist bestenfalls Handwerk, wenn nicht gar Kunst!
Wieso „ohne Werkzeugunterstützung“? Wir haben doch ein ALM-Tool eingeführt! Sehr gut, nur war nicht von Testmanagement die Rede, sondern von Testdesign; also von der Erstellung geeigneter Testfälle, die mit möglichst wenig Aufwand möglichst viele Aspekte abprüfen. Testdesign ist eine entscheidende Aktivität im Testprozess, die obendrein hohes Verbesserungspotenzial besitzt. Es gibt also keinen Grund, weshalb Tester sich mit einem Text-Editor zufriedengeben sollten, während die Kollegen aus der Entwicklung diverse Tools zur Unterstützung ihrer Arbeit einsetzen.
Dieser Vortrag macht auf ein Manko aufmerksam, welches nicht länger akzeptiert werden sollte, und zwar weder von Testern noch von Managern. Wieso verbringen wir Stunden mit Besprechungen zur Klärung von Anforderungen, wenn es etablierte Methoden gibt, dies zu verbessern (Stichwort: modellbasiertes Testdesign)? Wieso überarbeiten wir Testfälle und Testskripte mühsam per Hand, wenn es auch hier Werkzeuge gibt, die uns einen Teil der Arbeit abnehmen könnten?
Wir werden zeigen, welche Aktivitäten dringend Werkzeugunterstützung benötigen und wie diese aussehen kann. Ein ganz wichtiger Aspekt ist dabei selbstverständlich der Einsatz von KI, die auf vielfältige Weise hilfreich sein wird. Doch es gibt auch andere, eher prozess-basierte Ansätze wie ATDD.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Anne_Kramer
Während ihrer beruflichen Laufbahn in stark regulierten Branchen (E-Payment, Medizintechnik, Automotive) hat Anne einen außergewöhnlichen Erfahrungsschatz in IT-Projekten gesammelt - insbesondere in den Bereichen QS und Test. Anne gibt ihr Wissen und ihre Erfahrung mit Leidenschaft weiter, insbesondere wenn es um Testdesign-Ansätze geht, die auf visuellen Darstellungen basieren. Seit April 2022 ist Anne Global Customer Success Managerin bei Smartesting, einem französischen Hersteller von SW-Testwerkzeugen.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/anne-kramer/
Vortrag Teilen
While AI systems differ in some points from "traditional" systems, testing them does not have to be more difficult - knowing the right questions to ask will go a long way. In this talk we will:
- Arm you with a checklist of questions to ask when preparing to test an AI system
- Show you that testers and data scientist have common ground when testing AI systems
Keep calm and test on - AI systems are not that different from "normal" systems.
Target Audience: Testers, Data Scientists, Developers, Product Owners, Architects
Prerequisites: Basic knowledge of software testing
Level: Advanced
Extended Abstract:
If you're a tester about to test your first AI system, or wanting to move into that area, you're probably wondering how you can prepare for the role. While we usually do not deal with complexity in the magnitude of Large Language models like chatGPT, AI systems still seemingly offer different challenges than "traditional" systems.
You're not the first person to deal with these questions. In fact, a group of us got together to explore it in more detail. Is there a general framework of questions that testers can use to help develop a quality strategy for systems that use AI? We wanted to see if we could design one. To this end, we got together a group with diverse roles: tester, test architect, data scientist, project lead and CEO.
Join us in this talk to hear how we approached the task and what our results are, including an example of using our checklist of questions to analyse a system that uses AI. Along the way we also addressed questions like "What is the role of a tester in such projects?" and "How much math do I need?" - we'll talk about those discussions, too. We encourage participants to use our checklist and give us feedback on it!
Gregor Endler erwarb mit seiner Dissertation “Adaptive Data Quality Monitoring with a Focus on the Completeness of Timestamped Data” 2017 den Doktortitel in Informatik. Seitdem ist er als Data Scientist bei der codemanufaktur GmbH tätig. Seine Arbeit umfasst insbesondere Machine Learning, Datenanalyse und Datenvisualisierung.
Marco Achtziger is Test Architect working for Siemens Healthineers in Forchheim. In this role he supports teams working in an agile environment in implementing and executing tests in the preventive test phase in a large project. He has several qualifications from iSTQB and iSQI and is a certified Software Architect by Siemens AG and Siemens Senior Key Expert in the area of Testing and Continuous Delivery.
Vortrag Teilen
Security engineering from TARA and security requirements to security testing demand mechanisms to generate, verify, and connect the resulting work products. Traditional methods need lots of manual work and yet show inconsistencies and imbalanced tests. Generative AI allows novel methods with semi-automatic cyber security requirements engineering, traceability, and testing. In this industry presentation, we show two promising approaches with NLP and transformers and how to embed them into an industry-scale security pipeline from TARA to test.
Target Audience: Test Engineers, QA Experts, Security Experts, Requirements and Systems Engineers
Prerequisites: Some background on security and testing. We will hands-on introduce the AI methods.
Level: Advanced
Extended Abstract:
Security engineering from TARA and security requirements to security testing demand mechanisms to generate, verify, and connect the resulting work products. Traditional methods need lots of manual work such as for traceability and yet show little impact when looking at the many inconsistencies and imbalanced tests. NLP especially transformers allow novel methods with semi-automatic cyber security requirements engineering, traceability, and testing.
We focus here on using generative AI with NLP because they can support the methods described in the standard while there is no need to change the form of representation from what is required by cybersecurity standards and respective stakeholders. Especially the use of Large Language Models (LLM) for text generation, aggregation, and classification has recently proven promising to improve the efficiency and effectiveness of security analysis and tests.
Grey Box Penetration Testing is an approach where only publicly available information is used to perform an attack on the SUT. This often requires massive research effort. Threat catalogs were known and often used threats are recorded can increase the performance while testing. To provide additional aid we are currently working towards building an AI-supported threat catalogue. Therefore, we use a special transformer model which is specialized in searching and summarizing information. When fed with known information about the SUT this model searches all available databases like CVE or CAPEC, previously recorded attack patterns, and other contextual information available and gives the penetration test engineer an initial idea of how to approach an attack on the SUT.
Using the AI to generate both grey and white box attack paths is an approach to check how much information about the system or components such as libraries and dependencies which are used in the SUT are available. Having introduced these methods to the security life-cycle, we will in the next step better integrate the tools. This will facilitate a swift turn-around upon changes in an agile delivery pipeline and thus achieve consistency from TARA to security requirements and (regression) test cases.
Vector together with the University of Stuttgart has developed transformers and generative AI-based methodologies for the specification and validation of cybersecurity requirements with the goal to increase productivity and quality.
In this industry presentation, we practically show how generative AI can scale into an industry-scale security pipeline.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/christof.ebert
Christof Ebert is the managing director of Vector Consulting Services in Stuttgart, Germany. He holds a PhD from University of Stuttgart, is a Senior Member of the IEEE and teaches at University of Stuttgart and Sorbonne university in Paris. Cybersecurity has been his focus since studying in USA and directly contributing against the Morris worm.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/christof-ebert/
Vortrag Teilen
Agile Transformation wird oft als obligatorische Aufgabe gesehen, ohne den tatsächlichen organisatorischen Bedarf zu berücksichtigen. Doch sie bietet Chancen zur
Prozessverbesserung. Der Haken ist aber oft, dass der genaue, eigene Bedarf im Unternehmen oft nicht bekannt ist und nach "best practices" der Industrie gehandelt wird.
Frei nach dem Motto „was bei anderen funktioniert, ist für uns nur recht“ werden Gilden und Tribes initiiert, Communities of Practice gebildet und die Re-Organisationen in die Wege geleitet.
Doch wie können wir die eigenen Bedarfe identifizieren? Woher bekommen wir das Wissen über den Status Quo in der Organisation? Als Tester im Herzen hinterfragen wir gerne den Systemzustände und wie es dazu kam. In diesem Vortrag möchten wir gerne praktische Beispiele aus unserer Projekterfahrung mit Behörden und privaten Unternehmen einfließen lassen und aufzeigen, wie wir als Coaches und Berater einen nachhaltigen, individuellen Wandel begeleitet haben.
Zielpublikum: Tester:innen, Testautomatisierer:innen, Manager:innen, Führungskräfte, Entscheider:innen
Voraussetzungen: Projekterfahrung, Kenntnisse Software-Entwicklungs-Teams, Change-Management
Schwierigkeitsgrad: Anfänger
Extended Abstract:
In unserem Vortrag möchten wir skizzieren, wie wir den Wandel der IT-Abteilungen z.B. großer Behörden begleitet haben. Wir werden unsere Erfahrung von Beginn des Projekts
teilen und auch auf Ideen eingehen, die nicht funktioniert haben und wie wir damit umgegangen sind.
- Wie kamen wir an die notwendige Datenbasis? Wie können Interview-Leitfäden aussehen und wen sollte man befragen?
- Kann man überhaupt KPIs eines Change-Projekts bilden?
- Wie sieht eine Kommunikationsstrategie aus, von vorstandsgerechter Management- Summary bis zur detailreichen Kommunikation innerhalb der Abteilungen?
- Konnten wir Ideen generalisieren und wiederverwenden, oder ist alles individuell geschnitten?
- All das und noch viel mehr werden wir anhand eines agilen Lebenszyklusmodells behandeln und unsere Erfahrung mit Ihnen teilen.
Wir wollen in diesem Vortrag betonen, warum Quality Coaches in einer strategischen Position sind, um als Schnittstelle zwischen Test-Abteilungen, Management und Mitarbeiter:innen, den Wandel aktiv mitzugestalten.
Bastian Knerr studierte Accounting und Controlling, bevor er im Bereich Software Compliance arbeitet. Schließlich fand er vor etwa drei Jahren seine Leidenschaft fürs Software Testing. Er begann mit manuellen Tests und arbeitet nun als IT-Projektleiter oder Testmanager in agilen Projekten verschiedenster Industrien und Behörden. In seiner täglichen Arbeit liebt er es, Systeme ganzheitlich zu betrachten und eine Schnittstelle zwischen verschiedenen Bereichen (einschließlich Menschen) zu sein. In seiner Freizeit liebt er es, kreativ zu sein (malen, Musik machen), joggen zu gehen, alte griechische Philosophen zu lesen und Zeit mit Freunden zu verbringen.
Bastian Baumgartner ist ein Tester und Testmanager mit mehreren Jahren Erfahrung in nationalen und internationalen Projekten. Er hat es sich zur Aufgabe gemacht, die bestmögliche Beratung in Bezug auf (Test-)Planung, Methodik und Strategie an den jeweiligen Kunden anzupassen, um die Qualität der Software zu optimieren. In zahlreichen Projekten, sowohl im öffentlichen als auch im privaten Sektor, konnte er ständig seine Erfahrungen im Bereich Testen, Testmanagement und Testumgebungsbewirtschaftung erweitern. Besonders in komplexen Projekten hat er bestehende Prozesse weiterentwickelt oder neue Prozesse entwickelt, um die Anforderungen des End-to-End-Testmanagements zu erfüllen und zu optimieren. Bastian Baumgartner ist maßgeblich an der Gestaltung und Schulung des TestMaster beteiligt und erfüllt diese Rolle in komplexen agilen Kundenprojekten.
Stell dir vor, wie viel Zeit UND Nerven du sparen könntest, wenn Kommunikation einfach mal funktionieren würde! Klingt wie ein Märchen für dich? Kennen wir. Richtige Kommunikation ist ein Skill, den unsere "T-Shape Teams" häufig erst noch erlernen müssen. Eine Möglichkeit ist durchs Coaching. Bei uns schlüpft der Quality Coach schnell mal in die Rolle des Übersetzers - ob von Wasserfall-Sprech zu Agile, von emotional zu sachlich, von technisch zu fachlich oder von kompliziert-chaotisch zu einfach-strukturiert. Geht nicht? Geht doch!
Zielpublikum: Architekt:innen, Entwickler:innen, Projektleiter:innen, Manager:innen, Entscheider:innen, Testmanager:innen, Quality Coaches, Tester:innen
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Stell dir vor, wie viel Zeit UND Nerven du sparen könntest, wenn Kommunikation einfach mal funktionieren würde! Klingt wie ein Märchen für dich? Kennen wir.
Selbst mit einem Studium im Kommunikationsmanagement und als erfahrener Redakteur und Regisseur begegnen wir in unserem Alltag der Software-Entwicklung immer wieder Stolperfallen durch misslungene Kommunikation.
Auch Kommunikation ist ein Skill, den unsere "T-Shape Teams" häufig erst noch erlernen müssen. Eine Möglichkeit ist durchs Coaching. Bei uns schlüpft der Quality Coach schnell mal in die Rolle des Übersetzers - ob von Wasserfall-Sprech zu Agile, von emotional zu sachlich, von technisch zu fachlich oder von kompliziert-chaotisch zu einfach-strukturiert.
Und nicht nur das, die Rolle sensibilisiert und bringt den Leuten Tipps bei, ihre Kommunikation nachhaltig zu verbessern.
Setz dich in unser Theaterstück und erlebe ein Live-Coaching, aus dem du direkt einige wertvolle Tipps mitnehmen wirst. Wir werden einen Testmanager aus der Wasserfall-Welt mit einem agilen Tester auf der Bühne diskutieren lassen und schauen dann einem Quality Coach dabei zu, was ihm auffällt und wie sich das Ganze retten lässt. Am Ende schauen wir uns an, ob die beiden was daraus gelernt haben.
Wir werden Antworten auf folgende Fragen finden:
Sind Akzeptanzkriterien gleich Akzeptanzkriterien? Was können wir tun, um Kommunikation zu erleichtern? Wie arbeitet ein Quality Coach? Und warum tun sich Personen, die in der traditionellen Softwarelieferung arbeiten, so schwer, mit denen im agilen Liefermodus zusammen zu arbeiten, und andersrum genauso? Und natürlich: Was kann ich tun, damit mir Kommunikation gelingt?
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Viviane.Hennecke
Vivianes Leidenschaft liegt auf der Verbesserung von Qualitätsprozessen. Hierfür kombiniert sie seit 2018 bei Accenture Testing-, Coaching- & Trainererfahrung mit ihrem Hintergrund in Kommunikationsmanagement.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/viviane-hennecke/
Emmanuel verbindet 10 Jahre im Kommunikationsbereich mit seiner Zertifizierung zum Webentwickler. Als diplomierter Regisseur und Werbetexter vereint er dies bei Accenture mit Softwaretechnologien.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/emmanuel-losch/
Lisas Spezialgebiet ist die Testautomatisierung. Ursprünglich kommt sie aus dem Kommunikation- und Marketingbereich. Seit 2022 ist sie bei Accenture vor allem als Test Automation Engineer tätig.
Vortrag Teilen
Vortrag Teilen
Many developers evoke technical debt to explain the misfortunes and troubles of their codebase and delivery. While unmanaged technical debt weighs down an architecture and exerts drag on its schedule, it is more often an effect than a cause. In this talk, we will look at what is and is not meant by technical debt with a view to properly attributing the root and recurring cause as technical neglect than technical debt. Without seeing technical neglect for what it is, we will continue to misattribute our problems to an effect rather than a cause.
Target Audience: Developers, Architects, Technical Managers
Prerequisites: Responsibility for software development, whether implementing it, guiding it or managing it
Level: Advanced
Extended Abstract:
Many developers evoke the mischievous spirit and day-to-day burden of technical debt to explain the misfortunes and troubles of their codebase and delivery. While unmanaged technical debt weighs down an architecture and exerts drag on its schedule, it is more often an effect than a cause. In this talk, we will look at what is and is not meant by technical debt — and other metaphors — with a view to properly attributing the root and recurring cause as technical neglect than technical debt. Without seeing technical neglect for what it is, we will continue to misattribute our problems to an effect rather than a cause.
Kevlin Henney is an independent consultant, trainer, speaker and writer. He helps individuals and teams improve their skills, codebases and cultures, ensuring people have a place in their architecture. He is co-author of two volumes in the "Pattern-Oriented Software Architecture" series, editor of "97 Things Every Programmer Should Know" and co-editor of "97 Things Every Java Programmer Should Know". He lives in Bristol and online.
Vortrag Teilen
In the evolving AI landscape, the EU AI Act introduces new standards for assuring high-risk AI systems. This presentation will explore the tester's role in navigating these standards, drawing from the latest research and from our experiences with an Automatic Employment Decision System, a high-risk AI. We'll discuss emerging methodologies, conformity assessments, and post-deployment monitoring, offering insights and practical guidance for aligning AI systems with the Act's requirements.
Target Audience: QA Professionals, AI Engineers/Architects, Business Leaders, POs/PMs, Policy Makers
Prerequisites: Basic Understanding of AI, Familiar with Testing, Awareness of EU AI Act, Interest in AI Asurance
Level: Advanced
Extended Abstract:
As the landscape of Artificial Intelligence (AI) rapidly evolves, the upcoming EU AI Act is set to introduce a new paradigm for assuring high-risk AI systems. This session will allow participants to delve into the pivotal role of testers in this context. We will decode the complexities of the Act and get to see how fostering the Act will ensure robust, transparent, and ethically aligned AI systems.
Drawing on recent research and my own experience in testing high-risk AI systems, I will discuss the emerging methodologies for testing high-risk AI, including explainability methods, robustness testing, and fairness testing. Together, we will also explore the Act's emphasis on conformity assessments and post-deployment monitoring, highlighting the tester's role in these processes. Participants will gain a unique behind-the-scenes look at how we have gone from chaos to order in testing an Automatic Employment Decision System, a high-risk AI.
Joining this session will equip participants with valuable insights and practical guidance on aligning AI systems with the EU AI Act. This is a must-attend for testers, AI developers, and business leaders alike who are navigating this new frontier, exploring the challenges, opportunities, and future directions in the assurance of high-risk AI systems. By the end of the session, participants will be better prepared to face the challenges posed by the EU AI Act and will have a clear understanding of the future directions in the assurance of high-risk AI systems.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/andrei.nutas
Andrei Nutas is a Test Architect at Adesso with over 7 years of industry experience. For the past year, among other things, Andrei has helped align an Automated Employment Decision System to the upcoming EU AI Act. In his free time, he is a research fellow with the West University of Timisoara where he focuses on AI Alignment and AI Ethics.
Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/andrei-nutas/
Vortrag Teilen
Das eigene Software-System in Microservices transformieren? Unabhängig davon, wir Softwerker sollten auch bestehenden Code entlang von Fachlichkeiten besser trennen. Wie gehen wir vor? Strangler-Pattern? Ist keine praktische Anleitung. Den Code in Geschäftsdomänen konzeptionell aufteilen und dann neu zu strukturieren? Klingt nach Big-upfront-Design.
Im Vortrag zeigen wir, wie man die bestehende Datenbasis über Code hinaus nutzen kann. Wie man z.B. die Features (im Issue-Tracker) oder die Beiträge der einzelnen Entwickler dabei berücksichtigt.
Zielpublikum: Architekt:innen, Projekt-/Technische Leiter:innen, Key Developer:innen, Manager:innen, Entscheider:innen
Voraussetzungen: Keine
Schwierigkeitsgrad: Fortgeschritten
Extended Abstract:
Das eigene Software-System in Microservices transformieren? Unabhängig davon, wir Softwerker sollten auch bestehenden Code entlang von Fachlichkeiten besser trennen. Wie gehen wir vor? Strangler-Pattern? Ist keine praktische Anleitung. Den Code in Geschäftsdomänen konzeptionell aufteilen und dann refactoren? Klingt nach Big-upfront-Design.
Im Vortrag zeigen wir, wie man die bestehende Datenbasis über Code hinaus nutzen kann. Wie man von Features (im Issue-Tracker) ausgeht, diese probeweise Domänen zuweist und deren Kopplungen (Überlappungen, Aufruf-Abhängigkeiten) im Code evaluiert. Damit dann den Refactoring-Bedarf lokalisieren und den Aufwand bewerten. Und wie automatisierte Refactoring-Vorschläge dabei eine Rolle spielen.
Die Herausforderungen sind die gleichen, wir müssen sie nur anders angehen.
Behandelte Problemstellungen:
- Wie trennt man bestehenden Code nach fachlichen Verantwortlichkeiten?
- Wie führt man das Ganze probeweise durch vor dem Refactoring/Coding?
- Wie nutzt man die Features des Issue-Trackers dafür?
- Wie nutzt man das Code-Repository dafür?
- Wie wird der Refactoring/Redesign-Bedarf lokalisiert?
- Wie bewertet man den Aufwand dafür?
Nutzen für den Teilnehmer:
- Teilnehmer lernen ein praktisches Vorgehen zur Trennung des Codes entlang fachlicher Verantwortlichkeiten
- Teilnehmer lernen mehr über architekturelle technische Schulden
- Teilnehmer wohnen einem unterhaltsamen Vortrag bei :-)
Egon Wuchner worked more than 18 years at Siemens Corporate Technology and founded Cape of Good Code. He has worked as software engineer, software architect and project manager dealing with software architecture issues like software code and architecture quality attributes. He does consulting in the fields of software architecture analysis and improvement based on tools like the DETANGLE® Suite from Cape of Good Code.
Konstantin Sokolov hat für Siemens als Freelancer an den Themen mit Egon zusammengearbeitet. Zusammen haben sie Cape of Good Code mit dem Ziel gegründet, Software-Analysen anzubieten, auf die es ankommt.
Vortrag Teilen