Hinweis: Die aktuelle OOP-Konferenz finden Sie hier!

Konferenzprogramm

Die im Konferenzprogramm der OOP 2022 Digital angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Unser Programm gibt es auch als praktische PDF-Datei >>Zum Download

Track: Artificial Intelligence Now!

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Dienstag
    01.02.
  • Mittwoch
    02.02.
, (Dienstag, 01.Februar 2022)
09:00 - 10:45
Di 7.1
Fake-Debatten mit NLP – Eine ironische KI-Lösung für Onlinediskussionen
Fake-Debatten mit NLP – Eine ironische KI-Lösung für Onlinediskussionen

Mit Hilfe moderner KI-Ansätze wie GPT-2, Tacotron und Conformers haben wir Roboterköpfe entwickelt, die vollständig autonom unter sich eine Kommentarspaltendiskussion führen und somit menschliches Mitdiskutieren überflüssig machen. Das TNG Innovation-Hacking-Team hat einen Prototyp eines Ende-zu-Ende-Systems für Natural Language Understanding entwickelt, bei dem Techniken wie Speech-to-Text (STT), Conditional Text Generation und Text-to-Speech (TTS) zum Einsatz kommen.

Zielpublikum: Architekt:innen, Entwickler:innen, Projektleiter:innen, Manager, Entscheider
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger

Extended Abstract

Mit Hilfe moderner KI-Ansätze wie GPT-2, Tacotron und Conformers haben wir Roboterköpfe entwickelt, die vollständig autonom unter sich eine Kommentarspaltendiskussion führen und somit menschliches Mitdiskutieren überflüssig machen. Das TNG-Innovation-Hacking-Team hat einen Prototyp eines Ende-zu-Ende-Systems für Natural Language Understanding entwickelt, bei dem Techniken wie Speech-to-Text (STT), Conditional Text Generation und Text-to-Speech (TTS) zum Einsatz kommen.
Kommentarspalten in sozialen Medien sind zum vorherrschenden Schauplatz des öffentlichen Diskurses geworden. Diskussionen auf Facebook, Twitter oder Reddit sind jedoch berüchtigt für ihre primitive Debattenkultur und Ergebnislosigkeit. Die offensichtliche Lösung für diese enorme Zeitverschwendung ist die vollständige Automatisierung solch fruchtloser Debatten mittels eines Bots.
In diesem Vortrag zeigen wir verschiedene Kernkonzepte des NLP. Anhand von Live-Demos führen wir Sie durch das Scraping von Social-Media-Kommentaren, das Training eines Sprachmodells, die Synthese von Tausenden Stimmen und die Konstruktion von IoT-Roboterköpfen.

Thomas Endres arbeitet in der Rolle eines Partners als IT-Consultant für TNG Technology Consulting in München. Mit dem TNG-Innovation-Hacking-Team entwickelt er verschiedene Prototypen – darunter ein Telepräsenz-Robotik-System, verschiedene KI-Prototypen und AR/VR-Showcases. Als Intel Software Innovator und Black Belt präsentiert er weltweit neue Technologien wie KI, AR/VR und Robotik. Dafür erhielt er unter anderem einen JavaOne Rockstar-Award.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/thomas-endres/

Martin Förtsch studied computer sciences and works as an IT consultant for TNG Technology Consulting GmbH. In addition to the focus on agile software development in Java, he is familiar with the development of innovative showcases. As JavaOne Rockstar, Intel Software Innovator and Black Belt, he develops showcases with a focus on artificial intelligence, IoT, AR and VR.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/experten/martin-foertsch/

Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting und beschäftigt sich dort hauptsächlich mit der Entwicklung von innovativen Showcases und Prototypen in Soft- und Hardware. So arbeitete er seit 2018 an verschiedensten Projekten, wie zum Beispiel Deepfakes, Mixed Reality KI-Kunstwerken und autonom fliegenden Minidrohnen.

It’s not Rocket Science: Neuronale Netze verstehen
It’s not Rocket Science: Neuronale Netze verstehen

KI und insbesondere Deep Learning sind der Megatrend. Dank leistungsstarker Frameworks sind erste Schritte schnell gemacht. Leider stößt man aber genauso schnell auch wieder an (seine) Grenzen. Passt das genutzte Modell überhaupt zu meinem Problem? Wie sind die gewonnenen Ergebnisse zu bewerten? Kann durch geschickte Veränderung von Modell-Parametern das Ergebnis weiter verbessert werden? In der Session werden wir unser eigenes Neuronales Netz von Grund auf aufbauen und Schritt für Schritt verbessern. Aber keine Angst: „it’s not rocket science“!

Zielpublikum: Architekt:innen, Entwickler:innen, Projektleiter, Manager, Entscheider
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger

Extended Abstract
Die verschiedenen KI-Frameworks machen es dem Anwender - auch ohne tiefgehendes Verständnis - relativ einfach, erste einfache KI-Modell aufzusetzen. Leider kommt der erste Frust aber mindestens genauso schnell. Denn nur wenn man die grundlegenden Prinzipien verstanden hat, die sich unter der Haube eines solchen Modells abspielen, wird man auch in der Lage sein, dessen Parameter sinnvoll zu "pimpen". Man sollte also auch als Nicht-Mathematiker die Grundlagen Neuronaler Netze und ihrer wesentlichen Parameter verstanden haben.

Lars Röwekamp, Gründer des IT-Beratungs- und Entwicklungsunternehmens open knowledge GmbH, beschäftigt sich im Rahmen seiner Tätigkeit als „CIO New Technologies“ mit der eingehenden Analyse und Bewertung neuer Software- und Technologietrends. Ein besonderer Schwerpunkt seiner Arbeit liegt derzeit in den Bereichen Enterprise und Cloud Computing sowie ML/AI, wobei neben Design- und Architekturfragen insbesondere die Real-Life-Aspekte im Fokus seiner Betrachtung stehen.

Thomas Endres, Martin Förtsch, Jonas Mayer
Lars Röwekamp
Thomas Endres, Martin Förtsch, Jonas Mayer

Vortrag Teilen

Lars Röwekamp
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:45
Di 7.2
Automating Industrial Processes Using Computer Vision
Automating Industrial Processes Using Computer Vision

Today Computer vision has taken a significant spot in our phones, our roads, our markets that we don’t always even recognize if and where it is deployed. Nonetheless, our industries today have so much potential to automate (using CV) their recurrent tasks to reduce costs, while simultaneously increasing quality of the product and efficiency of the process itself. We will learn about some interesting industrial examples which benefit first-hand from simple automation and perhaps get inspired by it.

Target Audience: Software Developers, Data Scientists, AI Engineers, Managers, Project Leader, Decision Makers
Prerequisites: None
Level: Advanced

Extended Abstract
In the era of Industry 4.0, we are focusing on digitalizing operations using data. We let cameras ‘see’, detect and classify objects and even take some decisions for us. In this talk, we discuss what is Computer Vision (CV), and learn how could different industries benefit / save recurring costs from it. We will discuss some interesting industrial applications of Computer Vision, for you to get some inspiration on how it can potentially help your company grow, or just to understand the advancements in today’s world.
In these 45 mins, we discuss how CV can:
- automate the industrial processes
- be more then more efficient,
- ensure the product quality,
- or detect anomalies.
Using some demos and videos you’ll get the chance to consolidate the knowledge acquired during the talk.

Akarsha Sehwag works as a Senior Data Scientist in Steadforce Advanced Analytics Team. She is skilled in Machine Learning overall, but aims to specialise in Computer Vision. Before joining Steadforce, she has gained experience in telecommunications and renewable industry. She comes from the Computer Science background with a focus on Data Science, with her research published in two major conferences.
Akarsha Sehwag
Akarsha Sehwag
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 17:15
Di 7.3
Software-Architektur für Machine Learning
Software-Architektur für Machine Learning

Machine Learning-Diskussionen drehen sich oft um Datenbeschaffung, geeignete Werkzeuge und Modelle. Und natürlich um beeindruckende Anwendungen von Spotify, Tesla und Co. Doch wie entstehen ML-Lösungen? Oft scheint Genialität und Zufall bestimmend, doch in dieser Session zeige ich, was wirklich hinter erfolgreichen ML-Vorhaben steckt und wie man erfolgreich professionalisiert. Mit den Überschriften der Architektur-Disziplin sortiere ich die Herausforderungen von ML-Vorhaben und zeige, wie man mit ML nicht nur experimentiert, sondern arbeitet.

Zielpublikum: Entwickler:innen, Architekte:innen, ML-Interessierte, Management
Voraussetzungen: Erfahrung in der Entwicklung von Systemen
Schwierigkeitsgrad: Anfänger

Extended Abstract
Machine Learning-Diskussionen drehen sich oft um Datenbeschaffung, geeignete Werkzeuge und gut verallgemeinernde Modelle. Und natürlich um die beeindruckenden Anwendungen, die Spotify, Facebook, Tesla und andere Firmen bauen. Doch wie entstehen ML-Lösungen eigentlich? Oft scheint Genialität und Zufall bestimmend, doch in dieser Session werfen wir einen Blick darauf, was wirklich hinter erfolgreichen ML-Vorhaben steckt und was es zu bedenken gibt, wenn man Machine Learning professionalisieren möchte.
Mit der Architektur-Brille durchleuchte ich die Gemeinsamkeiten und Unterschiede zu klassischen Softwareprojekten und arbeite neun wichtige Architektur-Themen im Machine Learning-Bereich heraus. Dabei geht es um Entscheidungen zum Technologiestack, aber auch um Zielumgebungen, bzw. den Weg dort hin, methodische und organisatorische Aspekte sowie die Integration von ML-Lösungen in eine Systemlandschaft.
Die Teilnehmer lernen nicht nur fundierte über eigene Vorhaben nachzudenken, sondern sehen auch die neuen Herausforderungen, die Machine Learning mit sich bringt. Abgerundet wird die Session durch einen groben ML-Prozess, der diese Herausforderungen gut aufgreift.

Stefan Toth berät Entwickler, Teams und Unternehmen in Sachen Agilität und Software-Architektur. Fundiert, klar und effektiv. Seine Erfahrungen reichen vom Banken- und Versicherungssektor über sicherheitskritische Branchen bis hin zur Unterstützung von Internet Start-ups. Neben dem breiten technologischen Kontext ist die methodische Erfahrung aus agilen Projekten, Architekturbewertungen und IT-Transformationen sein größtes Kapital.

Stefan Toth
Stefan Toth
flag VORTRAG MERKEN

Vortrag Teilen

17:45 - 18:45
Di 7.4
Host mi App? Wie können meine Anwendungen durch KI Deutsch hören und sprechen?
Host mi App? Wie können meine Anwendungen durch KI Deutsch hören und sprechen?

Sie wollen sehen und ausprobieren, wie sich aktuelle Frameworks und Modelle beim Erkennen und Erzeugen deutscher Sprache schlagen? Dann sind Sie hier genau richtig. Probieren Sie online mit uns aus, wie gut freie Modelle inzwischen sind, die Sie unabhängig von den Großen auch lokal nutzen können: Sei es für Sprachbefehle, das Erkennen von Kundentelefonaten, das Erstellen von Audio zur Barrierefreiheit und was deren Grenzen und Vorurteile sind.

Zielpublikum: Sprachversteher:innen, Entwickler:innen
Voraussetzungen: Internetfähiges Gerät fürs Probieren
Schwierigkeitsgrad: Anfänger

Extended Abstract
KI ist nicht mehr ganz so Hype wie vor 2 Jahren und aktuell stehen ethische Themen zu Recht im Nachrichtenfokus. Dabei geht manchmal etwas unter, dass es gerade jetzt gute, frei verfügbare Modelle und Frameworks gibt, um Projekte mit deutscher Sprache und KI umzusetzen. Daten müssen nicht mehr an die Hyperscaler gesendet werden, Frameworks sind in Minuten nicht Stunden installiert und die Erkennung kann an bestimmte Branchen oder Szenarien angepasst werden.
Sie erfahren auf technischer Ebene, wie Spracherkennung und Spracherzeugung mit moderner KI grundsätzlich funktionieren und welche starken Veränderungen sich gerade im letzten Jahr durch neue Algorithmen und Modelle ergeben haben. Wir verwenden in unseren Beispielen Google Colab mit freien deutschen Modellen, die Sie selbst ausprobieren und später erweitern können. Die Beispiele sind an typische Projekte aus der Praxis angelehnt. Die Ersteller der Algorithmen haben häufig einen Forschungsfokus und begnügen sich mit guten Erkennungsraten, aber konzentrieren sich nicht auf den täglichen, skalierbaren Betrieb. Hier stellen wir vor, welche Frameworks heute produktiv einsetzbar sind. Im Bereich der Transkription sehen Sie, wie Diktate automatisiert verschriftlicht werden können und welche Fallstricke dabei lauern. Und beim Erstellen eines KI-Nachrichtensprechers können Sie sich von der Qualität seines bairischen Dialekts überzeugen. Außerdem gehen wir auf weitere typische Einsatzszenarien ein.
Auf organisatorischer Ebene nehmen Sie mit, dass ein Projekt zur Modellerstellung nicht immer so läuft, wie es auf Charts aussieht und was Sie schon jetzt dagegen tun können, auch wenn das Projekt erst in 2 Jahren beginnen sollte. Dabei stellen wir auch vor, mit welchen Daten KI-Modelle am besten trainiert werden sollten und wie man Vorurteile und andere ethische Probleme erkennen und möglichst vermeiden kann. Dabei gehen wir auch auf die Erkennung von Dialekten ein, deren Erkennung den Großen durchaus noch Sorgen bereitet.

Olaf Thiele lebt als einer der wenigen von der Erstellung deutscher KI-Sprachmodelle (STT und TTS). Sei es auf Basis von wav2vec, coqui, mit oder ohne KenLM. Seine Modelle können normal angesprochen oder auch angeschrien werden, sogar auf Bairisch, Schwäbisch oder Sächsisch. Und das mit medizinischem Fachchinesisch oder dem Small Talk einer Soapopera. Die künstlichen Sprecher der ainblick können ebenso schnell wie langsam mit Dialekt oder ohne Nachrichten vorlesen oder Kommandos geben.
Olaf Thiele
Olaf Thiele
flag VORTRAG MERKEN

Vortrag Teilen

, (Mittwoch, 02.Februar 2022)
09:00 - 10:45
Mi 7.1
Applying AI Methods to Help Users in Fixing Static Analysis Violations
Applying AI Methods to Help Users in Fixing Static Analysis Violations

The adoption of static analysis of C++ and Java requires that the findings and errors can be prioritised in an efficient way. Our work shows that Machine learning (ML) can support this presentation of static analysis results to end-users. The ML engine learns from the codebase itself, and also observes the violations that the user fixes and which he ignores. The ML uses this to suggest the next best violations to fix, relying on probability of violations to be harmful or most likely to be a noise.

Target Audience: Developer Managers, R&D Managers, Software Architects, Software Engineers
Prerequisites: English, Software development, Coding experience, C++, Java, C#.
Level: Expert

Extended Abstract
Static code analysis is often understood as a mandatory part for checking the source code compliance to government and industry regulations, company-wide guidelines and practices. It can play, however, a more fundamental role in estimating the quality of the code in general, understanding the amount of technical debt, creating the strategy to reduce the amount of technical debt, as well as a helper in making decisions on how to speed up the development by creating a more maintainable, understandable, sociable codebase.

However, by its nature, static code analysis is bound to produce a large amount of noise and false alerts that can distract the team from the actual bugs in the code and prevent them from working thoroughly with the findings. One of the reasons for that is the level of soundness of the static analysis tool. If we want to be sure that the analysis is bound to find all errors in the code, the static analysis tool has to report all possible candidates. The more sound the tool is configured to be, the larger the number of the possible errors is reported, which increases the number of false positives as well.

To improve the user experience of working with static analysis technology, we have developed a machine learning (ML) based approach to presenting the results of the static analysis to users. The ML engine can learn from the code base itself, from a user's preferences, as well as from the interaction within the team. At the code level, our engine learns from the syntactical and semantical structure of the analyzed code to understand which violations are more likely to cause more harm, which violations are more likely to be noise, what underlying problems can be fixed to drastically reduce the number of reported violations. At the user level, the ML engine observes which violations the user fixes and which violations the user ignores. Based on these observations, the ML engine builds a model and uses it to suggest the next best violations to fix.

Igor Kirilenko is VP of Development at Parasoft. He joined Parasoft in 2013, and currently he is responsible for technical strategy, architecture, and development of all products delivered by the company. For the past several years Igor Kirilenko has also been leading the R&D team of highly trained engineers at Parasoft who are focused on research of AI and Machine Learning technologies and creation of new approaches for improvement of accuracy in static analysis findings.
Keeping a Huge Product Database up to Date With State of the Art Machine Learning
Keeping a Huge Product Database up to Date With State of the Art Machine Learning

Maintaining a database containing millions of products can be very challenging, especially when the information you require of these products is subject to changes over time.

We show how we used state of the art Deep Learning methods (such as Transformers, BERT) in connection with smart text matching in order to extract relevant information from free-form text.

We also explain how we leveraged the existing database to create an automatically labelled training dataset.

Our model enables us to continuously update idealos database automatically.

Target Audience:
Decision Makers, Technical Project Leaders, Developers
Prerequisites: Basic knowledge of machine learning methodology
Level: Advanced

Extended Abstract

To maintain idealos product base, product information in the form of values of predefined product attributes needs to be extracted from free-form text product descriptions.

Before the use of a Machine Learning based solution, this process required a lot of manual work to define rules to extract this information. There is also a high effort connected to keeping these rules consistent across the whole database and different types of products, especially since the source of this information (the product descriptions) as well as the required information (the product properties) are subject to changes over time.

In this talk we present a machine learning solution, based on fine tuned state-of-the-art models such as BERT, which is able to extract product information automatically from product descriptions with production-ready performance.

Our solution contains two different models, each following one of the well-known problem settings in Natural Language Processing (NLP): Semantic Segmentation of text (also known as Token Classification) and Question Answering. We will present both models in detail, as well as discussing their advantages and disadvantages for solving the task at hand and how we measured its performance (metrics).

We will also emphasize the importance of identifying aspects of your data that ensure that the developed model can actually fulfill your business needs before curating your dataset.

This highlights another benefit of implementing a Machine Learning model for a huge database: You will get sanity checks of your existing data “for free”, as consistent data is a prerequisite for a successful Machine Learning project.

One problem that is very common in large organisations is that there is often no or only very little training data in the form of labels for specific text sections available. We show how we mitigated this problem by leveraging the existing database to generate a large artificial training dataset. This allowed us to only use a few thousand manually labelled examples for training and testing to reach sufficient performance.

Jan Anderssen (PhD, Linguistics) is Domain Lead Inventory Business at idealo internet GmbH. He has more than 10 years of experience in various product development and leadership roles in e-commerce.

Jona Welsch is Machine Learning Project Lead at dida, where he is responsible for the development of machine learning solutions in the areas of Natural Language Processing and Computer Vision.

Igor Kirilenko
Jan Anderssen, Jona Welsch
Igor Kirilenko

Vortrag Teilen

Jan Anderssen, Jona Welsch
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 11:45
Mi 7.2
Just Enough MLOps – wie man mit MLOps nicht übertreibt
Just Enough MLOps – wie man mit MLOps nicht übertreibt

Der Umfang der MLOps-Prozesse und -Technologien hängt von dem AI "Maturity Level" der jeweiligen Organisation ab. Das Umsetzen von kanonischem MLOps kann zu einer unnötigen Komplexität in der Architektur und Organization führen. Das “AI Readiness”-Framework definiert den Reifegrad einer Organisation bei der Nutzung von ML/AI und ordnet es in eine der drei Stufen ein: Tactical, Strategic und Transformational. In dem Vortrag gehe ich auf die drei “AI-Readiness”-Stufen ein und zeige, wie man eine MLOps Roadmap ableitet.

Zielpublikum: Architekt:innen, Entwickler:innen, Projektleiter:innen, Machine Learning-Enthusiasten, Data Scientists
Voraussetzungen: Allgemeines Verständnis über Machine Learning
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract

Der Umfang der MLOps-Prozesse und -Technologien hängt von dem AI "Maturity Level" der jeweiligen Organisation ab.

Das “AI Readiness”-Framework definiert den Reifegrad einer Organisation bei der Nutzung von ML/AI und ordnet es in eine der drei Stufen ein:

Tactical, Strategic und Transformational.

Es ist essenziell zu verstehen, dass die Verwendung von Machine Learning Tools und Techniken in diesen Phasen in einem Reifeprozess verläuft. Von dem manuellen und dem Ad-hoc-Deployment, über die Implementierung von ML Workflows/Pipelines, bis hin zu Continuous Training und dem automatisierten Deployment von ML-Modellen.

Im Vortrag gehe ich auf diese drei “AI-Readiness”-Stufen ein und zeige, wie man die nächsten Schritte (MLOps Roadmap) ableitet

Larysa Visengeriyeva arbeitet als Consultant bei INNOQ. Aktuell beschäftigt sie sich mit Software-Engineering und Machine Learning - MLOps. Sie ist die Autorin von ml-ops.org. Larysa hat im Bereich des Augmented Data Cleaning promoviert.
Larysa Visengeriyeva
Larysa Visengeriyeva
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:30
Mi 7.3
NEU! Machine Learning betrachtet als ein Engineering Problem
NEU! Machine Learning betrachtet als ein Engineering Problem

Machine Learning wird häufig immer noch als eine mathematische Herausforderung angesehen und an den Universitäten meist ebenso gelehrt. Es regt sich aber auch im akademischen Umfeld Widerstand und selbst Stars wie Andrew Ng bieten neuerdings Kurse mit Inhalten an, die uns Softwareentwickeln eher vertraut sind.
In diesem Talk werde ich beleuchten, wie viel man wirklich wissen muss, um als Softwareentwickler Machine Learning sinnvoll einzusetzen.

Zielpublikum: Jede Rolle im Bereich Softwareentwicklung
Voraussetzungen: Verständnis von Softwareentwicklung, kein Verständnis von ML notwendig
Schwierigkeitsgrad: Anfänger

Extended Abstract
Machine Learning Verfahren im allgemeinen und Neuronale Netzwerke im speziellen erfordern für ihr tiefes Verständnis Kenntnisse im Bereich der Linearen Algebra, der Analysis und der Statistik.
Aber: Als Softwareentwickler implementiert man Neuronale Netzwerke typischerweise nicht auf der grünen Wiese und kommt auch nicht in die Verlegenheit, komplexe Netzwerke selbst aufzubauen. Viel häufiger kommen Frameworks wie TensorFlow und sogar komplett aufgebaute und zum Teil schon trainierte Neuronale Netzwerke zum Einsatz.
Das verschiebt die Problematik des Machine Learnings in die Richtung des Engineerings:

  • Wie baut man eine Trainings-Pipeline auf?
  • Wie bekommt man das trainierte Modell in Produktion und sorgt dann dafür, dass das Modell weiterhin aktuell bleibt?

Oliver Zeigermann ist Softwareentwickler aus Hamburg. Er entwickelt seit über 35 Jahren Software mit unterschiedlichen Ansätzen und Programmiersprachen. In letzter Zeit hat er sich vor allem mit Machine Learning und dessen Kommunikation mit dem Menschen beschäftigt.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/oliver.zeigermann

Oliver Zeigermann
Oliver Zeigermann
flag VORTRAG MERKEN

Vortrag Teilen

17:00 - 18:00
Mi 7.4
NEU! Can Agile be disrupted by AI?
NEU! Can Agile be disrupted by AI?

Agile is becoming a standard delivery method adopted by organizations across the globe, according to VersionOne’s 11th Annual State of Agile Report. While 94 percent of survey respondents said their organizations practiced Agile, 80 percent said their organization was at or below a “still maturing” level. There are multiple reasons on why the Agile maturity of the teams are low, but the key one is teams look at Agile as a process change rather than a cultural change.
At Accenture we have been delivering solutions using Agile practices and principles and based on our experience we do face the challenges within the Agile teams such as the whole team’s limited experience with Agile, slowing down of work due to limited access to Product Owner, incomplete\less detailed user stories leading to high onshore dependency and struggling to keep momentum with continuous churn of Agile events through active participation and to maintain quality of artefacts (backlog, burndown, impediment list, retrospective action log etc.). These challenges manifold when delivery teams are practicing distributed Agile at scale. Apart from these challenges, at Accenture we are focused on how to make our teams more productive and ease the ways of working for the Agile teams.
In this presentation, we share our experiences in leveraging AI for Agile and the team feedback where these solutions were deployed. Did the AI in Agile help to address or mitigate the challenges it was introduced to address?  

 

Jefferson Dsouza as an Accenture Managing Director brings with him about 21+ years of software industry experience to his role as Agile Community of Practice Lead, Living System Advisory Lead and Automation deployment lead at Accenture. He has over 14+ years of extensive expertise in Agile and Lean with deep knowledge of program management disciplines across Agile, Waterfall and Lean methodologies. Jeff has experience in large scale transformation, mentoring and coaching leadership, building sustenance through developing internal coaching capabilities, setting up Community of Practices.  
LinkedIn: https://www.linkedin.com/in/jeffson-dsouza-9738134/

Raghavendra Meharwade (Raghu) is an active member of the Accenture Agile Community of Practice since 2011 and has worked as Scrum Master, Agile SME and Agile Coach for projects spread across geographies and domains. In his current role he is responsible for leading portion of myWizard platform that sets up AI in Agile and coaches teams on its use.
LinkedIn: https://www.linkedin.com/in/raghavendra-meharwade/

Jefferson Dsouza, Raghavendra Meharwade
Jefferson Dsouza, Raghavendra Meharwade
flag VORTRAG MERKEN

Vortrag Teilen

Zurück