Konferenzprogramm

Die im Konferenzprogramm der OOP 2022 Digital angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.

Unser Programm gibt es auch als praktische PDF-Datei >>Zum Download

Thema: Artificial Intelligence

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Montag
    31.01.
  • Dienstag
    01.02.
  • Mittwoch
    02.02.
  • Donnerstag
    03.02.
  • Freitag
    04.02.
, (Montag, 31.Januar 2022)
10:00 - 17:00
Mo 5
MLOps – Wie passen Machine Learning, IoT und Software-Architekturen zusammen?
MLOps – Wie passen Machine Learning, IoT und Software-Architekturen zusammen?

Die Themen KI und Maschinelles Lernen (ML) sind heute allgegenwärtig. Meistens geht es um technische Konzepte oder mathematische Modelle. Viel zu wenig findet Beachtung, wie sich KI im Allgemeinen und ML im Speziellen in den Entwicklungsprozess und in Software- & Systemarchitekturen integrieren lassen. Das Tutorium adressiert dieses Thema anhand von IoT-Systemen, da sich dadurch auch die Systemseite beleuchten lässt. Sein Inhalt umfasst den Einstieg in KI/ML, den MLOps-Zyklus und notwendige architektonische Maßnahmen.

Software: Edge Impulse, Teilnehmende können einen beschränkten Account anlegen.

Zielpublikum: Software-Architekt:innen, technologieinteressierte Entscheider:innen
Voraussetzungen: Tiefe Kenntnisse über Software-Architekturen und Software-Entwicklung
Schwierigkeitsgrad: Anfänger

Extended Abstract
Die Themen Künstliche Intelligenz (KI) und Maschinelles Lernen (ML) sind heute allgegenwärtig. Meistens geht es um technische Konzepte oder mathematische Modelle. Viel zu wenig findet Beachtung, wie sich KI im Allgemeinen und ML im Speziellen in den Entwicklungsprozess und in Software- & System-Architekturen integrieren lassen.

Hier stellen sich verschiedene Fragen:

  • Was bedeutet ML überhaupt und wozu ist es gut?
  • Wie sollten Entwicklungsprozess und Rollenverteilung aussehen?
  • Was ist MLOps und wie setze ich es um?
  • Lässt sich ML auch für IoT-Geräte nutzen und falls ja wie?
  • Welche Auswirkungen hat ML auf Software-Architekturen und welche Best/Bad Practices gibt es?

Das Tutorium adressiert dieses Thema anhand von IoT-Systemen, da sich dort auch die Systemseite beleuchten lässt. Angefangen vom Einstieg in ML über den MLOps-Zyklus bis hin zu architektonischen Maßnahmen erstreckt sich das abgedeckte Spektrum.

Zu den Lernzielen gehört unter anderem:

  • Grundlegendes Verständnis über KI und ML und ihrer Grenzen
  • Verstehen und abschätzen von MLOps
  • Einblick in Rollenverteilung und Integration von ML in den Entwicklungsprozess
  • Kennenlernen von Software-Architekturaspekten bei ML
Prof. Dr. Michael Stal forscht bei Siemens Technology an Themen rund um Software-Architektur und ist seit drei Jahrzehnten international als Experte auf diesem Gebiet renommiert.
Michael Stal
Michael Stal
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 17:00
Mo 16
From Requirements to Outcomes: Value Modeling, Experimentation and AI/ML
From Requirements to Outcomes: Value Modeling, Experimentation and AI/ML

Traditionally, requirements were used as a means to communicate between customers and development organizations. Unfortunately, requirements suffer from many limitations.

An alternative approach is to focus on outcomes and to use value modeling as a mechanism to quantitatively define the desired outcomes. This value model can then be used for experimentation by humans using DevOps and A/B testing or using machine learning models for automated experimentation.

The tutorial provides introduction of the topics and exercises.

Target Audience: Architects, Product Managers, Senior Developers, Business Leaders
Prerequisites: None
Level: Basic

Jan Bosch is professor at Chalmers University Technology in Gothenburg, Sweden and director of the Software Center (www.software-center.se), a strategic partner-funded collaboration between 17 large European companies (including Ericsson, Volvo Cars, Volvo Trucks, Saab Defense, Scania, Siemens and Bosch) and five universities focused on digitalization. Earlier, he worked as Vice President Engineering Process at Intuit Inc where he also led Intuit's Open Innovation efforts and headed the central mobile technologies team. Before Intuit, he was head of the Software and Application Technologies Laboratory at Nokia Research Center, Finland. Prior to joining Nokia, he headed the software engineering research group at the University of Groningen, The Netherlands. He received a MSc degree from the University of Twente, The Netherlands, and a PhD degree from Lund University, Sweden. His research activities include digitalisation, evidence-based development, business ecosystems, artificial intelligence and machine/deep learning, software architecture, software product families and software variability management. He is the author of several books including "Design and Use of Software Architectures: Adopting and Evolving a Product Line Approach" published by Pearson Education (Addison-Wesley & ACM Press) and “Speed, Data and Ecosystems: Excelling in a Software-Driven World” published by Taylor and Francis, editor of several books and volumes and author of hundreds of research articles. He is editor for Journal of Systems and Software as well as Science of Computer Programming, chaired several conferences as general and program chair, served on numerous program committees and organised countless workshops. Jan is a fellow member of the International Software Product Management Association (ISPMA) and a member of the Royal Swedish Academy of Engineering Science. Jan serves on the boards of IVER, Peltarion and Burt Intelligence and on the advisory boards of Assia Inc. in Redwood City, CA and Pure Systems GmbH (Germany). Earlier he was chairman of the board of Auqtus, Fidesmo and Remente. In the startup space, Jan is an angel investor in several startup companies. He also runs a boutique consulting firm, Boschonian AB, that offers its clients support around the implications of digitalization including the management of R&D and innovation. For more information see his website: www.janbosch.com.
Helena Holmström Olsson is a professor of computer science at Malmö University, Sweden, and principal investigator/senior researcher in the aforementioned Software Center with expertise in AI and data-driven development. Over the years, she has run projects focusing on feature experimentation, A/B testing, data-driven development practices and data for ML/DL model design and development. She is the supervisor of several PhD students in the area of data-driven development and AI Engineering. In addition, her university has a well established program related to the internet of things (IoT) as well as a research school on data driven systems.
Jan Bosch, Helena Holmström Olsson
Jan Bosch, Helena Holmström Olsson
flag VORTRAG MERKEN

Vortrag Teilen

, (Dienstag, 01.Februar 2022)
09:00 - 10:45
Di 7.1
Fake-Debatten mit NLP – Eine ironische KI-Lösung für Onlinediskussionen
Fake-Debatten mit NLP – Eine ironische KI-Lösung für Onlinediskussionen

Mit Hilfe moderner KI-Ansätze wie GPT-2, Tacotron und Conformers haben wir Roboterköpfe entwickelt, die vollständig autonom unter sich eine Kommentarspaltendiskussion führen und somit menschliches Mitdiskutieren überflüssig machen. Das TNG Innovation-Hacking-Team hat einen Prototyp eines Ende-zu-Ende-Systems für Natural Language Understanding entwickelt, bei dem Techniken wie Speech-to-Text (STT), Conditional Text Generation und Text-to-Speech (TTS) zum Einsatz kommen.

Zielpublikum: Architekt:innen, Entwickler:innen, Projektleiter:innen, Manager, Entscheider
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger

Extended Abstract

Mit Hilfe moderner KI-Ansätze wie GPT-2, Tacotron und Conformers haben wir Roboterköpfe entwickelt, die vollständig autonom unter sich eine Kommentarspaltendiskussion führen und somit menschliches Mitdiskutieren überflüssig machen. Das TNG-Innovation-Hacking-Team hat einen Prototyp eines Ende-zu-Ende-Systems für Natural Language Understanding entwickelt, bei dem Techniken wie Speech-to-Text (STT), Conditional Text Generation und Text-to-Speech (TTS) zum Einsatz kommen.
Kommentarspalten in sozialen Medien sind zum vorherrschenden Schauplatz des öffentlichen Diskurses geworden. Diskussionen auf Facebook, Twitter oder Reddit sind jedoch berüchtigt für ihre primitive Debattenkultur und Ergebnislosigkeit. Die offensichtliche Lösung für diese enorme Zeitverschwendung ist die vollständige Automatisierung solch fruchtloser Debatten mittels eines Bots.
In diesem Vortrag zeigen wir verschiedene Kernkonzepte des NLP. Anhand von Live-Demos führen wir Sie durch das Scraping von Social-Media-Kommentaren, das Training eines Sprachmodells, die Synthese von Tausenden Stimmen und die Konstruktion von IoT-Roboterköpfen.

Thomas Endres arbeitet in der Rolle eines Partners als IT-Consultant für TNG Technology Consulting in München. Neben seiner "normalen" Tätigkeit für die Firma und die Kundenprojekte entwickelt er zusammen mit dem TNG-Hardware-Hacking-Team verschiedene Prototypen - darunter ein Telepräsenz-Robotik-System, mit dem man die Realität aus den Augen eines Roboters erleben kann, oder aber eine Augmented-Reality-KI, die die Welt aus der Perspektive eines Künstlers zeigt. Er arbeitet an Anwendungen im Bereich der AR/VR, KI sowie der Gestensteuerung, um damit beispielsweise Quadrokopter autonom fliegen zu lassen oder berührungslos zu steuern. Darüber hinaus ist er in verschiedenen Open-Source-Projekten in Java, C# und allen Spielarten von JavaScript involviert.

Martin Förtsch studied computer sciences and works as an IT consultant for TNG Technology Consulting GmbH. In addition to the focus on agile software development in Java, he is familiar with the development of innovative showcases. As JavaOne Rockstar, Intel Software Innovator and Black Belt, he develops showcases with a focus on artificial intelligence, IoT, AR and VR.

Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting GmbH und beschäftigt sich dort mit der Entwicklung innovativer Showcases und Prototypen in Soft- und Hardware. So arbeitete er u.a. an Projekten, wie zum Beispiel Deepfakes, Mixed Reality KI-Kunstwerken und autonom fliegenden Minidrohnen. Jonas studierte Informatik: Games Engineering an der TU München.
It’s not Rocket Science: Neuronale Netze verstehen
It’s not Rocket Science: Neuronale Netze verstehen

KI und insbesondere Deep Learning sind der Megatrend. Dank leistungsstarker Frameworks sind erste Schritte schnell gemacht. Leider stößt man aber genauso schnell auch wieder an (seine) Grenzen. Passt das genutzte Modell überhaupt zu meinem Problem? Wie sind die gewonnenen Ergebnisse zu bewerten? Kann durch geschickte Veränderung von Modell-Parametern das Ergebnis weiter verbessert werden? In der Session werden wir unser eigenes Neuronales Netz von Grund auf aufbauen und Schritt für Schritt verbessern. Aber keine Angst: „it’s not rocket science“!

Zielpublikum: Architekt:innen, Entwickler:innen, Projektleiter, Manager, Entscheider
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger

Extended Abstract
Die verschiedenen KI-Frameworks machen es dem Anwender - auch ohne tiefgehendes Verständnis - relativ einfach, erste einfache KI-Modell aufzusetzen. Leider kommt der erste Frust aber mindestens genauso schnell. Denn nur wenn man die grundlegenden Prinzipien verstanden hat, die sich unter der Haube eines solchen Modells abspielen, wird man auch in der Lage sein, dessen Parameter sinnvoll zu "pimpen". Man sollte also auch als Nicht-Mathematiker die Grundlagen Neuronaler Netze und ihrer wesentlichen Parameter verstanden haben.

Lars Röwekamp, Gründer des IT-Beratungs- und Entwicklungsunternehmens OPEN KNOWLEDGE GmbH, beschäftigt sich im Rahmen seiner Tätigkeit als „CIO New Technologies“ mit der eingehenden Analyse und Bewertung neuer Software- und Technologietrends. Ein besonderer Schwerpunkt seiner Arbeit liegt derzeit in den Bereichen Enterprise- und Cloud-Computing, wobei neben Design- und Architektur-Fragen insbesondere die Real-Life-Aspekte im Fokus seiner Betrachtung stehen.
Thomas Endres, Martin Förtsch, Jonas Mayer
Lars Röwekamp
Thomas Endres, Martin Förtsch, Jonas Mayer

Vortrag Teilen

Lars Röwekamp
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:45
Di 7.2
Automating Industrial Processes Using Computer Vision
Automating Industrial Processes Using Computer Vision

Today Computer vision has taken a significant spot in our phones, our roads, our markets that we don’t always even recognize if and where it is deployed. Nonetheless, our industries today have so much potential to automate (using CV) their recurrent tasks to reduce costs, while simultaneously increasing quality of the product and efficiency of the process itself. We will learn about some interesting industrial examples which benefit first-hand from simple automation and perhaps get inspired by it.

Target Audience: Software Developers, Data Scientists, AI Engineers, Managers, Project Leader, Decision Makers
Prerequisites: None
Level: Advanced

Extended Abstract
In the era of Industry 4.0, we are focusing on digitalizing operations using data. We let cameras ‘see’, detect and classify objects and even take some decisions for us. In this talk, we discuss what is Computer Vision (CV), and learn how could different industries benefit / save recurring costs from it. We will discuss some interesting industrial applications of Computer Vision, for you to get some inspiration on how it can potentially help your company grow, or just to understand the advancements in today’s world.
In these 45 mins, we discuss how CV can:
- automate the industrial processes
- be more then more efficient,
- ensure the product quality,
- or detect anomalies.
Using some demos and videos you’ll get the chance to consolidate the knowledge acquired during the talk.

Akarsha Sehwag works as a Senior Data Scientist in Steadforce Advanced Analytics Team. She is skilled in Machine Learning overall, but aims to specialise in Computer Vision. Before joining Steadforce, she has gained experience in telecommunications and renewable industry. She comes from the Computer Science background with a focus on Data Science, with her research published in two major conferences.
Akarsha Sehwag
Akarsha Sehwag
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 17:15
Di 7.3
Software-Architektur für Machine Learning
Software-Architektur für Machine Learning

Machine Learning-Diskussionen drehen sich oft um Datenbeschaffung, geeignete Werkzeuge und Modelle. Und natürlich um beeindruckende Anwendungen von Spotify, Tesla und Co. Doch wie entstehen ML-Lösungen? Oft scheint Genialität und Zufall bestimmend, doch in dieser Session zeige ich, was wirklich hinter erfolgreichen ML-Vorhaben steckt und wie man erfolgreich professionalisiert. Mit den Überschriften der Architektur-Disziplin sortiere ich die Herausforderungen von ML-Vorhaben und zeige, wie man mit ML nicht nur experimentiert, sondern arbeitet.

Zielpublikum: Entwickler:innen, Architekte:innen, ML-Interessierte, Management
Voraussetzungen: Erfahrung in der Entwicklung von Systemen
Schwierigkeitsgrad: Anfänger

Extended Abstract
Machine Learning-Diskussionen drehen sich oft um Datenbeschaffung, geeignete Werkzeuge und gut verallgemeinernde Modelle. Und natürlich um die beeindruckenden Anwendungen, die Spotify, Facebook, Tesla und andere Firmen bauen. Doch wie entstehen ML-Lösungen eigentlich? Oft scheint Genialität und Zufall bestimmend, doch in dieser Session werfen wir einen Blick darauf, was wirklich hinter erfolgreichen ML-Vorhaben steckt und was es zu bedenken gibt, wenn man Machine Learning professionalisieren möchte.
Mit der Architektur-Brille durchleuchte ich die Gemeinsamkeiten und Unterschiede zu klassischen Softwareprojekten und arbeite neun wichtige Architektur-Themen im Machine Learning-Bereich heraus. Dabei geht es um Entscheidungen zum Technologiestack, aber auch um Zielumgebungen, bzw. den Weg dort hin, methodische und organisatorische Aspekte sowie die Integration von ML-Lösungen in eine Systemlandschaft.
Die Teilnehmer lernen nicht nur fundierte über eigene Vorhaben nachzudenken, sondern sehen auch die neuen Herausforderungen, die Machine Learning mit sich bringt. Abgerundet wird die Session durch einen groben ML-Prozess, der diese Herausforderungen gut aufgreift.

Stefan Toth ist Geschäftsführer und Mitgründer der embarc GmbH. Seine Beratungsschwerpunkte liegen in der Konzeption und der Bewertung mittlerer bis großer Softwarelösungen, der Weiterentwicklung von Systemlandschaften sowie der Verbindung dieser Themen zu agilen Vorgehen. Er ist Autor zahlreicher Artikel und des Buchs „Vorgehensmuster für Software-Architektur“.
Stefan Toth
Stefan Toth
flag VORTRAG MERKEN

Vortrag Teilen

17:45 - 18:45
Di 7.4
Host mi App? Wie können meine Anwendungen durch KI Deutsch hören und sprechen?
Host mi App? Wie können meine Anwendungen durch KI Deutsch hören und sprechen?

Sie wollen sehen und ausprobieren, wie sich aktuelle Frameworks und Modelle beim Erkennen und Erzeugen deutscher Sprache schlagen? Dann sind Sie hier genau richtig. Probieren Sie online mit uns aus, wie gut freie Modelle inzwischen sind, die Sie unabhängig von den Großen auch lokal nutzen können: Sei es für Sprachbefehle, das Erkennen von Kundentelefonaten, das Erstellen von Audio zur Barrierefreiheit und was deren Grenzen und Vorurteile sind.

Zielpublikum: Sprachversteher:innen, Entwickler:innen
Voraussetzungen: Internetfähiges Gerät fürs Probieren
Schwierigkeitsgrad: Anfänger

Extended Abstract
KI ist nicht mehr ganz so Hype wie vor 2 Jahren und aktuell stehen ethische Themen zu Recht im Nachrichtenfokus. Dabei geht manchmal etwas unter, dass es gerade jetzt gute, frei verfügbare Modelle und Frameworks gibt, um Projekte mit deutscher Sprache und KI umzusetzen. Daten müssen nicht mehr an die Hyperscaler gesendet werden, Frameworks sind in Minuten nicht Stunden installiert und die Erkennung kann an bestimmte Branchen oder Szenarien angepasst werden.
Sie erfahren auf technischer Ebene, wie Spracherkennung und Spracherzeugung mit moderner KI grundsätzlich funktionieren und welche starken Veränderungen sich gerade im letzten Jahr durch neue Algorithmen und Modelle ergeben haben. Wir verwenden in unseren Beispielen Google Colab mit freien deutschen Modellen, die Sie selbst ausprobieren und später erweitern können. Die Beispiele sind an typische Projekte aus der Praxis angelehnt. Die Ersteller der Algorithmen haben häufig einen Forschungsfokus und begnügen sich mit guten Erkennungsraten, aber konzentrieren sich nicht auf den täglichen, skalierbaren Betrieb. Hier stellen wir vor, welche Frameworks heute produktiv einsetzbar sind. Im Bereich der Transkription sehen Sie, wie Diktate automatisiert verschriftlicht werden können und welche Fallstricke dabei lauern. Und beim Erstellen eines KI-Nachrichtensprechers können Sie sich von der Qualität seines bairischen Dialekts überzeugen. Außerdem gehen wir auf weitere typische Einsatzszenarien ein.
Auf organisatorischer Ebene nehmen Sie mit, dass ein Projekt zur Modellerstellung nicht immer so läuft, wie es auf Charts aussieht und was Sie schon jetzt dagegen tun können, auch wenn das Projekt erst in 2 Jahren beginnen sollte. Dabei stellen wir auch vor, mit welchen Daten KI-Modelle am besten trainiert werden sollten und wie man Vorurteile und andere ethische Probleme erkennen und möglichst vermeiden kann. Dabei gehen wir auch auf die Erkennung von Dialekten ein, deren Erkennung den Großen durchaus noch Sorgen bereitet.

Olaf Thiele lebt als einer der wenigen von der Erstellung deutscher KI-Sprachmodelle (STT und TTS). Sei es auf Basis von wav2vec, coqui, mit oder ohne KenLM. Seine Modelle können normal angesprochen oder auch angeschrien werden, sogar auf Bairisch, Schwäbisch oder Sächsisch. Und das mit medizinischem Fachchinesisch oder dem Small Talk einer Soapopera. Die künstlichen Sprecher der ainblick können ebenso schnell wie langsam mit Dialekt oder ohne Nachrichten vorlesen oder Kommandos geben.
Olaf Thiele
Olaf Thiele
flag VORTRAG MERKEN

Vortrag Teilen

, (Mittwoch, 02.Februar 2022)
09:00 - 10:45
Mi 7.1
Applying AI Methods to Help Users in Fixing Static Analysis Violations
Applying AI Methods to Help Users in Fixing Static Analysis Violations

The adoption of static analysis of C++ and Java requires that the findings and errors can be prioritised in an efficient way. Our work shows that Machine learning (ML) can support this presentation of static analysis results to end-users. The ML engine learns from the codebase itself, and also observes the violations that the user fixes and which he ignores. The ML uses this to suggest the next best violations to fix, relying on probability of violations to be harmful or most likely to be a noise.

Target Audience: Developer Managers, R&D Managers, Software Architects, Software Engineers
Prerequisites: English, Software development, Coding experience, C++, Java, C#.
Level: Expert

Extended Abstract
Static code analysis is often understood as a mandatory part for checking the source code compliance to government and industry regulations, company-wide guidelines and practices. It can play, however, a more fundamental role in estimating the quality of the code in general, understanding the amount of technical debt, creating the strategy to reduce the amount of technical debt, as well as a helper in making decisions on how to speed up the development by creating a more maintainable, understandable, sociable codebase.

However, by its nature, static code analysis is bound to produce a large amount of noise and false alerts that can distract the team from the actual bugs in the code and prevent them from working thoroughly with the findings. One of the reasons for that is the level of soundness of the static analysis tool. If we want to be sure that the analysis is bound to find all errors in the code, the static analysis tool has to report all possible candidates. The more sound the tool is configured to be, the larger the number of the possible errors is reported, which increases the number of false positives as well.

To improve the user experience of working with static analysis technology, we have developed a machine learning (ML) based approach to presenting the results of the static analysis to users. The ML engine can learn from the code base itself, from a user's preferences, as well as from the interaction within the team. At the code level, our engine learns from the syntactical and semantical structure of the analyzed code to understand which violations are more likely to cause more harm, which violations are more likely to be noise, what underlying problems can be fixed to drastically reduce the number of reported violations. At the user level, the ML engine observes which violations the user fixes and which violations the user ignores. Based on these observations, the ML engine builds a model and uses it to suggest the next best violations to fix.

Igor Kirilenko is VP of Development at Parasoft. He joined Parasoft in 2013, and currently he is responsible for technical strategy, architecture, and development of all products delivered by the company. For the past several years Igor Kirilenko has also been leading the R&D team of highly trained engineers at Parasoft who are focused on research of AI and Machine Learning technologies and creation of new approaches for improvement of accuracy in static analysis findings.
Keeping a Huge Product Database up to Date With State of the Art Machine Learning
Keeping a Huge Product Database up to Date With State of the Art Machine Learning

Maintaining a database containing millions of products can be very challenging, especially when the information you require of these products is subject to changes over time.

We show how we used state of the art Deep Learning methods (such as Transformers, BERT) in connection with smart text matching in order to extract relevant information from free-form text.

We also explain how we leveraged the existing database to create an automatically labelled training dataset.

Our model enables us to continuously update idealos database automatically.

Target Audience:
Decision Makers, Technical Project Leaders, Developers
Prerequisites: Basic knowledge of machine learning methodology
Level: Advanced

Extended Abstract

To maintain idealos product base, product information in the form of values of predefined product attributes needs to be extracted from free-form text product descriptions.

Before the use of a Machine Learning based solution, this process required a lot of manual work to define rules to extract this information. There is also a high effort connected to keeping these rules consistent across the whole database and different types of products, especially since the source of this information (the product descriptions) as well as the required information (the product properties) are subject to changes over time.

In this talk we present a machine learning solution, based on fine tuned state-of-the-art models such as BERT, which is able to extract product information automatically from product descriptions with production-ready performance.

Our solution contains two different models, each following one of the well-known problem settings in Natural Language Processing (NLP): Semantic Segmentation of text (also known as Token Classification) and Question Answering. We will present both models in detail, as well as discussing their advantages and disadvantages for solving the task at hand and how we measured its performance (metrics).

We will also emphasize the importance of identifying aspects of your data that ensure that the developed model can actually fulfill your business needs before curating your dataset.

This highlights another benefit of implementing a Machine Learning model for a huge database: You will get sanity checks of your existing data “for free”, as consistent data is a prerequisite for a successful Machine Learning project.

One problem that is very common in large organisations is that there is often no or only very little training data in the form of labels for specific text sections available. We show how we mitigated this problem by leveraging the existing database to generate a large artificial training dataset. This allowed us to only use a few thousand manually labelled examples for training and testing to reach sufficient performance.

Jan Anderssen (PhD, Linguistics) is Domain Lead Inventory Business at idealo internet GmbH. He has more than 10 years of experience in various product development and leadership roles in e-commerce.
Jona Welsch is Machine Learning Project Lead at dida, where he is responsible for the development of machine learning solutions in the areas of Natural Language Processing and Computer Vision.
Igor Kirilenko
Jan Anderssen, Jona welsch
Igor Kirilenko

Vortrag Teilen

Jan Anderssen, Jona welsch
flag VORTRAG MERKEN

Vortrag Teilen

09:00 - 10:45
Mi 8.1
Quality Engineering Instead of Testing… Why? How?
Quality Engineering Instead of Testing… Why? How?

To continuously deliver IT systems at speed with a focus on business value, high-performance IT delivery teams integrate quality engineering in their way of working.

Quality engineering is the new concept in achieving the right quality of IT systems. Testing only after an IT product was developed is an outdated approach. Built-in quality from the start is needed to guarantee business value in today’s IT delivery models. Quality engineering is about changes in skills, organization, automation and quality measures.

Target Audience: All people involved in high-performance IT delivery teams
Prerequisites: General knowledge of IT delivery
Level: Advanced

Extended Abstract

To continuously deliver IT systems at speed with a focus on business value, high-performance cross-functional IT delivery teams integrate quality engineering in their way of working.

Quality engineering is the new concept in achieving the right quality of IT systems. Testing an application only after the digital product has been fully developed has long been a thing of the past. More is needed to guarantee the quality of applications that are delivered faster and more frequently in today’s high-performance IT delivery models. It is about achieving built-in quality. The road to quality engineering means changes in terms of starting points, skills, organization, automation and quality measures.

Our new VOICE model guides teams to align their activities with the business value that is pursued, and by measuring indicators, teams give the right information to stakeholders to establish their confidence that the IT delivery will actually result in business value for the customers.

Teams benefit from the clear definition of QA&Testing topics that are a useful grouping of all activities relevant to quality engineering. Organizing topics are relevant to align activities between teams and performing topics have a focus on the operational activities within a team.

Also, to be able to deliver quality at speed, for today’s teams it is crucial to benefit from automating activities, for example in a CI/CD pipeline, whereby people must remember that automation is not the goal but just a way to increase quality and speed.

In this presentation the audience will learn why a broad view on quality engineering is important and how quality engineering can be implemented to achieve the right quality of IT products, the IT delivery process and the people involved.

This presentation is based on our new book "Quality for DevOps teams" (ISBN 978-90-75414-89-9) which supports high-performance cross-functional teams in implementing quality in their DevOps culture, with practical examples, useful knowledge and some theoretical background.

Rik Marselis is principal quality consultant at Sogeti in the Netherlands. He is a well-appreciated presenter, trainer, author, consultant, and coach in the world of quality engineering. His presentations are always appreciated for their liveliness, his ability to keep the talks serious but light, and his use of practical examples with humorous comparisons.
Rik is a trainer for test design techniques for over 15 years.
Impact Assessment 101 to 301: From Beginner to Journeyman
Impact Assessment 101 to 301: From Beginner to Journeyman

In large software projects the assessment of the impact of a code change can be a cumbersome task. If the software has grown and shows an evolutionary design there are always unwanted side effects.

Change control boards are established. But on what data do they judge what can happen with the changes? Very often there is the HIPPO syndrome which means it is the highest paid person's opinion.

In this talk we will show you ways to come to a deterministic prediction of the impact, what data you need and what you can do with it.

Target Audience:
Architects, Test Managers, Developers, Testers
Prerequisites: Basic knowledge of collected data in software projects
Level: Advanced

Marco Achtziger is Test Architect at Siemens Healthineers. He has several qualifications from iSTQB/iSQI, is certified Software Architect and trainer for the Test Architect curriculum at Siemens AG.
Gregor Endler holds a doctor's degree in Computer Science for his thesis on completeness estimation of timestamped data. His work at codemanufaktur GmbH deals with Machine Learning and Data Analysis.
Rik Marselis
Marco Achtziger, Gregor Endler
Rik Marselis

Vortrag Teilen

Marco Achtziger, Gregor Endler
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 11:45
Mi 7.2
Just Enough MLOps – wie man mit MLOps nicht übertreibt
Just Enough MLOps – wie man mit MLOps nicht übertreibt

Der Umfang der MLOps-Prozesse und -Technologien hängt von dem AI "Maturity Level" der jeweiligen Organisation ab. Das Umsetzen von kanonischem MLOps kann zu einer unnötigen Komplexität in der Architektur und Organization führen. Das “AI Readiness”-Framework definiert den Reifegrad einer Organisation bei der Nutzung von ML/AI und ordnet es in eine der drei Stufen ein: Tactical, Strategic und Transformational. In dem Vortrag gehe ich auf die drei “AI-Readiness”-Stufen ein und zeige, wie man eine MLOps Roadmap ableitet.

Zielpublikum: Architekt:innen, Entwickler:innen, Projektleiter:innen, Machine Learning-Enthusiasten, Data Scientists
Voraussetzungen: Allgemeines Verständnis über Machine Learning
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract

Der Umfang der MLOps-Prozesse und -Technologien hängt von dem AI "Maturity Level" der jeweiligen Organisation ab.

Das “AI Readiness”-Framework definiert den Reifegrad einer Organisation bei der Nutzung von ML/AI und ordnet es in eine der drei Stufen ein:

Tactical, Strategic und Transformational.

Es ist essenziell zu verstehen, dass die Verwendung von Machine Learning Tools und Techniken in diesen Phasen in einem Reifeprozess verläuft. Von dem manuellen und dem Ad-hoc-Deployment, über die Implementierung von ML Workflows/Pipelines, bis hin zu Continuous Training und dem automatisierten Deployment von ML-Modellen.

Im Vortrag gehe ich auf diese drei “AI-Readiness”-Stufen ein und zeige, wie man die nächsten Schritte (MLOps Roadmap) ableitet

Larysa Visengeriyeva arbeitet als Consultant bei INNOQ. Aktuell beschäftigt sie sich mit Software-Engineering und Machine Learning - MLOps. Sie ist die Autorin von ml-ops.org. Larysa hat im Bereich des Augmented Data Cleaning promoviert.
Larysa Visengeriyeva
Larysa Visengeriyeva
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:30
Mi 5.3
Deepfakes am Limit - Fake-Videocalls mit Künstlicher Intelligenz
Deepfakes am Limit - Fake-Videocalls mit Künstlicher Intelligenz

Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem Vortrag vorgestellt.

Zielpublikum: Architekt:innen, Entwickler:innen, Projektleiter:innen, Manager, Entscheidende
Voraussetzungen: Keine 
Schwierigkeitsgrad: Basic

Extended Abstract
Stellen Sie sich das mal vor: Jemand nimmt mit einem digitalen Ebenbild Ihrer Person an einem Live-Videoanruf teil. Heutige Echtzeit-Deepfake-Technologie erlaubt es, mit bloßem Auge kaum noch unterscheidbare "Doppelgänger" einer Person zu erzeugen. Das TNG Innovation Hacking Team forscht seit dem Jahr 2019 intensiv an der künstlichen Intelligenz rund um Echtzeit-Deepfakes und entwickelt diese ständig weiter. Das Endergebnis und die einzelnen Schritte hin zum Fotorealismus werden in diesem Vortrag vorgestellt.

Seit ihrer Entstehung im Jahr 2017 haben sich Deepfakes von einer KI-Spielerei zu einem mächtigen Werkzeug weiterentwickelt. Auch Medienformate wie Leschs Kosmos, Galileo und anderen Sendungen arbeiten inzwischen mit TNG-Deepfakes.

In dem Vortrag zeigen wir die verschiedenen Evolutionsschritte der Deepfake-Technologie, beginnend mit dem "Ur"-Deepfake und endend mit Echtzeit-Deepfakes des gesamten Kopfes. Mehrere Live-Demos bringen dem Publikum einzelne Bestandteile der Software näher. Dabei gehen wir insbesondere auf verschiedene neue Technologien zur Verbesserung der Deepfake-Erzeugung wie zum Beispiel Tensorflow 2 und MediaPipe und die Unterschiede zu unseren früheren Umsetzungen ein.

Martin Förtsch studied computer sciences and works as an IT consultant for TNG Technology Consulting GmbH. In addition to the focus on agile software development in Java, he is familiar with the development of innovative showcases. As JavaOne Rockstar, Intel Software Innovator and Black Belt, he develops showcases with a focus on artificial intelligence, IoT, AR and VR.

Thomas Endres arbeitet in der Rolle eines Partners als IT-Consultant für TNG Technology Consulting in München. Neben seiner "normalen" Tätigkeit für die Firma und die Kundenprojekte entwickelt er zusammen mit dem TNG-Hardware-Hacking-Team verschiedene Prototypen - darunter ein Telepräsenz-Robotik-System, mit dem man die Realität aus den Augen eines Roboters erleben kann, oder aber eine Augmented-Reality-KI, die die Welt aus der Perspektive eines Künstlers zeigt. Er arbeitet an Anwendungen im Bereich der AR/VR, KI sowie der Gestensteuerung, um damit beispielsweise Quadrokopter autonom fliegen zu lassen oder berührungslos zu steuern. Darüber hinaus ist er in verschiedenen Open-Source-Projekten in Java, C# und allen Spielarten von JavaScript involviert.
Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting GmbH und beschäftigt sich dort mit der Entwicklung innovativer Showcases und Prototypen in Soft- und Hardware. So arbeitete er u.a. an Projekten, wie zum Beispiel Deepfakes, Mixed Reality KI-Kunstwerken und autonom fliegenden Minidrohnen. Jonas studierte Informatik: Games Engineering an der TU München.
Martin Förtsch, Thomas Endres, Jonas Mayer
Martin Förtsch, Thomas Endres, Jonas Mayer
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:30
Mi 7.3
Die Zukunft beginnt jetzt – Machine Learning für AIoT-Systeme in MLOps-Umgebungen
Die Zukunft beginnt jetzt – Machine Learning für AIoT-Systeme in MLOps-Umgebungen

Machine Learning (ML) auf leistungsfähigen Systemen gehört längst zum Alltag. Inzwischen beginnt ML, sich auch auf eingebetteten Systemen zu verbreiten, da die Inferenz auf Edge-Geräten eine signifikante Reduktion von Datenströmen erlaubt. Im Gegensatz zu programmierfokussierten Frameworks wie TensorFlow bieten MLOps-Werkzeuge einen durchgängigen Prozess für Machine Learning, der keine Programmierung erfordert und auch Datenanalysten unterstützt. Der Vortrag illustriert dies mittels eines konkreten Beispiels anhand der MLOps-Umgebung Edge Impulse.

Zielpublikum:
Datenanalysten, Architekt:innen, Entwickler, Entscheidungsträger
Voraussetzungen: Grundkenntnisse AI/ML, Grundkenntnisse in eingebetteten Systemen
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract

Machine Learning (ML) spielt in der Software-Entwicklung mittlerweile eine bedeutende Rolle, speziell bei verteilten und leistungsfähigen Systemen. Zunehmend erfasst diese Entwicklung auch eingebettete Systeme. Durch Inferenz auf Edge-Geräten lassen sich Datenströme reduzieren und Energieverbrauch einsparen. Mächtige Frameworks wie TensorFlow bzw. Tensorflow Lite spielen hierbei eine zentrale Rolle. Sie benötigen allerdings aufwendige Programmierung und unterstützen die Aufgabenteilung zwischen Entwicklern und Datenanalysten nur unzureichend.

MLOps-Werkzeuge adressieren diese Herausforderung, indem sie einen durchgängigen Prozess für Machine Learning zur Verfügung stellen, beginnend mit der Modellerstellung, über manuellen oder programmatischen Datenimport sowie Feature Extraction bis hin zum Training und der Installation kompakter Inferenzlaufzeitsysteme auf Endgeräten.

Der Vortrag illustriert anhand eines praktischen Beispiels, wie sich ML-Modelle mit Hilfe des MLOps-Werkzeugs Edge Impulse trainieren, erstellen und auf AIoT-Geräten installieren lassen, welche Vorteile sich daraus ergeben, und welche Beschränkungen (momentan) zu beachten sind.

Prof. Dr. Michael Stal forscht bei Siemens Technology an Themen rund um Software-Architektur und ist seit drei Jahrzehnten international als Experte auf diesem Gebiet renommiert.
Michael Stal
Michael Stal
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:30
Mi 8.3
Metamorphes Testen
Metamorphes Testen

Metamorphes Testen ist ein relativ neues Testverfahren, das sich besonders gut eignet, wenn kein ausreichendes Testorakel verfügbar ist. Metamorphes Testen betrachtet mehrere Ausführungen des Testobjekts und prüft, ob die Eingaben und Ausgaben bei diesen Ausführungen zueinander konsistent sind. Der Beitrag stellt das Verfahren vor, gibt einen Überblick über die bisherigen Erfahrungen bei klassischen und bei KI-basierten Systemen und ordnet es in die Testmethodik ein.

Zielpublikum: Softwaretester:innen
Voraussetzungen: Certified Tester Foundation Level
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract

Es kann schwierig sein festzustellen, ob die Ausgaben eines Testfalls korrekt sind. Ein Beispiel ist die Suche nach einem gängigen Text in einem großen Datenbestand. Eine Abhilfe kann sein, die Textsuche durch zusätzliche Filterkriterien einzuschränken und zu prüfen, ob das Suchergebnis eine Teilmenge des Ergebnisses der ursprünglichen Suche ist. Metamorphes Testen ist ein Testverfahren, das diesen Ansatz systematisiert. Es betrachtet mehrere Ausführungen des Testobjekts und prüft, ob die Eingaben und Ausgaben bei diesen Ausführungen zueinander konsistent sind. Die Konsistenzbedingungen werden meist aus der Spezifikation gewonnen.

Erfüllt das Testobjekt bei einer Gruppe von Testfällen eine Konsistenzbedingung nicht wie erwartet, so wurde eine Fehlerwirkung gefunden. Der Beitrag stellt das Verfahren vor, gibt einen Überblick über die bisherigen Erfahrungen bei klassischen und bei KI-basierten Systemen und ordnet es in die Testmethodik ein.

Matthias Hamburg war bis zu seiner Pensionierung im September 2019 Managing Consultant bei der Sogeti Deutschland GmbH. Seine fachlichen Schwerpunkte sind bei der Testanalyse, Testmanagement und Testprozessverbesserung. Im German Testing Board (GTB) und seinem Dachverband ISTQB engagiert er sich weiterhin ehrenamtlich. Unter anderem gibt er das Standardglossar der Testbegriffe in Englisch und in Deutsch und den Advanced Test Analyst-Lehrplan heraus.
Matthias Hamburg
Matthias Hamburg
flag VORTRAG MERKEN

Vortrag Teilen

17:00 - 18:00
Mi 7.4
Raimond – der AI Coach
Raimond – der AI Coach

Schon lange kennen wir AIs, denen wir Fragen stellen können, auf die wir mehr oder weniger passende Antworten erhalten. Diese Session dreht den Spieß um und bringt Raimond auf die Bühne, der uns Menschen die Fragen stellt, damit wir selbst unsere eigenen Antworten finden.

Raimond ist ein AI Coach, der rund um die Uhr verfügbar ist und Individuen hilft, sich weiter zu entwickeln und ihre Ziele zu erreichen.

In dieser Session präsentiere ich die Konzepte, den Entwicklungsweg und die eingesetzten AI-Komponenten des Systems.

Zielpublikum: Entwickler:innen, Manager, Entscheider, Führungskräfte
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger

Extended Abstract

Coaching für Teams und Führungskräfte ist mittlerweile anerkannt und akzeptiert. Die Herausforderung ist, den richtigen Coach zu finden. Entweder die Coaches sind richtig gut und ausgebucht, dann fehlt ihnen die Zeit. Oder die Coaches sind inkompetent und ineffektiv, dann verbrennen sie die Akzeptanz.

Für Führungskräfte und Team-Mitglieder, die ihre Ziele erreichen und sich weiterentwickeln wollen, ist Raimond ein AI-Coaching-System, das rund um die Uhr bei Bedarf verfügbar ist. Raimond ist ein distanzierter und lösungsfokussierter Coach, mit dem beliebige Themen adressiert werden können.

In dieser Session präsentiere ich den Entwicklungsweg des Systems, die darunterliegenden Konzepte und die eingesetzten AI-Komponenten. Ich zeige auf, welche Ideen und Frameworks funktionieren und welche Schwierigkeiten bei der Umsetzung aufgetreten sind. Anhand konkret geführter Coaching-Dialoge zeige ich die Fähigkeiten von Raimond, den Klienten zu unterstützen und eigene Lösungen finden zu lassen. Die Session schließt mit deutlichen Warnhinweisen bzgl. ethischer Bedenken und Gefahren.

Marc Bless hat 1984 angefangen, Software zu entwickeln. In den 90ern hat er Informatik mit Schwerpunkt Künstliche Intelligenz studiert und beschäftigt sich seit 1999 mit Agilen Methoden. Marc coacht Entscheider und Umsetzer bei der Einführung agiler Frameworks und moderner Entwicklungspraktiken. Er ist ausgebildeter Solution-Focused Coach sowie Certified Enterprise Coach (CEC) und Certified Team Coach (CTC) der Scrum Alliance.
Marc Bless
Marc Bless
flag VORTRAG MERKEN

Vortrag Teilen

, (Donnerstag, 03.Februar 2022)
11:00 - 11:45
Do 5.2
The perceived loss of control: How UX can help to understand AI
The perceived loss of control: How UX can help to understand AI

With AI entering more and more aspects of our lives, scepticism and worries towards this technology are increasing too. Empathy towards basic human needs and a great User Experience can help AI being more widely accepted and used.
But how to get there?
After covering basic UX principles, the talk will deep dive into the fields of trust, transparency and explainable AI.
The goal is to outline a path to a fruitful collaboration and mutual understanding between humans and AI.

Target Audience: Software Engineers, Data Scientists, Product Owners, Researchers, Designers
Prerequisites: None
Level: Basic

Jan is an experienced Freelance UX Designer and loves to explore what design and technology can do for humanity. Artificial intelligence, Algorithms and Ethics are a big part of that exploration and have been fascinating him for a couple of years. Across his professional experience, he collaborated with large companies, consultancies and a startup specialised in the AI/ML sector. In his free time, he spends time on bicycles or enjoys books. In both cases, he owns too many of them :)
Jan Korsanke
Jan Korsanke
flag VORTRAG MERKEN

Vortrag Teilen

11:00 - 11:45
Do 9.2
Revolutionize DevOps with ML capabilities. Introduction to Amazon CodeGuru and DevOps Guru
Revolutionize DevOps with ML capabilities. Introduction to Amazon CodeGuru and DevOps Guru

I will introduce two AWS services: CodeGuru and DevOps Guru.
CodeGuru Reviewer uses ML and automated reasoning to automatically identify critical issues, security vulnerabilities, and hard-to-find bugs during application development.
DevOps Guru analyzes data like application metrics, logs, events, and traces to establish baseline operational behavior and then uses ML to detect anomalies. It does this by having the ability to correlate and group metrics together to understand the relationships between those metrics, so it knows when to alert.

Target Audience: Developers, Architects, Decision Makers
Prerequisites: Basic understanding of the code quality metrics and observability
Level: Basic

Extended Abstract
In this talk I will introduce two AWS services: CodeGuru and DevOps Guru.
Code reviews are one example and are important to improve software quality, software security, and increase knowledge transfer in the teams working with critical code bases. Amazon CodeGuru Reviewer uses ML and automated reasoning to automatically identify critical issues, security vulnerabilities, and hard-to-find bugs during application development. CodeGuru Reviewer also provides recommendations to developers on how to fix issues to improve code quality and dramatically reduce the time it takes to fix bugs before they reach customer-facing applications and result in a bad experience
Amazon DevOps Guru analyzes data like application metrics, logs, events, and traces to establish baseline operational behavior and then uses ML to detect anomalies. The service uses pre-trained ML models that are able to identify spikes in application requests. It does this by having the ability to correlate and group metrics together to understand the relationships between those metrics, so it knows when to alert and when not to.

Vadym Kazulkin is Head of Development at ip.labs GmbH, a 100% subsidiary of the FUJIFLM Group, based in Bonn. ip.labs is the world's leading white label e-commerce software imaging company. Vadym has been involved with the Java ecosystem for over 20 years. His current focus and interests include the design and implementation of highly scalable and available solutions, Serverless and AWS Cloud. Vadym is the co-organizer of the Java User Group Bonn and Serverless Bonn Meetup, and a frequent speaker at various Meetups and conferences.
Vadym Kazulkin
Vadym Kazulkin
flag VORTRAG MERKEN

Vortrag Teilen

15:45 - 16:30
KeyDo 2
KEYNOTE: Who Will Lead in the Algorithmic Age?
KEYNOTE: Who Will Lead in the Algorithmic Age?

For most people, AI means robots taking human jobs or China’s surveillance of its citizens. Despite the hype around it and its image of progress, the real workings of artificial intelligence are not widely understood. Companies are already implementing a web of algorithms to optimize manual business processes. Most of the time, the larger IT organization is not included on the journey. This talk is an overview of how IT leaders can center the development of human teams in a world that is increasingly optimized by algorithms.

Nakeema Stefflbauer
Nakeema Stefflbauer
Track: Keynote
Vortrag: KeyDo 2
flag VORTRAG MERKEN

Vortrag Teilen

17:00 - 18:00
Do 5.4
Security Engineering for Machine Learning
Security Engineering for Machine Learning

Machine Learning appears to have made impressive progress on many tasks from image classification to autonomous vehicle control and more. ML has become so popular that its application, though often poorly understood and partially motivated by hype, is exploding. This is not necessarily a good thing. Systematic risk is invoked by adopting ML in a haphazard fashion. Understanding and categorizing security engineering risks introduced by ML at design level is critical. This talk focuses on results of an architectural risk analysis of ML systems.

Target Audience: Architects, Technical Leads, and Developers and Security Engineers of ML Systems
Prerequisites: Risk Managers, Software Security Professionals, ML Practitioners, everyone who is confronted by ML
Level: Advanced

Extended Abstract
Machine Learning appears to have made impressive progress on many tasks including image classification, machine translation, autonomous vehicle control, playing complex games including chess, Go, and Atari video games, and more. This has led to much breathless popular press coverage of Artificial Intelligence, and has elevated deep learning to an almost magical status in the eyes of the public. ML, especially of the deep learning sort, is not magic, however. ML has become so popular that its application, though often poorly understood and partially motivated by hype, is exploding. In my view, this is not necessarily a good thing. I am concerned with the systematic risk invoked by adopting ML in a haphazard fashion. Our research at the Berryville Institute of Machine Learning (BIIML) is focused on understanding and categorizing security engineering risks introduced by ML at the design level. Though the idea of addressing security risk in ML is not a new one, most previous work has focused on either particular attacks against running ML systems (a kind of dynamic analysis) or on operational security issues surrounding ML. This talk focuses on the results of an architectural risk analysis (sometimes called a threat model) of ML systems in general. A list of the top five (of 78 known) ML security risks will be presented.

Gary McGraw is co-founder of the Berryville Institute of Machine Learning. He is a globally recognized authority on software security and the author of eight best selling books on this topic. His titles include Software Security, Exploiting Software, Building Secure Software, Java Security, Exploiting Online Games, and 6 other books; and he is editor of the Addison-Wesley Software Security series. Dr. McGraw has also written over 100 peer-reviewed scientific publications. Gary serves on the Advisory Boards of Irius Risk, Maxmyinterest, Runsafe Security, and Secure Code Warrior. He has also served as a Board member of Cigital and Codiscope (acquired by Synopsys) and as Advisor to CodeDX (acquired by Synopsys), Black Duck (acquired by Synopsys), Dasient (acquired by Twitter), Fortify Software (acquired by HP), and Invotas (acquired by FireEye). Gary produced the monthly Silver Bullet Security Podcast for IEEE Security & Privacy magazine for thirteen years. His dual PhD is in Cognitive Science and Computer Science from Indiana University where he serves on the Dean’s Advisory Council for the Luddy School of Informatics, Computing, and Engineering.
Gary McGraw
Gary McGraw
flag VORTRAG MERKEN

Vortrag Teilen

, (Freitag, 04.Februar 2022)
09:00 - 16:00
Fr 2
Ausgebucht Workshop Big Data und Machine Learning in der Praxis
Workshop Big Data und Machine Learning in der Praxis

Big Data und Machine Learning sind aktuelle Konzepte und Technologien, die neue Anwendungsmöglichkeiten für IT in Unternehmen schaffen. In diesem eintägigen Workshop lernen Sie, wie Sie schnell und auf einfache Weise Aufgabenstellungen im Bereich Big Data und Machine Learning mit Hilfe der freien, offenen, grafischen Umgebung "KNIME" selbst bearbeiten können. Sie bearbeiten hierbei in einem Scrum-Team eigenständig jeweils Fallstudien aus dem Bereich Big Data und Machine Learning zur Verarbeitung von OpenData aus dem Bereich Car-Sharing (Flinkster).

Benötigt wird die Software KNIME.

Maximale Teilnehmerzahl: 20

Zielpublikum: Entwickler:innen, (Unternehmens-)Architekt:innen, IT-Manager/IT-affine Mitarbeiter:innen
Voraussetzungen: Grundkenntnisse Programmierung, Big Data, Machine Learning
Schwierigkeitsgrad: Anfänger

Extended Abstract
Big Data und Machine Learning sind aktuelle Konzepte und Technologien, die neue Anwendungsmöglichkeiten für IT in Unternehmen schaffen. Eine Einarbeitung ist normalerweise mit erheblichem Aufwand und verbunden. In diesem eintägigen Workshop lernen Sie, wie Sie schnell und auf einfache Weise Aufgabenstellungen im Bereich Big Data und Machine Learning mit Hilfe der freien, offenen, grafischen Umgebung "KNIME" selbst bearbeiten können. Sie bearbeiten hierbei in einem Scrum-Team eigenständig jeweils Fallstudien aus dem Bereich Big Data und Machine Learning zur Verarbeitung von OpenData aus dem Bereich Car-Sharing (Flinkster).

  1. Analysieren Sie die Fahrzeugdaten (Big Data)
  2. Analysieren Sie die Stationen, Buchungen und Buchungsdaten (Big Data)
  3. Trainieren Sie ein ML-System mit Fahrzeugdaten und lassen Sie es Fahrzeugdaten voraussagen (Machine Learning)
Nach dem Studium der Betriebswirtschaftslehre mit den Schwerpunkten Unternehmensführung und Informatik in Köln hat Michael Kunz fast 25 Jahre als Projektleiter, (Unternehmens-)Architekt, (Transformations-)Berater und Manager in der IT-Industrie gearbeitet. Dabei war er sowohl für Anwenderunternehmen als auch für Beratungs- und Produkthäuser tätig. In den letzten 10 Jahren hatte er die Verantwortung für die Sanierung einer ganzen Reihe von Großprojekten. In den letzten Jahren hat er Unternehmen in verschiedenen Branchen bei ihrer Digitalen Transformation auf Fach- und IT-Seite unterstützt - u. a. beim Aufbau Digitaler Geschäftsmodelle.
Michael Kunz
Michael Kunz
flag VORTRAG MERKEN

Vortrag Teilen

Zurück