RÜCKBLICK AUF DAS PROGRAMM 2021

Thema: Artificial Intelligence

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Dienstag
    09.02.
  • Mittwoch
    10.02.
  • Donnerstag
    11.02.
, (Dienstag, 09.Februar 2021)
14:00 - 14:45
Di 6.2
Maschinen ohne Gewissen: wenn KI auf Ethik trifft
Maschinen ohne Gewissen: wenn KI auf Ethik trifft

Maschinen haben kein Gewissen. Oder etwa doch? Immer wieder hört man von Fällen, in denen eine KI scheinbar „unethische“ Entscheidungen fällt oder für politische Zwecke missbraucht wird. Angefangen bei genderspezifischer Benachteiligung, über die Generierung und gezielte Verbreitung von Fake-News und Deep-Fakes bis hin zu offenkundigem Rassismus durch eine KI existieren unzählige Beispiele. Was aber genau steckt dahinter und wie können wir uns dagegen verwehren? Die Session zeigt einige populäre Beispiele auf und beleuchtet deren Hintergründe.

Zielpublikum: Architekt:innen, Entwickler:innen, Projektleiter:innen, Manager:innen, Entscheider:innen
Voraussetzungen: Keine
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Eine KI ist nur so gut wie ihr Modell und die Daten, auf denen dieses basiert. Dies führt immer wieder zu überraschenden, ja sogar erschreckenden Resultaten bei deren Einsatz. Dabei bildet die KI nicht selten lediglich unsere Realität ab und spiegelt somit die Grundwerte unserer Gesellschaft wider, wie populäre Beispiele zeigen. Die Session zeigt einige Beispiele, in denen eindeutig einzelne Gruppen der Bevölkerung benachteiligt wurden, und beleuchtet diese im Detail. Es wird aufgezeigt, wie wir alle durch Fake-News und Deep-Fakes manipuliert werden und welche Initiativen zum Schutz und zur Regulierung angedacht sind.

Lars Röwekamp, Gründer des IT-Beratungs- und Entwicklungsunternehmens OPEN KNOWLEDGE GmbH, beschäftigt sich im Rahmen seiner Tätigkeit als „CIO New Technologies“ mit der eingehenden Analyse und Bewertung neuer Software- und Technologietrends. Ein besonderer Schwerpunkt seiner Arbeit liegt derzeit in den Bereichen Enterprise- und Cloud-Computing, wobei neben Design- und Architekturfragen insbesondere die Real-Life-Aspekte im Fokus seiner Betrachtung stehen.
Lars Röwekamp
Lars Röwekamp
Vortrag: Di 6.2
flag VORTRAG MERKEN

Vortrag Teilen

14:00 - 14:45
Di 8.2
Back to the Data - Now That We (Machine) Learned From Test Results, What Else Did We Gain?
Back to the Data - Now That We (Machine) Learned From Test Results, What Else Did We Gain?

80% of machine learning is said to be data wrangling. Is all this wasted effort? Hardly - often the journey really is its own reward.

In this talk, we'll briefly describe a machine learning project that predicts the outcome of test cases in a large-scale software development cycle. We'll then show what we gained from collecting the necessary data and how these insights can have lasting impact on the day-to-day work of developers, testers and architects. This includes a quick answer to the well-known question: Whose defect is it anyway?

Target Audience
: Developers, Testers, Architects
Prerequisites: Basic knowledge of software development and testing and an interest in data analytics
Level: Basic

Extended Abstract
:
Data science folk wisdom holds that at least 80% of machine learning consists of data wrangling, i.e. finding, integrating, annotating, and cleaning the necessary data.

While sometimes viewed as less "glorious" than the deployment of powerful models, this journey has its own rewards as well.

Benefits may sometimes be somewhat expectable, if still non-trivial, like data cleaning potentially exposing errors in underlying data bases.

In other cases, though, there may be some low-hanging fruit a casual glance might miss even though they are indeed rewarding.

Data integration often reveals opportunities for statistical analyses that are relatively simple, but may still have high impact.

In this talk, we'll start at the destination: the result of a machine learning project where we successfully predicted test results from code changes.

A necessary task was the integration of several data sources from the full software development cycle - from code to testing to release in a large industry project with more than 500 developers.
Naturally, this required all typical steps in the data science cycle: building up domain knowledge and problem understanding, both semantic and technical data integration, data base architecture and administration, machine learning feature design, model training and evaluation, and communicating results to stakeholders.

These steps yielded several benefits, on which we will focus in our talk.

Among others these include data quality insights (e.g. about actual "back to the future" timestamps), and new analyses which were made possible by a unified view of the data (e.g. survival analysis of defects).

Last but not least, we demonstrate a simple answer to a well-known question, especially in larger software development contexts: Whose defect is it anyway - how can we avoid assigning defects to teams that have nothing to do with them?

Thanks to the integrated information sources from systems concerned with version control, test result logging, and defect management, we are able to support the claims made in this talk with statistics taken from 6 years of real-world data.

Gregor Endler holds a doctor's degree in Computer Science for his thesis on completeness estimation of timestamped data. His work at codemanufaktur GmbH deals with Machine Learning and Data Analysis.
Marco Achtziger is Test Architect working for Siemens Healthcare GmbH in Forchheim. He has several qualifications from iSTQB and iSQI and is a certified Software Architect by Siemens AG.
Gregor Endler, Marco Achtziger
Gregor Endler, Marco Achtziger
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 17:15
Di 8.3
Kann uns AI helfen, besser zu testen?
Kann uns AI helfen, besser zu testen?

Machine Learning hat uns privat längst erreicht: Netflix schlägt mir Filme vor, die mir oft sogar gefallen. Warum gibt es keine Software, die mir fundiert vorschlägt, was ich testen soll?

Es gibt Forschungsansätze, die das versprechen: Defect Prediction nutzt Machine Learning auf historischen Fehlerdaten, um vorherzusagen, wo am meisten Fehler sein sollen. Aber wie gut funktioniert das in der Praxis?

Wir haben solche Ansätze selbst implementiert und eingesetzt. In diesem Vortrag stelle ich die Ergebnisse aus Forschung und Praxis vor.

Zielpublikum: Entwickler:innen, Testende, Verantwortliche für Entwicklung und Test
Voraussetzungen: Interesse an Software-Test
Schwierigkeitsgrad: Fortgeschritten

Dr. Elmar Juergens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten. Er ist Mitgründer der CQSE GmbH und begleitet seit zehn Jahren Teams bei der Verbesserung ihrer Qualitätssicherungs- und Testprozesse. Elmar spricht regelmäßig auf Forschungs- und Industriekonferenzen und wurde für seine Vorträge mehrfach ausgezeichnet. Elmar wurde 2015 zum Junior Fellow der Gesellschaft für Informatik ernannt.
Elmar Juergens
Elmar Juergens
flag VORTRAG MERKEN

Vortrag Teilen

16:15 - 17:15
Di 9.3
DevOps für Maschinelles Lernen mit Kubeflow & Co
DevOps für Maschinelles Lernen mit Kubeflow & Co

Im Vergleich zur klassischen Software-Entwicklung, in der DevOps-Tools und Prozesse seit vielen Jahren gang und gäbe sind, stehen wir bei Machine Learning-Projekten noch recht am Anfang.

Dennoch gibt es immer mehr Tools, wie beispielsweise Kubeflow, DevOps für Azure ML Services oder Databricks etc., die sich dieser Problematik annehmen.

In dieser Session zeigt Sascha Dittmann, wie diese Tools KI-Projekte unterstützen können und wie sich diese in die tägliche Arbeit integrieren lassen.

Zielpublikum: Architekt:innen, Entwickler:innen, Data Scientists
Voraussetzungen: Grundlagen in ML sind hilfreich, aber nicht unbedingt nötig
Schwierigkeitsgrad: Fortgeschritten

Extended Abstract:
Im Vergleich zur klassischen Software-Entwicklung, in der DevOps-Tools und Prozesse seit vielen Jahren gang und gäbe sind, stehen wir bei Machine Learning-Projekten noch recht am Anfang.

Dennoch gibt es immer mehr Tools, wie beispielsweise Kubeflow, DevOps für Azure ML Services oder Databricks etc., die sich dieser Problematik annehmen.

In dieser Session zeigt Sascha Dittmann, wie diese Tools KI-Projekte unterstützen können und wie sich diese in die tägliche Arbeit integrieren lassen.

Dabei werden verschiedene Themenbereiche abgedeckt, wie z.B. der Aufbau einer Pipeline für kontinuierliches Modelltraining, die Automatisierung der Validierung der Modelle, die Erstellung einer Service-Infrastruktur, die Implementierung von Monitoring und mehr.

Sascha Dittmann ist Cloud Solution Architect bei der Microsoft Deutschland GmbH und unterstützt hierbei Kund:innen und Partner beim Implementierungsprozess erfolgreicher Cloud-Lösungen. Seine Schwerpunkte liegen in der Software-Entwicklung für die Microsoft Azure Plattform, sowie im Bereich SQL Server Business Intelligence, Big Data und Machine Learning.
Sascha Dittmann
Sascha Dittmann
flag VORTRAG MERKEN

Vortrag Teilen

, (Mittwoch, 10.Februar 2021)
09:00 - 10:45
Mi 5.1
Software 2.0 - Building Production-Grade AI Enabled Products
Software 2.0 - Building Production-Grade AI Enabled Products

AI is maybe the most powerful tool our generation has available. Andrew NG called it "the new electricity". But what does it take to build AI enabled products? What are the key elements to achieve production grade AI? How does it impact your development process? How can quality be achieved? These are the questions this talk tries to answer. You will get an idea why the industry is talking about nothing less than a paradigm shift when it comes to developing AI based products.

Target Audience: Everyone interested in the shift from classical software engineering to data driven AI applications
Prerequisites: Interested in AI, how it works and its impact on engineering departments
Level: Advanced

Extended Abstract:
AI is maybe the most powerful tool our generation has available. Andrew NG called it "the new electricity". Most likely you used an AI based product within the last 3 hours, maybe without even noticing it. But what does it take to build AI enabled products? What are the key elements to achieve production grade AI? How does it impact your development process? How can quality be achieved? These are the questions this talk tries to answer. In addition we will look into the different stages of AI development and the tools which can help to make this process more efficient. You will get an idea why the industry is talking about nothing less than a paradigm shift when it comes to developing AI based products.

Daniel Rödler is a Product Manager at understand.ai with the mission to automate annotations for autonomous vehicles and responsible for the overall product strategy. Before joining understand.ai Daniel worked for LogMeIn, a company focusing on online collaboration. There he was responsible for a part of GoToMeeting, LogMeIns biggest product with more than 2 Million users per month including an AI based voice identification mechanism to achieve much more useful meeting transcripts.
DevOps: State of the Union
DevOps: State of the Union

Whether evolution or revolution, or yet old wine in new skins, for more than 10 years, DevOps is changing how we develop and deliver software. This session looks back on the roots of DevOps, its movement until today, and current as well as possible future directions. This interactive session aims to offer a set of fruitful starting points for reflection and discussions.

Target Audience: Anyone interested in developing and delivering software
Prerequisites: Knowledge in DevOps and agile software development
Level: Advanced

Michael Hüttermann is a freelancing DevOps consultant. Besides that, he is a researcher studying DevOps. 
Daniel Rödler
Michael Hüttermann
Daniel Rödler

Vortrag Teilen

Michael Hüttermann
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:30
Mi 6.3
Brain Computer Interfaces Demystified - Können Gedanken die Kontrolle übernehmen?
Brain Computer Interfaces Demystified - Können Gedanken die Kontrolle übernehmen?

Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich auf Basis eines OpenBCI mit dem Thema auseinandergesetzt und eine solche Software entwickelt.

Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -Typen. Das Team hat Techniken aus dem Bereich der künstlichen Intelligenz und genetischen Algorithmen eingesetzt, um die Auswertung von Gehirnströmen aus der Elektroenzephalografie (EEG) zu unterstützen.

Zielpublikum: Entwickler:innen, Projektleiter:innen, Entscheider:innen, Management
Voraussetzungen: IT-Affinität, Grundlagen Künstliche Intelligenz
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Was wäre, wenn ein Brain Computer Interface (BCI) Ihre Gedanken in Befehle zur Steuerung von Software oder Hardware übersetzen könnte? Das TNG Innovation Hacking Team hat sich mit verschiedenen BCI-Geräten auseinandergesetzt und eine solche Software entwickelt. Ein interessantes Gerät in diesem Umfeld ist das OpenBCI, welches Programmierschnittstellen für z.B. C++, Python, Java und R bereitstellt.

Der Vortrag gibt einen Überblick über verschiedene BCI-Hersteller und -Typen, sowie deren unterschiedliche Ansätze zur Erfassung von Strömen. Das Team hat sich dabei der Herausforderung gestellt, Techniken aus der Künstlichen Intelligenz einzusetzen, welche die Auswertung der Gehirnströme aus der Elektroenzephalografie (EEG) unterstützen. Die Sprecher haben verschiedene Experimente und prototypische Showcases unter Anwendung eines OpenBCI implementiert und teilen ihre Erfahrung mit dem Publikum.

In diesem spannenden und unterhaltsamen Vortrag erhalten Sie eine Einführung in die Welt der Gedankensteuerung. Dabei gehen die Sprecher insbesondere auf die Techniken im Bereich des Deep Learning ein, die bei dieser Anwendung zum Einsatz kommen. Die Einführung von z.B. Evolutions-Strategien in Form genetischer Algorithmen zur Optimierung künstlicher, neuronaler Netze runden den Vortrag ab.

Martin Förtsch ist ein Informatiker und IT-Berater der TNG Technology Consulting GmbH. Er hält Vorträge u.a. zu Themen wie Künstliche Intelligenz und Internet der Dinge und ist ein JavaOne Rockstar.
Thomas Endres arbeitet in der Rolle eines Partners als IT-Consultant für TNG Technology Consulting GmbH. Er beschäftigt sich intensiv im Bereich der AI, IoT und AR/VR. Er ist Oracle JavaOne Rockstar, Intel Black Belt und Intel Software Innovator.
Jonas Mayer arbeitet im Innovation Hacking Team der TNG Technology Consulting GmbH und beschäftigt sich dort mit der Entwicklung innovativer Showcases und Prototypen in Soft- und Hardware. So arbeitete er u.a. an Projekten, wie zum Beispiel Deepfakes, Mixed Reality KI-Kunstwerken und autonom fliegenden Minidrohnen. Jonas studierte Informatik: Games Engineering an der TU München.
Martin Förtsch, Thomas Endres, Jonas Mayer
Martin Förtsch, Thomas Endres, Jonas Mayer
Vortrag: Mi 6.3
flag VORTRAG MERKEN

Vortrag Teilen

14:30 - 15:30
Mi 8.3
Validation of Autonomous Systems
Validation of Autonomous Systems

Autonomous and automated systems are increasingly being used in IT such as finance, but also transport, medical surgery and industry automation. Yet, the distrust in their reliability is growing. This presentation introduces the validation of autonomous systems. We evaluate in practical situations such as automatic driving and autonomous robots different validation methods. The conclusion: Classic methods are relevant for coverage in defined situations but must be supplemented with cognitive test methods and scenario-based testing.

Target Audience: Testers, Quality assurance, Architects, Requirements Engineers, Product Owners, Software Engineers
Prerequisites: Testing basic know-how
Level: Advanced

Extended Abstract:
Autonomous and automated systems are increasingly being used in IT such as finance, but also transport, medical surgery and industry automation. Yet, the distrust in their reliability is growing. There are many open questions about the validation of autonomous systems: How to define reliability? How to trace back decision making and judge afterwards about it? How to supervise? Or, how to define liability in the event of failure? The underlying algorithms are difficult to understand and thus intransparent. Traditional validations are complex, expensive and therefore expensive. In addition, no repeatable effective coverage for regression strategies for upgrades and updates is available, thus limiting OTA and continuous deployment.

With artificial intelligence and machine learning, we need to satisfy algorithmic transparency. For instance, what are the rule in an obviously not anymore algorithmically tangible neural network to determine who gets a credit or how an autonomous vehicle might react with several hazards at the same time? Classic traceability and regression testing will certainly not work. Rather, future verification and validation methods and tools will include more intelligence based on big data exploits, business intelligence, and their own learning, to learn and improve about software quality in a dynamic way.

Verification and validation depend on many factors. Every organization implements its own methodology and development environment, based on a combination of several of the tools presented in this presentation. It is however relevant to not only deploy tools, but also build the necessary verification and validation competences. Too often we see solid tool chains, but no tangible test strategy. To mitigate these pure human risks, software must increasingly be capable to automatically detect its own defects and failure points.

Various new intelligent validation methods and tools are evolving which can assist in a smart validation of autonomous systems.

This presentation introduces the validation of autonomous systems. We evaluate in practical situations such as automatic driving and autonomous robots different validation methods. The conclusion: Classic methods are relevant for coverage in defined situations but must be supplemented with cognitive test methods and scenario-based testing.

Christof Ebert is managing director at Vector Consulting Services. He supports clients around the world in product development. Before he had been working for twelve years in global senior management positions. A trusted advisor for companies around the world and a member of several of industry boards, he is a professor at the University of Stuttgart and at Sorbonne in Paris. He authored several books including the most recent “Global Software and IT” published by Wiley and "Requirements Engineering" published by dPunkt and in China by Motor Press. Since many years he is serving on the editorial Board of the prestigious "IEEE Software" journal.
Michael Weyrich is the director of the University of Stuttgart’s Institute for Automation and Software Systems. Before he spent many years at Daimler and Siemens where he had senior management positions in engineering. Ever since he engages in technology transfer and is heading numerous industry projects on automation and validation. He authored several books including the leading reference book on "Industrial Automation" published by Springer. Since many years he serves on VDI in various leadership positions. He is leading the VDI/VDE committee on testing of connected systems and industry 4.0.
University of Stuttgart - Institute of Industrial Automation and Software Engineering
Academic staff

Christof Ebert, Michael Weyrich, Benjamin Lindemann
Christof Ebert, Michael Weyrich, Benjamin Lindemann
flag VORTRAG MERKEN

Vortrag Teilen

, (Donnerstag, 11.Februar 2021)
09:00 - 10:30
Do 5.1
Software Architecture for AI-intensive Systems
Software Architecture for AI-intensive Systems

The problem at hand is partly the application of software engineering best practices to AI, but more so the evolution of software engineering to attend to software-intensive systems that contain AI components. In this lecture, I'll examine both dimensions: emerging AI architectures, neuro-symbolic systems, designing/testing/deploying/refactoring/maintaining systems with AI components; the future of software engineering.

Target Audience:
Software engineers
Prerequisites: Curiosity and a desire to think different
Level: Advanced

Grady Booch is Chief Scientist for Software Engineering at IBM Research where he leads IBM’s research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture. A co-author of the Unified Modeling Language (UML), a founding member of the Agile Alliance, and a founding member of the Hillside Group, Grady has published six books and several hundred technical articles, including an ongoing column for IEEE Software. Grady was also a trustee for the Computer History Museum. He is an IBM Fellow, an ACM and IEEE Fellow, has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer. He is currently developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.
Grady Booch
Grady Booch
flag VORTRAG MERKEN

Vortrag Teilen

18:30 - 20:00
Ndo 3
Geschäftsfelder erschließen durch Machine Learning
Geschäftsfelder erschließen durch Machine Learning

Viele Geschäftsmodelle, wie z.B. die der Internet-Giganten Twitter, Google und Netflix, sind inzwischen nicht mehr ohne die Anwendung von Machine Learning denkbar.

Da wären zum einen Tätigkeiten, die Menschen bisher nur unwirtschaftlich durchführen konnten, und zum anderen die Bereiche, die Menschen bisher gar nicht konnten.

In diesem interaktiven Vortrag lernen Sie einen Prozess kennen, mit dem Sie anhand von verfügbaren Daten potenzielle neue Geschäftsmodelle aufspüren können. Durch kleinere Übungen erschließen sich erste praktische Ideen.

Zielpublikum: Architekt:innen, Business-Analysten, Management, Entscheider:innen, Entwickler:innen
Voraussetzungen: Keine Vorkenntnisse des Machine Learnings notwendig
Schwierigkeitsgrad: Anfänger

Extended Abstract:
Viele Geschäftsmodelle, wie z.B. die der Internet-Giganten Twitter, Google und Netflix, sind inzwischen nicht mehr ohne die Anwendung von Machine Learning (ML) denkbar. Dabei sind es weniger die für Schlagzeilen tauglichen Themen, wie überlegen denkende Roboter, die diesen Firmen den Vorteil bringen. Vielmehr sind es die auf den ersten Blick eher wenig aufregenden Themen, die deshalb gern übersehen werden. In diesem Vortrag zeigen wir, welche Geschäftsmodelle und innovativen Ideen mit ML-Ansätzen möglich werden.

Als Erstes sind da die Bereiche, die Menschen zwar können, ihnen allerdings bisher nicht lohnenswert erschienen, da der menschliche Verwaltungsaufwand bislang hoch ist. Diese können nun durch automatische, aber dennoch intelligente Verarbeitung wirtschaftlich reizvoll werden. Beispiele sind hier automatische Erkennung problematischer Tweets bei Twitter, Routenplanung oder die Auswirkung von Marketing in so ziemlich jedem Unternehmen.

Dann sind da die Dinge, die Menschen bisher gar nicht gut genug konnten. Diese sind seltener, haben aber das Potenzial eines kompletten Paradigmenwechsels. Wenig offensichtlich, aber bahnbrechend: welche Seite wollen die Leute wirklich sehen und welche Werbung passt hier bei Google. Oder ähnlich disruptiv: die Empfehlung von Inhalten bei Netflix oder Spotify anhand von bereits Gehörtem oder Gesehenem.

Und wie lässt sich dieses nun auf Ihre Praxis überführen?

In diesem interaktiven Vortrag lernen Sie einen Prozess kennen, mit dem Sie anhand von verfügbaren Daten potenzielle neue Geschäftsmodelle aufspüren können. Durch kleinere Übungen erschließen sich erste praktische Ideen für Ihre Organisation.

Als Organisationsentwicklerin im Bereich New Work, Selbstorganisation und (IT-)Strategie ist Kim Duggen in ihrem Element, wenn sie mit Menschen arbeitet, die selbst etwas tun wollen, anstatt mit Theorie oder Musterlösungen vorlieb zu nehmen. Situationsgerecht wechselt sie in die Rolle des Beraters, Coaches oder Trainers – je nachdem, welche individuellen Herausforderungen mit dem Kunden passgenaue Lösungsstrategien erfordern. Erfahrungen aus Jobstationen im Prozessmanagement, als Trainerin im Bereich EAM, RE, Soft Skills, New Work und als gewählter Vorstand einer selbstorganisierten Genossenschaft sowie Weiterbildungen im Bereich Coaching und Konfliktmanagement und das Aufwachsen in zwei Kulturen haben dazu ein breites Fundament gelegt.
Oliver Zeigermann ist Entwickler, Architekt, Berater und Coach. Oliver hat über Jahrzehnte in vielen unterschiedlichen Sprachen und mit vielen Technologien Software entwickelt. In den letzten Jahren ist er wieder tiefer in den Bereich Machine Learning eingestiegen. Er knüpft damit an sein Studium der Künstlichen Intelligenz in den 90er-Jahren an. Er ist Autor des Manning Video-Kurses "Deep Learning Crash Course" und Co-Autor des Buchs "Machine Learning – kurz & gut" das bei O’Reilly erschienen ist.
Kim Nena Duggen, Oliver Zeigermann
Kim Nena Duggen, Oliver Zeigermann
Vortrag: Ndo 3
flag VORTRAG MERKEN

Vortrag Teilen

Zurück