Ohne große Datenmengen funktionieren Artificial Intelligence oder Machine Learning nicht. AI/ML-Modelle zu trainieren heißt, mit verschiedenen Methoden und Daten zu experimentieren und diese miteinander und gegeneinander zu verproben. Die Daten unterliegen oft unterschiedlichen Geheimhaltungsstufen oder können erst nach langwierigen Abstimmungen für den Lernprozess verwendet werden. Die Notwendigkeit der Datennutzung muss zumeist detailliert begründet werden. Mit Daten experimentieren zu können, die Nutzung aber vorher detailliert begründen zu müssen, steht im Widerspruch zueinander. Wie können wir diesen auflösen? In diesem Vortrag zeigen wir die Möglichkeiten und Grenzen des maschinellen Lernens in einem Protected Environment. Wir beschreiben anhand des Praxisbeispiels "Zuordnung von Mails zu Abteilungen", wie wir mit sensiblen Daten experimentieren – ohne die Daten selber einsehen zu können. Außerdem zeigen wir im Detail den Aufbau des protected Environment, erklären wie die Experimente darin stattfinden und was wir daraus gelernt haben.