› Hier finden Sie alle Details zum Fachforum Big Data am Dienstag, 31.01.2017
Theoretische Diskussionen über Architekturansätze und neue Technologien für Big Data haben ihren Zenit längst überschritten. Spannender hingegen ist die reale Umsetzung durch innovative Unternehmen, die alleine, mithilfe von Dienstleistern oder Soft - wareherstellern digitale Lösungen aufgebaut und erprobt haben. Ziel des Tracks ist, Informationen aus erster Hand zu bekommen über:
Hier geht's zur kostenfreien Anmeldung
10:45-11:30: Big Data – vom Datensumpf zum „Intelligent Datalake“
Sören Eickhoff, Informatica, Sales Consultant
Um Business-Mehrwerte aus einer Big Data Umgebung zu generieren ist es für Daten Analysten hilfreich, über eine grafische Oberfläche nach spezifischen Daten innerhalb des Datalakes zu suchen, nachzuvollziehen woher diese Daten kommen und in welchem Business-Kontext diese stehen. Weiter ist es notwendig Daten auf einfache Art und Weise aufzubereiten und dann innerhalb der Hadoop-Umgebung zu verarbeiten. Anhand des Vortrages und einer Live-Demo wird dargestellt, wie diese Themen mit einer Intelligent Datalake Lösung adressiert werden können.
Zusätzlich wird auf weitere Funktionsbereiche einer Big Data Management Lösung eingegangen:
11:30-12:15: Befreien Sie Ihre Daten aus den Silos: Wie Sie einfachere und bessere Einsichten in Ihre Daten gelangen können.
Dr. Stefan Grotehans, MarkLogic, Director Sales Engineering DACH
Führende Unternehmen suchen nach effektiven Methoden, um eine einfachere und bessere Einsicht in ihre Daten zu erhalten. Die Daten liegen in Silos, sind heterogen und oft unstrukturiert, müssen aber integriert werden. Eine neue Datenbank Generation hilft bei dieser herausfordernden Aufgabe und überwindet dabei die Schwäche traditioneller Datenbanken, mit unstrukturierten Daten umzugehen. Semantische Methoden werden zur Datenharmonisierung eingesetzt, so können zeitaufwändige ETL Prozesse vermieden werden.
Als Resultat werden schneller neue Anwendungen entwickelt, die eine bessere Einsicht, eine tiefere Analyse und genauere Fehlerprognosen liefern. Prozessverbesserungen und schnellere Produktentwicklung als Wettbewerbsvorteile werden erzielt.
13:15-14:00: Improving Data Preparation (making it faster and easier) for Business Analytics:
Utilise existing resources by extending user-friendly data prep tools to the widest audience
Dominik Classen, Pentaho, Sales Engineering Team Lead EMEA & APAC
The potential for organisations to analyse their own data is vast, and the benefits they can reap from the insights that data analytics drives are far reaching.
Find out about the opportunities that (big) data presents, the tools and today’s data landscape – and how to bridge the gap between data preparation and analytics, bringing IT and business closer together.
15:15-16:00: Einstieg in die Datenanalyse mit Spark – von Rohdaten zu Insights
Stephan Schiffner: Head of Big Data & Analytics bei F&F
Prof. Dr. Markus Breunig: Lead Consultant Big Data & Analytics bei F&F
Big Data und Advanced Analytics sind in aller Munde. Aber was bedeuten diese Begriffe in der Praxis wirklich? An Hand eines realen Projekts zeigen wir auf, wie man mit Apache Spark auf einfache Weise Millionen von Log Daten aufbereitet und grundlegende Analysen durchführt. Live Codebeispiele verdeutlichen, dass man mit wenigen Zeilen in kürzester Zeit bereits sinnvolle Erkenntnisse gewinnen kann, die einen echten geschäftlichen Mehrwert generieren.
16:00-16:45: Kennen Sie die richtigen Fragen?
Christian Glatschke, Anodot, Sales Director DACH
Wir sind endgültig inmitten Big Data angekommen. Neue Ansätze und neue Strategien werden bereits diskutiert, wie nun der wahre Mehrwert aus den gewonnen Daten gezogen werden kann. Immer mehr wird erkennbar das der ‚normale’ menschliche Geist mit der Komplexität und Geschwindigkeit neuer Informationen überfordert ist. Dies führt dazu dass wir uns häufig nicht bewusst sind welche Schätze in den Datenseen noch verborgen sind. Oder anders ausgedrückt, sind wir noch nicht in der Lage die richtigen Fragen stellen. Nur wer fragt bekommt die Antwort und die besten Analysewerkzeuge liefern nur die Ergebnisse die ich explizit erfrage. Intelligentere Ansätze sind daher notwendig die den Anwender automatisiert Antworten liefern, zu Fragen, die Ihnen so vielleicht noch gar nicht in den Sinn gekommen sind. Erfahren Sie wie Anodot Ihre Fragen für Sie nicht nur automatisch stellt, sondern diese auch in Echtzeit beantwortet.
16:45-17:30: Datenvirtualisierung: Big Data und Small Data im konsistenten Zugriff
Christian Kurze, Denodo, Principal Sales Engineer DACH
Datenvirtualisierung ist ein zentraler Bestandteil eines jeden Big Data Projekts: Mit Real-Time Integration über verteilte traditionelle und Big Data Quellen hinweg, inkl. Hadoop, NoSQL, Cloud und Software-as-a-Service, wird sie innerhalb operativer und analytischer Use Cases eingesetzt.
› Hier finden Sie alle Details zum Fachforum Big Data am Dienstag, 31.01.2017