Hinweis: Die aktuelle OOP-Konferenz finden Sie hier!
SIGS DATACOM Fachinformationen für IT-Professionals

SOFTWARE MEETS BUSINESS:
Die Konferenz für Software-Architekturen
30. Januar - 03. Februar 2017

Sessionsdetails

Vortrag: Big Data Mi
Datum: Mi, 01.02.2017
Uhrzeit: 09:00 - 17:30

Fachforum Big Data

Uhrzeit: 09:00 - 17:30
Vortrag: Fachforum Big Data Mi

 

Hier finden Sie alle Details zum Fachforum Big Data am Dienstag, 31.01.2017

Theoretische Diskussionen über Architekturansätze und neue Technologien für Big Data haben ihren Zenit längst überschritten. Spannender hingegen ist die reale Umsetzung durch innovative Unternehmen, die alleine, mithilfe von Dienstleistern oder Soft - wareherstellern digitale Lösungen aufgebaut und erprobt haben. Ziel des Tracks ist, Informationen aus erster Hand zu bekommen über:

  • die Gründe zur Werkzeugwahl oder Architekturkonzeption
  • die Leistungsfähigkeit neuer Technologien oder Open Source Produkten wie Hadoop im Vergleich zu kommerziellen Lösungen
  • die Voraussetzungen, die notwendig sind zur Umsetzun

 Hier geht's zur kostenfreien Anmeldung

Agenda:

  1. 09:00-09:30: Datenintegration heute – eine Zusammenfassung
    Timm Grosser, BARC, Leiter Beratung

  2. 09:30-10:15: Ab Initio Software: Detaillierte Informationen zu diesem Vortrag ἀnden Sie ab dem 30. Januar unter www.OOP-Konferenz.de.

    10:15-10:45: Pause

  3. 10:45-11:30: Big Data – vom Datensumpf zum „Intelligent Datalake“
    Sören Eickhoff, Informatica, Sales Consultant

  4. 11:30-12:15: Befreien Sie Ihre Daten aus den Silos: Wie Sie einfachere und bessere Einsichten in Ihre Daten gelangen können
    Dr. Stefan Grotehans, MarkLogic, Director Sales Engineering DACH

    12:15-13:15: Mittagspause und Ausstellung

  5. 13:15-14:00: Improving Data Preparation (making it faster and easier) for Business Analytics: Utilise existing resources by extending user-friendly data prep tools to the widest audience
    Dominik Classen, Pentaho, Sales Engineering Team Lead EMEA & APAC

  6. 14:00-14:45: Predictive Planning: Wie Sie planen, was Sie noch nicht wissen!
    Stefan Schegg, Woodmark, Senior Consultant

    14:45-15:15: Pause

  7. 15:15-16:00: Einstieg in die Datenanalyse mit Spark – von Rohdaten zu Insights
    Stephan Schiffner, F&F, Head of Big Data & Analytics
    Prof. Dr. Markus Breunig, F&F, Lead Consultant Big Data & Analytics

  8. 16:00-16:45: Kennen Sie die richtigen Fragen?
    Christian Glatschke, Anodot, Sales Director DACH

  9. 16:45-17:30: Data Virtualization
    Christian Kurze, Denodo, Principal Sales Engineer DACH

Details:

10:45-11:30: Big Data –  vom Datensumpf zum „Intelligent Datalake“
Sören Eickhoff, Informatica, Sales Consultant
Um Business-Mehrwerte aus einer Big Data Umgebung zu generieren ist es für Daten Analysten hilfreich, über eine grafische Oberfläche nach spezifischen Daten innerhalb des Datalakes zu suchen, nachzuvollziehen woher diese Daten kommen und in welchem Business-Kontext diese stehen. Weiter ist es notwendig Daten auf einfache Art und Weise aufzubereiten und dann innerhalb der Hadoop-Umgebung zu verarbeiten. Anhand des Vortrages und einer Live-Demo wird dargestellt, wie diese Themen mit einer Intelligent Datalake Lösung adressiert werden können.
Zusätzlich wird auf weitere Funktionsbereiche einer Big Data Management Lösung eingegangen:

  • Integration und Parsing von Daten aus verschiedenen Quellen.
  • Security Lösungen, wie zum Beispiel Daten Maskierung.
  • Sicherstellen der Datenqualität innerhalb der Hadoop-Umgebung.

11:30-12:15: Befreien Sie Ihre Daten aus den Silos: Wie Sie einfachere und bessere Einsichten in Ihre Daten gelangen können.
Dr. Stefan Grotehans, MarkLogic, Director Sales Engineering DACH
Führende Unternehmen suchen nach effektiven Methoden, um eine einfachere und bessere Einsicht in ihre Daten zu erhalten. Die Daten liegen in Silos, sind heterogen und oft unstrukturiert, müssen aber integriert werden. Eine neue Datenbank Generation hilft bei dieser herausfordernden Aufgabe und überwindet dabei die Schwäche traditioneller Datenbanken, mit unstrukturierten Daten umzugehen. Semantische Methoden werden zur Datenharmonisierung eingesetzt, so können zeitaufwändige ETL Prozesse vermieden werden.
Als Resultat werden schneller neue Anwendungen entwickelt, die eine bessere Einsicht, eine tiefere Analyse und genauere Fehlerprognosen liefern. Prozessverbesserungen und schnellere Produktentwicklung als Wettbewerbsvorteile werden erzielt.

13:15-14:00: Improving Data Preparation (making it faster and easier) for Business Analytics:
Utilise existing resources by extending user-friendly data prep tools to the widest audience

Dominik Classen, Pentaho, Sales Engineering Team Lead EMEA & APAC
The potential for organisations to analyse their own data is vast, and the benefits they can reap from the insights that data analytics drives are far reaching.
Find out about the opportunities that (big) data presents, the tools and today’s data landscape – and how to bridge the gap between data preparation and analytics, bringing IT and business closer together.

15:15-16:00: Einstieg in die Datenanalyse mit Spark – von Rohdaten zu Insights
Stephan Schiffner: Head of Big Data & Analytics bei F&F
Prof. Dr. Markus Breunig: Lead Consultant Big Data & Analytics bei F&F

Big Data und Advanced Analytics sind in aller Munde. Aber was bedeuten diese Begriffe in der Praxis wirklich? An Hand eines realen Projekts zeigen wir auf, wie man mit Apache Spark auf einfache Weise Millionen von Log Daten aufbereitet und grundlegende Analysen durchführt. Live Codebeispiele verdeutlichen, dass man mit wenigen Zeilen in kürzester Zeit bereits sinnvolle Erkenntnisse gewinnen kann, die einen echten geschäftlichen Mehrwert generieren.

16:00-16:45: Kennen Sie die richtigen Fragen?
Christian Glatschke, Anodot, Sales Director DACH
Wir sind endgültig inmitten Big Data angekommen. Neue Ansätze und neue Strategien werden bereits diskutiert, wie nun der wahre Mehrwert aus den gewonnen Daten gezogen werden kann. Immer mehr wird erkennbar das der ‚normale’ menschliche Geist mit der Komplexität und Geschwindigkeit neuer Informationen überfordert ist. Dies führt dazu dass wir uns häufig nicht bewusst sind welche Schätze in den Datenseen noch verborgen sind. Oder anders ausgedrückt, sind wir noch nicht in der Lage die richtigen Fragen stellen. Nur wer fragt bekommt die Antwort und die besten Analysewerkzeuge liefern nur die Ergebnisse die ich explizit erfrage. Intelligentere Ansätze sind daher notwendig die den Anwender automatisiert Antworten liefern, zu Fragen, die Ihnen so vielleicht noch gar nicht in den Sinn gekommen sind. Erfahren Sie wie Anodot Ihre Fragen für Sie nicht nur automatisch stellt, sondern diese auch in Echtzeit beantwortet.

16:45-17:30: Datenvirtualisierung: Big Data und Small Data im konsistenten Zugriff
Christian Kurze, Denodo, Principal Sales Engineer DACH

Datenvirtualisierung ist ein zentraler Bestandteil eines jeden Big Data Projekts: Mit Real-Time Integration über verteilte traditionelle und Big Data Quellen hinweg, inkl. Hadoop, NoSQL, Cloud und Software-as-a-Service, wird sie innerhalb operativer und analytischer Use Cases eingesetzt.

  • Was ist Datenvirtualisierung?
  • Architekturpatterns: Anreicherung und Blending von Big Data und IoT mit weiteren internen sowie externen Datenquellen ohne Replikation
  • Effiziente Nutzung knapper Ressourcen: Data-as-a-Service für Endanwender und Applikationen
  • Gewährleistung von Data Governance und Security
  • Vorteile: Schneller ROI sowie Time-to-Market für Projekte, geringere TCO der Gesamtarchitektur, Non-IT Benefits
  • Praktische Anwendungsbeispiele

Hier finden Sie alle Details zum Fachforum Big Data am Dienstag, 31.01.2017