Blogs and Whitepapers

After switching from science to industry, I still like to write and share my knowledge with others. At Five1, I had the oppurtunity to lead or contribute to a number of whitepapers and blogs.

  • Bilderkennung: Anwendungen von Medizin bis autonomen Fahren (Blog)
    Ein Schwerpunkt meiner Arbeit als Astronom, wie als Data Scientist ist die Bildverarbeitung. Ein kleiner Auszug aus dem Arbeitsalltag bei der Five1.
  • Datenvirtualisierung – Nur eine Übergangslösung? (Blog)
    Datenvirtualisierung wird häufig als Übergangslösung dargestellt, bspw. um Legacy-Systeme mit einer neuen Plattform zusammen zu bringen. Das ist zwar korrekt, doch bietet Datenvirtualisierung noch weitaus mehr.
  • Welcher Datenkatalog passt für mich? (Blog)
    Die Auswahl eines Datenkatalogs ist immer ein individueller Prozess, der sich nach vielfältigen Anforderungen richten muss. Eingige generelle Aspekte können dabei helfen.
  • Welcher Datenkatalog und wenn ja, wie viele? (Blog)
    Eine immer zentraler werdende Herausforderung in Unternehmen besteht darin, mit einer Vielzahl von Datenspeichern umzugehen. Ein Datenkatalog kann Übersicht verschaffen, aber wie lässt er sich gewinnbringend einsetzen?
  • Das Beste aus zwei Welten: Data Warehouse + Data Lake = Data Lakehouse (Blog)
    Was ist ein Lakehouse und welche Vorteile hat es gegenüber einem Data Warehouse oder Data Lake?
  • Data Science in HANA (Blog)
    Data Science muss nicht immer in einer neu zu erstellenden Umgebung mit Python und Notebooks passieren. HANA bringt alles Nötige für Machine Learning und Advenced Analytics bereits mit.
  • HANA als Turbolader für Predicitve Analytics mit der SAC (Blog)
    Wie sich die SAP Analytics Cloud als Frontend für eine interaktive Machine Learning Platform nutzen lässt.
  • Predictive Analytics Anwendungen mit SAP Technologie, aber ohne SAP Analytics Cloud (Blog)
    Das UI für eine Machine Learning-Anwendung in SAP HANA muss nicht immer die SAP Analytics Cloud als Frontend nutzen. Mit UI5 ergeben sich flexible Umsetzungsmöglichkeiten.
  • Code Pushdown auf HANA (Blog)
    Mithilfe nativer HANA-Programmierung und verschiedener Frontends lassen sich komplexe Data Science-Szenarien realisieren, ohne auf Anwendungen außerhalb der SAP-Welt zurückgreifen zu müssen. Wie lassen sich diese Möglichkeiten auch aus der Data Science-Standardsprache Python nutzen?
  • Augmented Forecasting am Beispiel Liquidität (Whitepaper)
    Stets zahlungsfähig zu sein, aber nicht unnötig liquide Mittel vorzuhalten ist von entscheidender Bedeutung für Unternehmen. Mithilfe der Cash Flow-Daten aus operativen Systemen kann Machine Learning die weitere Entwicklung prognostizieren und so helfen das Liquiditätsmanagement zu optimieren.