Große Datenmengen sind Dein Ding – Du unterstützt den Data Steward bei der Anbindung immer neuer Datenquellen an unseren Data Lake, sorgst für die Transformation der Rohdaten zu „Trusted Data“ und unterstützt die Data Scientists bei der Datenanalyse und beim Auffinden von Korrelationen.
Unter Nutzung unserer Infrastruktur baust Du verfügbare und skalierbare Datenpipelines unter Berücksichtigung von Governance, Security und Wartbarkeit.
Du arbeitest eng mit anderen Teams zusammen, um datengesteuerte Lösungen zu entwickeln. Mit Deiner fachlichen Expertise trägst Du zur Wissensvermittlung im Bereich BigData innerhalb des Teams und der CUR-Gruppe bei.
Du unterstützt die CUR-Gruppen-Geschäftsbereiche bei der Entwicklung neuer, digitaler, datenbasierter Produkte und Apps, einschließlich Auswertungen, Visualisierungen und KI-basierter Lösungen und trägst damit zum Erfolg unseres Unternehmens bei.
Du entwickelst die Big Data Landschaft der CURRENTA kontinuierlich weiter – Schwerpunkte sind hierbei der Data Lake selber, die Cloud Infrastruktur, die Data-Pipelines als auch die CI-/CD-Strecken.
Das bringen Sie mit:
Du verfügst über ein abgeschlossenes Hochschulstudium in Ingenieurswissenschaften / (Wirtschafts-)Informatik / Mathematik / Physik oder bringst eine vergleichbare Qualifikation mit.
Kritisches Denken und die Bereitschaft, sich in die Geschäftslogik und Prozesse verschiedener Geschäftsbereiche einzudenken, stellen für dich kein Problem dar.
Du hast Programmiererfahrung in Python (vor allem pandas und numpy) und bist vertraut mit den Tools und Techniken im BigData-Umfeld (insb. Grafana, Kafka und Databricks).
Du bringst Erfahrung im Umgang mit Datenbanken und Datenbanksprachen wie SQL oder Influx mit, hast Erfahrungen in der Datenaufbereitung und Analyse sowie mit der Bildung von Datenpipelines und Streaming-Prozessen.
Du besitzt sehr gute Deutsch- und Englischkenntnisse.