Oracle, MS SQL Server, Exasol oder PostgreSQL.Programmier- und BI- Kenntnisse: Du kennst dich mit SQL, Python oder R aus und hast Erfahrungen mit Tools wie Power BI, Tableau, QlikSense oder Pyramid Analytics.Methodische Fähigkeiten: Du bist vertraut mit der Anforderungsanalyse und mit der Konzeption und Umsetzung moderner Datenbewirtschaftungsprozesse sowie Reporting-, Analyse- und Dashboard-Lösungen.Reisebereitschaft & Flexibilität: Überwiegend remote-Einsätze nach Abstimmung mit dem Kunden vorgesehen, aber du bist bereit zu reisen, wenn es erforderlich ist (z.B.
Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt DatabricksStrukturierung fachlicher Anforderungen und Umsetzung in effiziente technische LösungenVerantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data LakehouseDatenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende AnwendungenUmsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in ProjekteUnterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und DatenintegrationCloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit DatabricksSicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf FirmenwagenVielfältige Weiterbildungsangebote und interne CommunitiesAbsicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Microsoft Security / IAM (RBAC) / EntraID und Microsoft Azure Costing.Du besitzt Architekturerfahrung, inklusive Infrastruktur und Security Patterns.Du hast ausgezeichnete Kenntnisse in Terraform / Infrastructure as Code und CI/CD.Idealerweise hast du schon mit Datenplattform / Databricks und Bitbucket Pipelines gearbeitet.Du sprichst fließend Deutsch und Englisch.Abwechslung ꞏ Flexibilität ꞏ Sicherheit ꞏ Wachstumsbranche ꞏ Work-Life-Balance Du weißt selbst am besten, wie Du effektiv und produktiv arbeitest.
Du automatisierst Entwicklungs-, Test- und Betriebsprozesse Diese Kenntnisse bringst Du idealerweise mit: Du besitzt mehrjährige Erfahrung als Dev(Sec)OPs Engineer. Dein technologischer Schwerpunkt liegt im Bereich MS Azure, inkl.
Mit unserer langjährigen Rekrutierungserfahrung und unseren Kenntnissen des Engineering-Personalmarktes bieten wir Fach- und Führungskräften aus dem Ingenieurwesen und dem technischen Umfeld eine starke Partnerschaft.
Impact & Teampower: Hohes Maß an Gestaltungsspielraum und unschlagbare Teampower in einem leistungsstarken Arbeitsumfeld Gehalt & Mitarbeiterrabatte: Sicherer Arbeitsplatz beim Erfinder des Discounts mit einem attraktiven Gehalt sowie Corporate Benefits Das sind deine Aufgaben Du konzipierst, entwickelst und betreibst gemeinsam mit deinem Team skalierbare Lösungen für die internationale Data & Analytics Plattform von ALDI Nord Du übernimmst die Ende zu Ende Verantwortung für die Anbindung neuer Datenquellen, die Entwicklung und Optimierung komplexer ETL Pipelines sowie die Bereitstellung und Pflege der Cloud Infrastruktur Du identifizierst technische Verbesserungsmöglichkeiten und setzt diese um – etwa durch Performance Tuning, Automatisierung oder die gezielte Nutzung bestehender oder neuer Features Du gestaltest die Weiterentwicklung unserer Plattform aktiv mit, indem du technische Standards mitentwickelst, Architekturentscheidungen begleitest und eng mit anderen Engineering Teams zusammenarbeitest Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQLAnforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best PracticesAufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und MonitoringStrategische Beratung zu Datenarchitekturen, Technologien und ToolsAktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Engineering und idealerweise auch Data ArchitectureSehr gute Kenntnisse in der Programmierung mit Python, SQL und ShellSicherer Umgang mit Infrastructure-as-Code, z.B. Terraform, und CI/CD-WorkflowsTiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und DatenmodellierungErfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder SnowflakeSehr gutes Verständnis für Data Governance, Sicherheit und DatenschutzIdealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQLDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermittelnKommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.