Koordination: Du verantwortest die End-to-End-Koordination der Integration neuer digitaler Lösungen auf der Plattform sowie deren Rollout in die regionalen Einheiten Datenintegration: Gemeinsam mit deinem Team stellst du sicher, dass die erforderlichen Daten vollständig und korrekt integriert werden Messbarkeit: Du entwickelst KPIs und schaffst damit eine klare Metrik zur Steuerung und Erfolgsmessung der Projekte Prozessoptimierung: Du verbesserst kontinuierlich unsere Prozesse und findest Lösungen für auftretende Herausforderungen Zusammenarbeit: Du arbeitest eng mit den Produkt-Squads in iPEN und weiteren Stakeholdern zusammen IT-Verständnis: Du bringst technisches und prozessuales Verständnis mit - idealerweise mit Kenntnissen in der Datenintegration und ersten Erfahrungen als Product Owner Sprachkompetenz: Du kommunizierst sicher auf Deutsch (mind. B2) und Englisch (B2) Agiles Mindset: Du lebst agile Werte und Prinzipien und bringst eine ausgeprägte Kundenorientierung mit Struktur: Du gehst organisiert und zielgerichtet an deine Aufgaben heran Erfahrung: Du hast bereits komplexe IT-Produkte oder -Projekte geleitet und daraus gelernt Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen Branche Ihr Kontakt Referenznummer 861152/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Koordination: Du verantwortest die End-to-End-Koordination der Integration neuer digitaler Lösungen auf der Plattform sowie deren Rollout in die regionalen EinheitenDatenintegration: Gemeinsam mit deinem Team stellst du sicher, dass die erforderlichen Daten vollständig und korrekt integriert werdenMessbarkeit: Du entwickelst KPIs und schaffst damit eine klare Metrik zur Steuerung und Erfolgsmessung der ProjekteProzessoptimierung: Du verbesserst kontinuierlich unsere Prozesse und findest Lösungen für auftretende HerausforderungenZusammenarbeit: Du arbeitest eng mit den Produkt-Squads in iPEN und weiteren Stakeholdern zusammen IT-Verständnis: Du bringst technisches und prozessuales Verständnis mit - idealerweise mit Kenntnissen in der Datenintegration und ersten Erfahrungen als Product OwnerSprachkompetenz: Du kommunizierst sicher auf Deutsch (mind. B2) und Englisch (B2)Agiles Mindset: Du lebst agile Werte und Prinzipien und bringst eine ausgeprägte Kundenorientierung mitStruktur: Du gehst organisiert und zielgerichtet an deine Aufgaben heranErfahrung: Du hast bereits komplexe IT-Produkte oder -Projekte geleitet und daraus gelernt Eine übertarifliche BezahlungBetriebliche AltersvorsorgeAnspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen Branche Ihr Kontakt Referenznummer 861152/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B. Entity-Relationship-Modelle, Layer-Modelle, Modellierungsstandards) Vorteilhaft: Erfahrung mit SAP-Quellsystemen (FI, CO, SD, MM, etc.)
Teilprojektleitung im Aufbau eines Data Lakes für die Steuerabteilung innerhalb der SAP Business Data Cloud Konzeption und Modellierung von steuerlich relevanten Datenstrukturen und Datenflüssen Anforderungsmanagement: Aufnahme, Analyse und Priorisierung der Anforderungen der Steuerfachbereiche Enabling der Steuerabteilung im Umgang mit Datenmodellen und analytischen Werkzeugen Enge Zusammenarbeit mit dem Plattform Service zur Übergabe der Modelle in den späteren Betrieb Unterstützung bei Qualitätssicherung, Testing und Data Governance Mitarbeit bei der Erstellung von Standards, Guidelines und Dokumentationen Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Betriebswirtschaft, Data Analytics oder eine vergleichbare Qualifikation Erfahrung im Umfeld von SAP Datasphere / Business Warehouse / Data Lakes oder Business Data Cloud Kenntnisse in der Datenmodellierung (z.B. Entity-Relationship-Modelle, Layer-Modelle, Modellierungsstandards) Vorteilhaft: Erfahrung mit SAP-Quellsystemen (FI, CO, SD, MM, etc.)
Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
DEINE AUFGABEN IT-Administration Betreuung und Weiterentwicklung unserer Microsoft-Umgebung (M365, Entra ID, SharePoint, Teams) Sicherstellung des IT-Betriebs: User-Management, Hardware, Updates, Backups und Security Zusammenarbeit mit externem IT-Dienstleister Prozessdigitalisierung Aufbau und Pflege von Datenflüssen zwischen Adito CRM, proAlpha ERP und M365 Automatisierung von Prozessen mit der Microsoft Power Platform (Automate, BI, Apps, Dataverse) Nutzung von SQL und APIs (REST, JSON) zur Datenaufbereitung und Integration Zukunftsfeld: KI & Automation Unterstützung bei ersten KI-Pilotprojekten und Einführung agentischer Automationen auf Basis bestehender Datenstrukturen DEIN PROFIL Ausbildung als Fachinformatiker:in, Informatikstudium oder vergleichbare Berufserfahrung Gute Kenntnisse in Microsoft 365, Entra ID und SharePoint Erfahrung mit Power Platform (Automate, BI, Apps) oder Bereitschaft, sich dort einzuarbeiten Grundkenntnisse in SQL und API-Integration Interesse an Datenflüssen, Prozessoptimierung und Automatisierung Strukturierte, lösungsorientierte Arbeitsweise und Freude an Teamarbeit Pluspunkte: Erfahrung mit proAlpha, Adito CRM, Power Query oder Microsoft Fabric DAS BIETEN WIR DIR Modernes Arbeitsumfeld & flexible Arbeitszeitmodelle Spannende Digitalisierungsprojekte mit direkter Wirkung auf unsere Abläufe Viel Raum für eigene Ideen und Entwicklungsmöglichkeiten Individuelle Weiterbildung (z.
DEINE AUFGABEN IT-Administration Betreuung und Weiterentwicklung unserer Microsoft-Umgebung (M365, Entra ID, SharePoint, Teams) Sicherstellung des IT-Betriebs: User-Management, Hardware, Updates, Backups und Security Zusammenarbeit mit externem IT-Dienstleister Prozessdigitalisierung Aufbau und Pflege von Datenflüssen zwischen Adito CRM, proAlpha ERP und M365 Automatisierung von Prozessen mit der Microsoft Power Platform (Automate, BI, Apps, Dataverse) Nutzung von SQL und APIs (REST, JSON) zur Datenaufbereitung und Integration Zukunftsfeld: KI & Automation Unterstützung bei ersten KI-Pilotprojekten und Einführung agentischer Automationen auf Basis bestehender Datenstrukturen DEIN PROFIL Ausbildung als Fachinformatiker:in, Informatikstudium oder vergleichbare Berufserfahrung Gute Kenntnisse in Microsoft 365, Entra ID und SharePoint Erfahrung mit Power Platform (Automate, BI, Apps) oder Bereitschaft, sich dort einzuarbeiten Grundkenntnisse in SQL und API-Integration Interesse an Datenflüssen, Prozessoptimierung und Automatisierung Strukturierte, lösungsorientierte Arbeitsweise und Freude an Teamarbeit Pluspunkte: Erfahrung mit proAlpha, Adito CRM, Power Query oder Microsoft Fabric DAS BIETEN WIR DIR Modernes Arbeitsumfeld & flexible Arbeitszeitmodelle Spannende Digitalisierungsprojekte mit direkter Wirkung auf unsere Abläufe Viel Raum für eigene Ideen und Entwicklungsmöglichkeiten Individuelle Weiterbildung (z.
Fachinformatiker (m/w/d)) oder abgeschlossenes Studium im Bereich Informatik oder einer vergleichbaren Fachrichtung Mindestens 3 Jahre Berufserfahrung als Data Engineer / Data Warehouse & BI Specialist (m/w/d) Erste praktische Erfahrung in BI- und/oder Data-Warehouse-Projekten sowie im Umgang mit ETL-Tools und SQL Fundierte Kenntnisse in der Datenbankmodellierung und -entwicklung; Python- Kenntnisse sind von Vorteil Ausgeprägtes Interesse an Digitalisierung, Datenarchitekturen und Transformationsprojekten in einem agilen Umfeld Sehr gute Deutsch-(mindestestens B2-Niveau) sowie gute Englischkenntnisse in Wort und Schrift Hohe Begeisterungsfähigkeit sowie Motivation, neue Themen aktiv voranzutreiben Ausgeprägte Teamfähigkeit, sicheres Auftreten und gute Umgangsformen Sehr gute Kommunikationsfähigkeit auf unterschiedlichen Ebenen Selbstständige, strukturierte und lösungsorientierte ArbeitsweiseEinen abwechslungsreichen und herausfordernden Arbeitsplatz mit spannenden Aufgaben Intensive und umfassende Einarbeitung, die individuell auf Sie ausgerichtet wird, um Ihnen den optimalen Start in Ihre neue Position zu ermöglichen Ein Unternehmen mit über 180-jähriger Erfolgsgeschichte in einer soliden und zukunftsorientierten Branche - die Edelmetallbranche.
Unser ideales Profil Masterabschluss in Informatik, Mathematik/Statistik, Wirtschaftswissenschaften/Ökonometrie oder einem verwandten Fachgebiet.Mehrjährige Berufserfahrung in quantitativer Datenanalyse oder eine Promotion mit mindestens einem Jahr relevanter Berufserfahrung im Bereich Machine‑Learning‑Forschung.Sehr gute Kenntnisse und tiefes Verständnis von Machine‑Learning‑Methoden, sowohl klassisch als auch Deep Learning.Relevante Erfahrung mit Natural Language Processing (NLP) zur Extraktion strukturierter Konzepte aus unstrukturiertem Freitext, einschließlich Design, Training und Evaluierung von Information‑Extraction‑Pipelines.Sehr starke technische Fähigkeiten in Python, SQL und dem Hadoop‑Ökosystem.Erfahrung in der Anwendung von KI-/Machine‑Learning‑Methoden auf geschäftliche Fragestellungen.Sehr gute Kenntnisse fortgeschrittener statistischer und ökonometrischer Methoden in Theorie und Praxis.Erfahrung im Umgang mit Big Data.Fähigkeit, sauberen, wiederverwendbaren, produktionsreifen Code zu schreiben.Hervorragende Kommunikationsfähigkeiten (schriftlich und mündlich), einschließlich technischer Projektaspekte, Dokumentation, Ergebnisinterpretation und geschäftlicher Empfehlungen.Ausgeprägtes analytisches Denken und logische Problemlösungskompetenz, starke Qualitätsorientierung.Kenntnisse des Pharmamarktes und Erfahrung mit pharmazeutischen Daten (medizinische Daten, Krankenhausdaten, Apothekendaten, Abrechnungsdaten) sind von Vorteil, aber nicht zwingend erforderlich.Selbstständige Projektsteuerung.Fließende Deutsch- und Englischkenntnisse.
Abgeschlossene IT‑Ausbildung, Studium oder vergleichbare QualifikationMehrjährige Erfahrung in der Power Platform (Power Apps, Power Automate, Dataverse)Fundierte Kenntnisse in Power BI (DAX, Datenmodelle, Visualisierung)Idealerweise Projekterfahrung mit Power BI im Kontext Fabric und / oder BTPIdealerweise Erfahrung in der Integration oder Nutzung von Dynamics 365Gutes Verständnis für Geschäftsprozesse und deren digitale AbbildungKnow‑how in M365‑ und Azure‑Grunddiensten (z.
Mein Arbeitgeber Als weltweit führender Hersteller hochwertiger bauchemischer Spezialbaustoffe bietet mein Mandant ein modernes, werteorientiertes Arbeitsumfeld, in dem internationale Ausrichtung, familiäre Unternehmenskultur und langfristige Stabilität Hand in Hand gehen Unterstützung des globalen SAP-Technology-Teams bei der Umsetzung, Betreuung und Weiterentwicklung technischer SAP-LösungenNutzung der Integrated Toolchain - insbesondere SAP LeanIX und SAP Cloud ALM (CALM) - zur Planung, Dokumentation und Überwachung von IntegrationsprozessenUmsetzung von Projekten auf der SAP Business Technology Platform (BTP) mit Schwerpunkt SAP Integration SuiteRealisierung von Side-by-Side-Extensibility-Szenarien für SAP S/4HANA unter Nutzung moderner Cloud-ArchitekturenErstellung von Guidelines, Architekturvorgaben und Roadmaps für den Application Lifecycle von SAP-BTP-LösungenMitwirkung an der Standardisierung und Qualitätssicherung der globalen SAP-TechnologielandschaftErprobung neuer Technologien sowie Entwicklung innovativer Lösungskonzepte Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine vergleichbare QualifikationErfahrung mit Platform-as-a-Service (PaaS)-Lösungen - idealerweise im Umfeld der SAP Business Technology Platform (BTP)Kenntnisse in der SAP Integration Suite sowie grundlegendes Verständnis von IntegrationsarchitekturenStark ausgeprägte Eigenmotivation und Fähigkeit, sich selbstständig in neue Themen einzuarbeitenStrukturierte, sorgfältige Arbeitsweise mit hoher DetailorientierungAffinität für neue Technologien, Innovationen und Cloud-basierte ArchitekturenSehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Flexible Arbeitszeiten und Homeoffice-Möglichkeiten30 UrlaubstageTarifvertrag und attraktive SozialleistungenBetriebliche AltersvorsorgeBetriebsarzt und KantineJobrad und MitarbeiterrabatteUrlaubs- und WeihnachtsgeldModerne Arbeitsumgebung und regelmäßige Teamevents Gehaltsinformationen Unser Mandant bietet eine Vergütung von ca. 100.000 € p.a., abhängig von Erfahrung.
BI Consultant, Data Scientist, Data Analyst), idealerweise mit Projektverantwortung in einem produzierenden UnternehmenTechnische Tiefe in ETL, Reporting, Data Engineering, Datenmanagement und Business IntelligenceSehr gute Kenntnisse in Qlik Sense Erfahrung in der Datenmodellierung und Erstellung von AuswertungenSicherer Umgang mit ERP-Systemen, insbesondere SAP oder gleichwertigSehr gute Kommunikationsfähigkeiten in Deutsch C1 und Englisch B2 WIR GARANTIEREN IHNEN: Sie erwartet eine direkte Festanstellung bei unserem wertschätzenden Kunden.Um Sie bestmöglich bei unserem Kunden zu präsentieren, optimieren wir gemeinsam Ihre Bewerbungsunterlagen und bereiten Sie gründlich auf das Vorstellungsgespräch im Unternehmen vor.Damit Sie zu den besten Konditionen eingestellt werden, stehen wir Ihnen im Voraus zur Verhandlung Ihres Arbeitsvertrags beratend zur Seite.Darüber hinaus beraten wir Sie auch gern kostenfrei zu weiteren passenden Karrieremöglichkeiten.Diese attraktiven Benefits bietet Ihnen unser Kunde außerdem:Es besteht die Möglichkeit, sofern erforderlich, dass Ihr neuer Arbeitgeber Sie während der Probezeit bei den Kosten für eine temporäre Unterkunft unterstützt mit flexiblen Optionen!
MID – Driving Continuous Transformation Mit der zunehmenden Bedeutung der Datenverarbeitung in der Cloud suchen wir nach einem erfahrenen Data Vault Consultant, der uns bei der Implementierung und Optimierung von Data Vault Lösungen in einer Cloud-Umgebung unterstützt.Du entwirfst und implementierst skalierbare Data Vault 2.1-Modelle.Dabei designst, modellierst und entwickelst Du Datenintegrationslösungen, die auf Best Practices im Bereich Data Vault basieren.Zur Sicherstellung einer reibungslosen Datenpipeline arbeitest Du eng mit den Data Engineering und BI-Teams zusammen.Du beteiligst Dich an Datenqualitätsprüfungen, Validierungen und Governance-Praktiken.Die Analyse von Kundenanforderungen und Übersetzung in skalierbare und robuste Architekturen gehören ebenfalls zu Deinen Aufgaben.Du unterstützt bei der Migration bestehender Lösungen in die Cloud.Du unterstützt die Geschäftsberichterstattung und -analyse durch sauber versionierte Data MartsAußerdem schulst und coachst Du Teams in Data Vault Methodiken und Best Practices in den jeweiligen Cloud Umgebungen.Dein Studium mit dem Schwerpunkt Informatik / Wirtschaftsinformatik, Mathematik, MINT-Fächern oder eine vergleichbare Qualifikation hast Du abgeschlossen.Du konntest bisher mindestens 5 Jahre Erfahrung in der Modellierung und Implementierung von Data Vault Lösungen in Produktionsumgebungen sammeln und bringst fundierte Kenntnisse in der Arbeit mit Cloud-Datenplattformen (z. B. Snowflake, GCP BigQuery, Azure Synapse) mit.Du hast ein starkes Verständnis von ETL/ELT-Prozessen und Cloud-Architekturen sowie sehr gute Erfahrung in SQL, idealerweise in der Automatisierung und Optimierung von Datenprozessen.Bestenfalls bringst Du Zertifizierungen im Bereich Data Vault 2.0 oder 2.1 mit.Idealerweise kannst Du Ende zu Ende von der lokalen Entwicklung bis hin zum Cloud-Deployment und Monitoring tätig sein und bereits komplexe Cloud-native Software entwickelt und betrieben Du punktest durch analytische und konzeptionelle Fähigkeiten sowie einer eigenständigen und strukturierten Arbeitsweise Eine hohe Kommunikationsfähigkeit sowie Kreativität und soziale Kompetenz zeichnen Dich aus Du verfügst über verhandlungssichere Deutschkenntnisse und kannst bei Bedarf auch in englischer Sprache kommunizieren Gelegentliche Dienstreisen innerhalb Deutschlands sind für Dich kein Problem Die Möglichkeit, Dich auf Basis Deiner Expertise und Talente auf den Einsatz in Kundenprojekten zu konzentrieren, oder ergänzend zu Kundenprojekten bei der Mitgestaltung unserer Zukunftsthemen sowie deren Marktdurchdringung zu unterstützen.Aktuell sind wir rund 170 MIDler:innen und wir wollen weiter wachsen.
Zu Ihren Aufgaben gehören: Architektur & Technische Konzeption Erstellung technischer Konzepte für neue Anwendungen, Services und Integrationen Entwurf wartbarer, skalierbarer und sicherer Softwarearchitekturen Bewertung und Auswahl geeigneter Technologien und Patterns Definition von Architekturprinzipien und Entwicklungsstandards Durchführung von Architektur-Reviews und technischen Abstimmungen Softwareentwicklung (.NET / C#) Entwicklung von Anwendungen, Services und APIs mit C# und .NET Umsetzung cloudnativer Architekturen mit Azure Functions Entwicklung ereignisbasierter und asynchroner Systeme Umsetzung von Clean Code, SOLID, Testbarkeit und Wartbarkeit Refactoring bestehender Systeme zur Erhöhung der technischen Qualität Power Platform & Integration Entwicklung und Erweiterung von Lösungen mit auf der Power Platform (gerne auch PowerBi) Integration von Lösungen in Microsoft 365 mit Azure-Services und .NET-Backends (SharePoint Online, Teams, Exchange, Graph API) Entwicklung von Custom Connectors Automatisierung fachlicher Prozesse Systemintegration & Schnittstellen Design und Implementierung von REST-APIs Integration interner und externer Systeme Umsetzung robuster Fehler-, Retry- und Fallback-Konzepte Sicherstellung von Datenkonsistenz und Nachvollziehbarkeit Qualität, Sicherheit & Betrieb Umsetzung von Logging-, Monitoring- und Tracing-Konzepten Absicherung der Anwendungen (AuthN/AuthZ, Secrets, Key Vault, Managed Identities) Performance- und Stabilitätsoptimierung Aufbau und Pflege automatisierter Tests (Unit, Integration) Unterstützung von CI/CD- und DevOps-Prozessen Zusammenarbeit & Kommunikation Enge Zusammenarbeit mit Product Ownern zur fachlich-technischen Ausarbeitung von Anforderungen Beratung der Fachbereiche zu technischen Möglichkeiten und Grenzen Unterstützung des Testmanagements bei der Qualitätssicherung Erstellung technischer Dokumentationen, Architekturbeschreibungen und Entscheidungsvorlagen Wissenstransfer innerhalb des Teams Ihr Profil Mehrjährige Berufserfahrung in der professionellen Softwareentwicklung mit C# und .NET Fundierte Erfahrung mit Microsoft Azure, insbesondere Azure Functions, App Services, Storage, Service Bus / Event Grid (von Vorteil) Erfahrung mit der Microsoft Power Platform und sehr gute Kenntnisse in API-Design, REST, JSON, Authentifizierungskonzepten Strukturierte, analytische Arbeitsweise sowie die Fähigkeit, komplexe Zusammenhänge verständlich zu kommunizieren Erfahrung in der Erstellung technischer Konzepte und Architekturdokumentationen und ein routinierter Umgang mit agilen Vorgehensmodellen (Scrum, Kanban) Verhandlungssichere Deutschkenntnisse in Wort und Schrift runden Ihr Profil ab Sie erfüllen nicht alle Anforderungen, aber unsere Stelle gefällt Ihnen?
Auch wenn Du auf Basis Deiner bisherigen Erfahrungen noch nicht ganz auf dem Niveau eines „Head of …“ bist – hier bekommst Du die Chance, Deine Vision in einer skalierenden AI-Umgebung praktisch zu beweisen. IHRE KENNTNISSE Du bringst technologische Tiefe und Weitblick mit, um KI-Lösungen skalierbar und wirkungsvoll zu gestalten. Sicherer Umgang mit modernen AI-Stacks: Python, TensorFlow, PyTorch, Hugging Face.
DirectQuery und optimierst Datenmodelle Strukturen & Qualitätssicherung: Du etablierst klare Leitplanken für Qualität, Konsistenz und nachhaltigen Betrieb der SSBI-Landschaft Datenkultur & Transformation: Du trägst aktiv zur Weiterentwicklung einer datengetriebenen Unternehmenskultur bei und unterstützt die Umsetzung der Data Strategy durch strukturierte Kommunikations- und Enablement-Formate Dein Profil Mehrjährige Erfahrung im Bereich BI / Analytics (Senior- oder Lead-Level), davon fundierte Expertise in Power BI Nachweisliche Erfahrung in Delivery- oder Projektverantwortung inklusive Roadmap- und Backlog-Steuerung, Stakeholder-Management, Go-lives und Qualitätssicherung – idealerweise mit Budgetverantwortung Sehr gute Kenntnisse in DAX, Power Query (M), Datenmodellierung (Star Schema) sowie Performance-Optimierung Praxis in Governance- und Security-Konzepten in Power BI (z.
Das wünschen wir uns: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik, im Ingenieurwesen oder eine vergleichbar erfolgreich abgeschlossene Ausbildung im IT-technischen Bereich Mehrjährige praktische Erfahrung in der Datenmodellierung, dem Aufbau von ETL-Prozessen und in der Data Warehouse Automatisierung Sehr gute SQL-Kenntnisse sowie idealerweise erste Kenntnisse in Python Idealerweise Erfahrung in Data Vault Modellierung Praktische Erfahrungen im Umgang mit Snowflake und AWS Sicherheit im Umgang mit JIRA, Confluence und GIT Ausgiebige Erfahrung mit agilen und datengetriebenen Entwicklungsprozessen Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Darauf kannst Du Dich freuen: Einzigartige Unternehmenskultur: Basierend auf den Werten von Ferdinand Graf von Zeppelin handeln wir als Stiftungsunternehmen zukunftsorientiert, sozial und nachhaltig.
Mein Arbeitgeber Als weltweit führender Hersteller hochwertiger bauchemischer Spezialbaustoffe bietet mein Mandant ein modernes, werteorientiertes Arbeitsumfeld, in dem internationale Ausrichtung, familiäre Unternehmenskultur und langfristige Stabilität Hand in Hand gehen Unterstützung des globalen SAP-Technology-Teams bei der Umsetzung, Betreuung und Weiterentwicklung technischer SAP-Lösungen Nutzung der Integrated Toolchain - insbesondere SAP LeanIX und SAP Cloud ALM (CALM) - zur Planung, Dokumentation und Überwachung von Integrationsprozessen Umsetzung von Projekten auf der SAP Business Technology Platform (BTP) mit Schwerpunkt SAP Integration Suite Realisierung von Side-by-Side-Extensibility-Szenarien für SAP S/4HANA unter Nutzung moderner Cloud-Architekturen Erstellung von Guidelines, Architekturvorgaben und Roadmaps für den Application Lifecycle von SAP-BTP-Lösungen Mitwirkung an der Standardisierung und Qualitätssicherung der globalen SAP-Technologielandschaft Erprobung neuer Technologien sowie Entwicklung innovativer Lösungskonzepte Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine vergleichbare Qualifikation Erfahrung mit Platform-as-a-Service (PaaS)-Lösungen - idealerweise im Umfeld der SAP Business Technology Platform (BTP) Kenntnisse in der SAP Integration Suite sowie grundlegendes Verständnis von Integrationsarchitekturen Stark ausgeprägte Eigenmotivation und Fähigkeit, sich selbstständig in neue Themen einzuarbeiten Strukturierte, sorgfältige Arbeitsweise mit hoher Detailorientierung Affinität für neue Technologien, Innovationen und Cloud-basierte Architekturen Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Flexible Arbeitszeiten und Homeoffice-Möglichkeiten 30 Urlaubstage Tarifvertrag und attraktive Sozialleistungen Betriebliche Altersvorsorge Betriebsarzt und Kantine Jobrad und Mitarbeiterrabatte Urlaubs- und Weihnachtsgeld Moderne Arbeitsumgebung und regelmäßige Teamevents Gehaltsinformationen Unser Mandant bietet eine Vergütung von ca. 100.000 € p.a., abhängig von Erfahrung.
(Wirtschafts-)Informatik, Fachinformatiker*in Anwendungsentwicklung) oder vergleichbare Qualifikation Konkrete Erfahrung mit Microsoft Dynamics 365 CRM, idealerweise mit D365 Sales (z.B. durch Customizing, Erweiterungen, Betrieb oder Support) Erste Erfahrungen mit der Microsoft Power Platform, mindestens mit Power Automate; Kenntnisse in Power Apps oder Power BI sind von Vorteil Grundkenntnisse in der Anbindung von Systemen und Datenquellen (z.B. SAP, SQL, Excel, SharePoint oder APIs) oder klare Bereitschaft, sich hier einzuarbeiten Strukturierte und zuverlässige Arbeitsweise sowie Freude daran, Themen eigenständig voranzutreiben Offenheit und Spaß an der Zusammenarbeit mit Kolleg*innen aus Vertrieb, Marketing und anderen Bereichen sowie die Fähigkeit, technische Lösungen verständlich zu erklären Sehr gute Deutschkenntnisse und solide Englischkenntnisse FREU DICH AUF … ein in der Heimat fest verwurzeltes Familienunternehmen, in einer zukunftssicheren Branche mit interessanten Entwicklungsmöglichkeiten im internationalen Umfeld.
Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI Reporting SQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender Reports Datenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden Systemlandschaft Aufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mit Datenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werden Operative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiter Ansprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data Management Mehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-Umfeld Nachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query) Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen Datenbanken Tiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-Prozessen Mehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von Prozessen Sehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BI Erfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen Partner Wir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und Vorstellungsgesprächen Wir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe Vermittlungsquote Individuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI ReportingSQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender ReportsDatenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden SystemlandschaftAufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mitDatenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werdenOperative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiterAnsprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data ManagementMehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-UmfeldNachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query)Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen DatenbankenTiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-ProzessenMehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von ProzessenSehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BIErfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen PartnerWir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und VorstellungsgesprächenWir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe VermittlungsquoteIndividuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementierenPython-ProgrammierungAufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generierenEntwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu könnenAufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-SystemsKonzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-HowFundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit PythonErfahrung in der Frontend- und Backend-EntwicklungKenntnisse in Django/HTMX von VorteilErste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data WarehouseKenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes BetätigungsfeldAttraktive Weiterentwicklungsmöglichkeiten38-Stunden-WocheRemote-Work möglichJobradGute Erreichbarkeit mit dem Auto und dem ÖPNVIndividuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Was Dich erwartet Aufbau und Pflege von ETL-Pipelines zur Integration unterschiedlicher DatenquellenGestaltung und Verwaltung von Datenstrukturen, wie Data Warehouses und Data LakesSicherstellung der Datenqualität durch Monitoring und FehleranalysenEnge Zusammenarbeit mit Data Scientists zur Gewinnung datengestützter ErkenntnisseOptimierung und Automatisierung von Datenprozessen für erhöhte Effizienz Das bringst Du mit Abgeschlossenes Studium in Informatik, Datenwissenschaft, Ingenieurwesen oder einer ähnlichen QualifikationFundierte Kenntnisse in SQL und Python sowie Erfahrung mit ETL-ToolsErfahrungen mit Datenbanken und Big-Data-Technologien von VorteilAusgeprägte analytische Fähigkeiten und ProblemlösungsorientierungTeamfähigkeit und Kommunikationsstärke Was wir bieten Attraktive Vergütung: Überdurchschnittliches Gehalt mit individuellen Zuschüssen und ausgezeichneter Entwicklung nach TarifvertragHigh-End Kunden: Zusammenarbeit mit den angesagtesten Unternehmen der AutomobilbranchePROGNUM-Guide - Das Besondere: Bei PROGNUM lassen wir Sie nicht allein!
Mehr als ein grüner Daumen – Ihr Profil als Expert/Sachbearbeiter Master Data Management & Product Data (m/w/d): Abgeschlossene Ausbildung im Bereich, Bürokommunikation, Verwaltung oder eine vergleichbare Qualifikation Erste Erfahrung in der Stammdatenpflege Gute Kenntnisse in MS Office, insbesondere Excel Idealerweise Erfahrung mit ERP-Systemen, insbesondere SAP S4/HANA Analytische Fähigkeiten und ein Auge für Details Strukturierte und gewissenhafte Arbeitsweise Kommunikationsstärke und Teamfähigkeit Gute Deutschkenntnisse in Wort und Schrift, Englischkenntnisse sind von Vorteil Teil- oder Vollzeitbeschäftigung: ab 20 Std.
Du behältst dabei auch immer ein Auge auf die Systemverfügbarkeit und die Informationssicherheit Was Du mitbringen solltest Du hast eine mehrjährige Berufserfahrung als Datenbankadministrator (m/w/d), Fachinformatiker für Anwendungsentwicklung (m/w/d) oder in einer vergleichbaren Position Du hast Erfahrungen mit CI/CD und der Entwicklung mit Golang Du besitzt Kenntnisse in der SQL Server Administration und Hochverfügbarkeit (SQL Cluster/Always On Verfügbarkeitsgruppen) Du bist vertraut mit der Administration von SSISDB, Report Servern sowie mit PowerShell oder T-SQL Du kennst dich mit der Data Integration-Platform und Business Intelligence Tools aus Du verfügst über eine analytische und logische Denkweise Du arbeitest lösungsorientiert und selbstständig Du hast ein hervorragendes Auffassungsvermögen, besitzt gute organisatorische Fähigkeiten und hast eine hohe Kommunikations- und Teamfähigkeit Du besitzt ein ausgeprägtes Interesse an Informationstechnik Unsere Benefits Zahlung einer Antrittsprämie in Höhe eines Bruttomonatsgehalts Jährliche Gewinnbeteiligungen und tarifliche Sonderzahlungen Attraktive Rabatte in zahlreichen Onlineshops über Corporate Benefits Günstige Fitnessstudiomitgliedschaften Fahrrad Leasing Betriebliche Altersversorgung 30 Urlaubstage/Jahr Getränkeflatrate Übernahme der Betreuungskosten für nicht schulpflichtige Mitarbeiterkinder Interessante Aufgaben in einem internationalen und zukunftsorientierten Unternehmen Vielfältige Entwicklungsmöglichkeiten durch transparente Laufbahnplanungen Leistungsgerechte Vergütung und flexible Arbeitszeiten Umfassendes Angebot an Weiterbildungsmöglichkeiten, auch in Form von Auslandsaufenthalten in unseren Tochtergesellschaften Moderne Arbeitsumgebung und ein gutes Betriebsklima
Teilprojektleitung in internationalen Projekten im Bereich Data- / Process Mining, Data Analytics und maschinelles Lernen Koordination und Steuerung von internen IT-Ressourcen, externen Partnern und Mitarbeitern der Fachabteilung Mitarbeit in Projekten außerhalb des eigenen Verantwortungsbereichs bei Bedarf Ihr Profil: Erfolgreich abgeschlossenes Studium aus dem Bereich Informationstechnologie, Data Science oder eine gleichwertige Ausbildung Mehrjährige Erfahrung im Bereich Qlik Sense Entwicklung Mehrjährige Berufserfahrung als Projektleiter oder Consultant, idealerweise in einem produzierenden Unternehmen (z.B. Maschinen-/Anlagenbau) von Vorteil Sehr gute Kenntnisse im Bereich ETL, Datenmodellierung und Reporting Kenntnisse über Datenstrukturen in SAP ERP und S/4HANA wünschenswert Kenntnisse im objektorientierten Design und der Softwarequalität Sehr gute analytische Fähigkeiten und ein starker Sinn für Geschäftsprozesse und Business Prioritäten Eigenständige, strukturierte und lösungsorientierte Arbeitsweise Sehr gute Kommunikations- und zwischenmenschliche Fähigkeiten Sichere Kommunikation in Deutsch und Englisch Reisebereitschaft (ca. 15%) Haben wir Ihr Interesse geweckt?
Ihre zukünftigen Aufgaben: Konzeption und Weiterentwicklung skalierbarer Softwarearchitekturen im .NET-UmfeldEntwicklung cloudnativer Anwendungen und Services mit C# und Microsoft AzureUmsetzung ereignisbasierter und asynchroner Lösungen mit Azure FunctionsIntegration von Power-Platform-Lösungen in bestehende Microsoft-365-UmgebungenDesign und Implementierung sicherer REST-APIs sowie stabiler IntegrationskonzepteSicherstellung von Code-Qualität, Dokumentation und technischer Nachhaltigkeit Das bringen Sie mit: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine abgeschlossene Ausbildung als Fachinformatiker für Anwendungsentwicklung oder eine vergleichbare QualifikationMehrjährige Berufserfahrung in der Softwareentwicklung mit C# und .NETFundierte Kenntnisse in Microsoft Azure, insbesondere Azure Functions und App ServicesErfahrung im API-Design, REST, JSON sowie Authentifizierungs- und SicherheitskonzeptenKenntnisse in der Microsoft Power Platform sowie Integrationen mit Microsoft 365Strukturierte Arbeitsweise und ausgeprägte KommunikationsfähigkeitRoutine im agilen Arbeiten nach Scrum oder KanbanVerhandlungssichere Deutschkenntnisse in Wort und Schrift Ein Auszug der Benefits: Unbefristeter Arbeitsvertrag mit langfristiger PerspektiveBetriebliche Altersvorsorge und vermögenswirksame LeistungenFlexible Arbeitszeiten und Home-Office-Möglichkeiten30 Urlaubstage zzgl.
Ihre zukünftigen Aufgaben: Konzeption und Weiterentwicklung skalierbarer Softwarearchitekturen im .NET-UmfeldEntwicklung cloudnativer Anwendungen und Services mit C# und Microsoft AzureUmsetzung ereignisbasierter und asynchroner Lösungen mit Azure FunctionsIntegration von Power-Platform-Lösungen in bestehende Microsoft-365-UmgebungenDesign und Implementierung sicherer REST-APIs sowie stabiler IntegrationskonzepteSicherstellung von Code-Qualität, Dokumentation und technischer Nachhaltigkeit Das bringen Sie mit: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine abgeschlossene Ausbildung als Fachinformatiker für Anwendungsentwicklung oder eine vergleichbare QualifikationMehrjährige Berufserfahrung in der Softwareentwicklung mit C# und .NETFundierte Kenntnisse in Microsoft Azure, insbesondere Azure Functions und App ServicesErfahrung im API-Design, REST, JSON sowie Authentifizierungs- und SicherheitskonzeptenKenntnisse in der Microsoft Power Platform sowie Integrationen mit Microsoft 365Strukturierte Arbeitsweise und ausgeprägte KommunikationsfähigkeitRoutine im agilen Arbeiten nach Scrum oder KanbanVerhandlungssichere Deutschkenntnisse in Wort und Schrift Ein Auszug der Benefits: Unbefristeter Arbeitsvertrag mit langfristiger PerspektiveBetriebliche Altersvorsorge und vermögenswirksame LeistungenFlexible Arbeitszeiten und Home-Office-Möglichkeiten30 Urlaubstage zzgl.
Eintritt Standort Dauer DHBW-Standort 2026 Igersheim-Harthausen 3 Jahre Mosbach Darin bilden wir dich aus: Bearbeitung von komplexen informationstechnischen AufgabenstellungenAnwendung von Methoden, Verfahren und Techniken der InformationstechnologieKoordination von Programmierung, Integration, Betreuung und Wartung neuer SoftwareFachwissen in den Bereichen digitale Kommunikation und Ingenieurwissenschaften Erwerb von Kenntnissen über Prozessabläufe in den Bereichen Produktion, Logistik und Datenkommunikation Das bringst du mit: Freude am Umgang mit Software und erste ProgrammierkenntnisseInteresse an IT-SystemenInteresse an ProgrammiersprachenErfolg in den Schulfächern Mathematik, Informatik, und EnglischAllgemeine Hochschulreife, fachgebundene Hochschulreife oder Fachhochschulreife mit zuvor absolviertem Studierfähigkeitstest der DHBW
Oracle, MS SQL Server, Exasol oder PostgreSQL.Programmier- und BI- Kenntnisse: Du kennst dich mit SQL, Python oder R aus und hast Erfahrungen mit Tools wie Power BI, Tableau, QlikSense oder Pyramid Analytics.Methodische Fähigkeiten: Du bist vertraut mit der Anforderungsanalyse und mit der Konzeption und Umsetzung moderner Datenbewirtschaftungsprozesse sowie Reporting-, Analyse- und Dashboard-Lösungen.Reisebereitschaft & Flexibilität: Überwiegend remote-Einsätze nach Abstimmung mit dem Kunden vorgesehen, aber du bist bereit zu reisen, wenn es erforderlich ist (z.B.
Mein Arbeitgeber Beratungsunternehmen im Bereich Frachtkostenprüfung und -optimierung mit 100-jähriger Geschichte Modernisierung der Datenbankinfrastruktur bzw. des Data-Warehouse, um hierauf aufbauend sukzessive Automatisierungs- und KI-Lösungen und Tools für verschiedene Analysen und Prüfungen zu implementieren Python-Programmierung Aufbau robuster Datenpipelines, die aus rohen Daten wertvolle Insights generieren Entwicklung und Aufbau der Infrastruktur, um datengetriebene Entscheidungen treffen zu können Aufbau und Weiterentwicklung eines zentralen Data-Vault Datawarehouse-Systems Konzeption, Implementierung und Automatisierung von Datenpipelines (ETL/ELT) mit Apache NiFi, dbt und Python Abgeschlossene Ausbildung zum Fachinformatiker für Anwendungsentwicklung, abgeschlossenes Studium mit Informatikbezug oder Quereinsteiger mit entsprechendem Know-How Fundierte Kenntnisse in der datengetriebenen Softwareentwicklung mit Python Erfahrung in der Frontend- und Backend-Entwicklung Kenntnisse in Django/HTMX von Vorteil Erste Erfahrung im Bereich Data Engineering, Datenbanken, ETL und/oder Data Warehouse Kenntnisse mit Apache NiFi und dbt von Vorteil Ein extrem spannendes und hochkomplexes Betätigungsfeld Attraktive Weiterentwicklungsmöglichkeiten 38-Stunden-Woche Remote-Work möglich Jobrad Gute Erreichbarkeit mit dem Auto und dem ÖPNV Individuelle Absprachen zu Benefits möglich Gehaltsinformationen 50.000 - 70.000 EUR p.a.
Das wünschen wir uns: Mehrjährige Erfahrung im Bereich Software Developement oder einer vergleichbaren Rolle in der Entwicklung, dem Deployment oder dem Betrieb von Integrationen innerhalb einer Enterprise-Landschaft Idealerweise Erfahrung mit der Mulesoft Integration Platform sowie dem MuleSoft Certified Developer und MuleSoft Certified Architect Erfahrung mit Aufbau und Nutzung generischer APIs und entsprechender API-getriebener Landschaften Sehr gutes Verständnis und sicherer Umgang mit API Contracts (RAML/OAS) und Message Queues (z. B. AWS SQS) Sehr gute Kenntnisse in event‑driven Architekturmustern und asynchronen Integrationen Erfahrung mit SOPS, AWS KMS und modernen Secret‑Management‑Praktiken Offenheit gegenüber unbekannten Technologien, insbesondere Enterprise Softwarelösungen Fundiertes Verständnis von IAM‑Prinzipien (Least Privilege, Cross‑Account Roles, Service Identities) Gute Programmierkenntnisse in Python oder anderen vergleichbaren Sprachen Freude an sauberer Dokumentation, Clean Code, hoher Code‑Qualität und kollaborativer Zusammenarbeit (Pull Requests, Peer Reviews, …) Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Darauf kannst Du Dich freuen: Einzigartige Unternehmenskultur: Basierend auf den Werten von Ferdinand Graf von Zeppelin handeln wir als Stiftungsunternehmen zukunftsorientiert, sozial und nachhaltig.
Deine Aufgaben Entwicklung, Anpassung und Migration von Datenquellen in BI- und Data-Warehouse-SystemenBetrieb, Konfiguration und Weiterentwicklung von Oracle Data Integrator (ODI)Unterstützung bei der Fehlerbehebung und ProduktbetreuungErstellung von Reports und Analyse-Lösungen mit Oracle Analytics Server / PublisherMitwirkung an Projekten in den Bereichen Controlling, Reporting und Datenanalyse Dein Skill-Profil Erfahrung im BI- und Data-Warehouse-UmfeldSehr gute Kenntnisse in Oracle Data Integrator (ODI) inklusive ProduktionsbetriebFundierte Kenntnisse in SQL / PL-SQLErfahrung mit Oracle-Datenbanken und LinuxIdealerweise Kenntnisse in Data-Lakehouse-Konzepten und analytischen ProjektenDeutschkenntnisse auf Niveau C1 Deine Vorteile bei uns Mobiles Arbeiten: Je nach Projekt ist mobiles Arbeiten nach Absprache bei uns möglich.Familienfreundlichkeit: Wir stocken Dein Gehalt bei Erkrankung Deines Kindes auf 100% auf.
Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
Ihre Aufgaben Erstellung und Auswertung von Vertriebs- und Controlling-Berichten zur Identifizierung von Trends und Optimierungspotenzialen Weiterentwicklung von KPIs und Dashboards zur Messung der Vertriebsperformance und Preisstrategie Transparente Aufbereitung und Visualisierung von Daten für Entscheidungsträger Einführung und Überwachung von Benchmarks zur Messung der Vertriebsleistung Analyse der Preisstrategien und Ableitung von datenbasierten Optimierungsvorschlägen Mitarbeit bei der Entwicklung und Anpassung von Rabatt- und Konditionssystemen Unterstützung bei der Erstellung und Aktualisierung von Preislisten und der Umsetzung von Preisänderungen Analyse historischer Daten und Marktinformationen zur Erstellung von Absatzprognosen Mitwirkung bei der Sortimentssteuerung Ihr Profil Studium im Bereich Data Science, Data Analytics, Wirtschaftswissenschaften oder einer vergleichbaren Fachrichtung im fortgeschrittenen Semester Erste Erfahrungen im Bereich Sales Excellence, Market Intelligence oder Data Analytics Sicherer Umgang mit MS Office-Anwendungen (insbesondere Excel) und Erfahrung mit VBA-Programmierung Kenntnisse in SAP und Datenvisualisierungs-Tools (z.B. SAP Analytics Cloud, PowerBI) Erfahrung mit Python zur Erstellung komplexerer Analysen und Modelle von Vorteil Fließende Deutschkenntnisse in Wort und Schrift Analytische Fähigkeiten und Verständnis für Geschäftsprozesse Kommunikationsstärke und Teamfähigkeit Hohe Eigeninitiative und lösungsorientiertes Arbeiten Unser Angebot Möglichkeit, Praxiserfahrung in der Vertriebssteuerung eines renommierten Stahlhandelsunternehmens zu sammeln Flache Hierarchien und Übernahme von Verantwortung Spannendes Aufgabengebiet und eigenverantwortliches mobiles Arbeiten Flexibles Arbeitszeitmodell Attraktive Vergünstigungen im Rahmen unserer Corporate Benefits Einsatzort: Mülheim an der Ruhr ǀ Nordrhein-Westfalen Art der Beschäftigung: Werkstudentische Tätigkeit
Ihre Aufgaben Erstellung und Auswertung von Vertriebs- und Controlling-Berichten zur Identifizierung von Trends und Optimierungspotenzialen Weiterentwicklung von KPIs und Dashboards zur Messung der Vertriebsperformance und Preisstrategie Transparente Aufbereitung und Visualisierung von Daten für Entscheidungsträger Einführung und Überwachung von Benchmarks zur Messung der Vertriebsleistung Analyse der Preisstrategien und Ableitung von datenbasierten Optimierungsvorschlägen Mitarbeit bei der Entwicklung und Anpassung von Rabatt- und Konditionssystemen Unterstützung bei der Erstellung und Aktualisierung von Preislisten und der Umsetzung von Preisänderungen Analyse historischer Daten und Marktinformationen zur Erstellung von Absatzprognosen Mitwirkung bei der Sortimentssteuerung Ihr Profil Studium im Bereich Data Science, Data Analytics, Wirtschaftswissenschaften oder einer vergleichbaren Fachrichtung im fortgeschrittenen Semester Erste Erfahrungen im Bereich Sales Excellence, Market Intelligence oder Data Analytics Sicherer Umgang mit MS Office-Anwendungen (insbesondere Excel) und Erfahrung mit VBA-Programmierung Kenntnisse in SAP und Datenvisualisierungs-Tools (z.B. SAP Analytics Cloud, PowerBI) Erfahrung mit Python zur Erstellung komplexerer Analysen und Modelle von Vorteil Fließende Deutschkenntnisse in Wort und Schrift Analytische Fähigkeiten und Verständnis für Geschäftsprozesse Kommunikationsstärke und Teamfähigkeit Hohe Eigeninitiative und lösungsorientiertes Arbeiten Unser Angebot Möglichkeit, Praxiserfahrung in der Vertriebssteuerung eines renommierten Stahlhandelsunternehmens zu sammeln Flache Hierarchien und Übernahme von Verantwortung Spannendes Aufgabengebiet und eigenverantwortliches mobiles Arbeiten Flexibles Arbeitszeitmodell Attraktive Vergünstigungen im Rahmen unserer Corporate Benefits Einsatzort: Mülheim an der Ruhr ǀ Nordrhein-Westfalen Art der Beschäftigung: Werkstudentische Tätigkeit
Mehrjährige Erfahrung als Data Engineer oder in einer ähnlichen Rolle bringst du mit. Sehr gute Kenntnisse in Python und SQL zeichnen dich aus. Du hast fundierte Praxis in der Entwicklung und im Betrieb von Data Pipelines gesammelt.
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Mein Arbeitgeber Remote option Übernahme der Projektleitung im Field Service Umfeld Technische Architektur und Solution Design für MS Dynamics CRM Cloud Analyse, Definition und Optimierung von Prozessen (Sales & Service Module) Erstellung von Konzepten für Workflows und Prozessautomatisierung Koordination mit internen Stakeholdern, PMO und externen Implementierungspartnern Einbindung von Power Platform und Power Automate Flows Unterstützung beim Übergang in ein Realisierungsprojekt (Optional) Fachliche Unterstützung bei Entwicklungssträngen (Entwicklung wird extern gemacht) Tiefe Expertise in MS Dynamics CRM, insbesondere in den Sales- und Service-Modulen Sehr gute Kenntnisse in Power Platform sowie Power Automate / Power Flows (Prozessautomatisierungen) Erfahrung mit Quote/Order-Prozessen in Dynamics Erfahrung mit TMS-Schnittstellen (Transport Management) SharePoint-Integration (Dokumentenmanagement, Einbindung ins CRM) Projektmanagement-Erfahrung im Industrieumfeld Fähigkeit zur Koordination mit PMO, Fachbereichen, Auftraggebern und externen Beratern Deutschkenntnisse (Projektsprache) Spannendes Realisierungsprojekt bei einem namhaften Kunden Ihr Kontakt Referenznummer 865278/1 Kontakt aufnehmen Telefon:+43 1 5353443 0 E-Mail: positionen@hays.at Anstellungsart Freiberuflich für ein Projekt
Mein Arbeitgeber Remote option Übernahme der Projektleitung im Field Service Umfeld Technische Architektur und Solution Design für MS Dynamics CRM Cloud Analyse, Definition und Optimierung von Prozessen (Sales & Service Module) Erstellung von Konzepten für Workflows und Prozessautomatisierung Koordination mit internen Stakeholdern, PMO und externen Implementierungspartnern Einbindung von Power Platform und Power Automate Flows Unterstützung beim Übergang in ein Realisierungsprojekt (Optional) Fachliche Unterstützung bei Entwicklungssträngen (Entwicklung wird extern gemacht) Tiefe Expertise in MS Dynamics CRM, insbesondere in den Sales- und Service-Modulen Sehr gute Kenntnisse in Power Platform sowie Power Automate / Power Flows (Prozessautomatisierungen)Erfahrung mit Quote/Order-Prozessen in DynamicsErfahrung mit TMS-Schnittstellen (Transport Management) SharePoint-Integration (Dokumentenmanagement, Einbindung ins CRM) Projektmanagement-Erfahrung im Industrieumfeld Fähigkeit zur Koordination mit PMO, Fachbereichen, Auftraggebern und externen BeraternDeutschkenntnisse (Projektsprache) Spannendes Realisierungsprojekt bei einem namhaften Kunden Ihr Kontakt Referenznummer 865278/1 Kontakt aufnehmen Telefon:+43 1 5353443 0 E-Mail: positionen@hays.at Anstellungsart Freiberuflich für ein Projekt
Du arbeitest routiniert mit Daten, SQL und Python und beherrschst idealerweise Methoden zur Datengenerierung, -aufbereitung und -analyse mit sehr guten Kenntnissen im Finance-Bereich. In enger Zusammenarbeit mit den Fachbereichen identifizierst Du neue Anwendungsfälle im Zusammenhang mit Datenqualität in den jeweiligen Anwendungen, koordinierst Maßnahmen zu dessen Optimierung und erstellst ein entsprechendes Reporting.
Im Studium mit vertiefter Praxis kombinierst Du ideal Theorie und Praxis. Deine im Hochschulstudium erworbenen Kenntnisse wendest Du in den betrieblichen Praxisphasen in konkreten Projekten an. So lernst Du nicht nur, warum etwas funktioniert, sondern auch, wie es funktioniert und wie es gemacht wird.
Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt DatabricksStrukturierung fachlicher Anforderungen und Umsetzung in effiziente technische LösungenVerantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data LakehouseDatenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende AnwendungenUmsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in ProjekteUnterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und DatenintegrationCloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit DatabricksSicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf FirmenwagenVielfältige Weiterbildungsangebote und interne CommunitiesAbsicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Integration moderner Tools & Plattform-ServicesOptimierung der Developer Experience: automatisierte, verständliche und sichere End-to-End Workflows schaffenUmsetzung von Built-in Governance, Security & Compliance gemeinsam mit InfoSec-Architekt*innen und Process EngineersEnge Zusammenarbeit mit Software-Entwicklungsteams: Anforderungen aufnehmen, Lösungen konzipieren und Umsetzung steuernSchnittstellenarbeit mit anderen Tribes, um gemeinsame Plattform-Weiterentwicklungen voranzutreiben Studium der (Wirtschafts-)Informatik oder vergleichbare Qualifikation sowie langjährige Erfahrung in moderner SoftwareentwicklungSehr gute Kenntnisse im DevSecOps-Umfeld: Build-Pipelines, Java-Frameworks, Mainframe, Container, CI/CDErfahrung mit Trusted DevOps Platforms, Trusted Paths sowie Developer Portalen (Backstage von Vorteil)Vorteil: Kenntnisse der agree21-Architektur oder die Fähigkeit, sich schnell einzuarbeitenSehr gute Deutschkenntnisse sowie gute Englischkenntnisse Hohe Abstraktions- und Konzeptionsfähigkeit, schnelle Auffassungsgabe, Teamorientierung und Kommunikationsstärke Abwechslungsreiche Tätigkeit in einem renommierten UnternehmenAnspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen BrancheHomeoffice-Möglichkeit Ihr Kontakt Ansprechpartner Divine Mbuyi Kasongo Referenznummer 864229/1 Kontakt aufnehmen Telefon:+49-(0)69-3008821117 E-Mail: divine.mbuyikasongo@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt Databricks Strukturierung fachlicher Anforderungen und Umsetzung in effiziente technische Lösungen Verantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data Lakehouse Datenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende Anwendungen Umsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in Projekte Unterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und Datenintegration Cloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit Databricks Sicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte 30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf Firmenwagen Vielfältige Weiterbildungsangebote und interne Communities Absicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Power BI) sowie Unterstützung bei der laufenden Datenbereitstellung für das Projektteam Unterstützung bei der technischen Dokumentation, bei Abstimmungen mit den Fachbereichen und bei projektbezogenen Aufgaben der operativen IT Koordination Kenntnisse in Power BI zwingend erforderlich Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen Erfahrung in Projekten, Data Engineering, Schnittstellen und Datenintegration Technologisches Know-how (mind. in mehreren Bereichen) Kenntnisse in Python, Git, CI/CD Wissen in ETL-/ELT-Prozesse, z.B. über REST-APIs SQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Betreuung im gesamten Bewerbungsprozess Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865475/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH