Eintritt Standort Dauer DHBW-Standort 2026 Igersheim-Harthausen 3 Jahre Mosbach Darin bilden wir dich aus: Bearbeitung von komplexen informationstechnischen AufgabenstellungenAnwendung von Methoden, Verfahren und Techniken der InformationstechnologieKoordination von Programmierung, Integration, Betreuung und Wartung neuer SoftwareFachwissen in den Bereichen digitale Kommunikation und Ingenieurwissenschaften Erwerb von Kenntnissen über Prozessabläufe in den Bereichen Produktion, Logistik und Datenkommunikation Das bringst du mit: Freude am Umgang mit Software und erste ProgrammierkenntnisseInteresse an IT-SystemenInteresse an ProgrammiersprachenErfolg in den Schulfächern Mathematik, Informatik, und EnglischAllgemeine Hochschulreife, fachgebundene Hochschulreife oder Fachhochschulreife mit zuvor absolviertem Studierfähigkeitstest der DHBW
Du arbeitest routiniert mit Daten, SQL und Python und beherrschst idealerweise Methoden zur Datengenerierung, -aufbereitung und -analyse mit sehr guten Kenntnissen im Finance-Bereich. In enger Zusammenarbeit mit den Fachbereichen identifizierst Du neue Anwendungsfälle im Zusammenhang mit Datenqualität in den jeweiligen Anwendungen, koordinierst Maßnahmen zu dessen Optimierung und erstellst ein entsprechendes Reporting.
Deine Aufgaben Entwicklung, Anpassung und Migration von Datenquellen in BI- und Data-Warehouse-SystemenBetrieb, Konfiguration und Weiterentwicklung von Oracle Data Integrator (ODI)Unterstützung bei der Fehlerbehebung und ProduktbetreuungErstellung von Reports und Analyse-Lösungen mit Oracle Analytics Server / PublisherMitwirkung an Projekten in den Bereichen Controlling, Reporting und Datenanalyse Dein Skill-Profil Erfahrung im BI- und Data-Warehouse-UmfeldSehr gute Kenntnisse in Oracle Data Integrator (ODI) inklusive ProduktionsbetriebFundierte Kenntnisse in SQL / PL-SQLErfahrung mit Oracle-Datenbanken und LinuxIdealerweise Kenntnisse in Data-Lakehouse-Konzepten und analytischen ProjektenDeutschkenntnisse auf Niveau C1 Deine Vorteile bei uns Mobiles Arbeiten: Je nach Projekt ist mobiles Arbeiten nach Absprache bei uns möglich.Familienfreundlichkeit: Wir stocken Dein Gehalt bei Erkrankung Deines Kindes auf 100% auf.
C1) in Wort und Schrift sind zwingend erforderlichQualifikation – abgeschlossenes Studium mit Schwerpunkt BWL, Wirtschaftsinformatik oder Controlling oder eine vergleichbare Qualifikation Berufserfahrung – idealerweise Erfahrung im Einkaufscontrolling, Category Management oder in der Datenanalyse IT-Kenntnisse – sehr gute Kenntnisse in Excel, Power BI und idealerweise ERP-Systemen (z. B. Microsoft Dynamics NAV / Business Central) Arbeitsweise – ausgeprägtes analytisches Denken, strukturierte und eigenständige Vorgehensweise sowie ein gutes Gespür für Zahlen und Zusammenhänge Teamgeist – Kommunikationsstärke, Verantwortungsbewusstsein und Spaß an bereichsübergreifender ZusammenarbeitUnsere Mission: alle Camper mit dem besten Zubehör ausstatten!
Datenanalyse und Steuerung Aufbau, Weiterentwicklung und Nachverfolgung von KPIs für logistische Prozesse Sicherstellung von Datentransparenz und hoher Datenqualität Aufbereitung komplexer Analysen als Entscheidungsgrundlage für das Management Prozessoptimierung in der Supply Chain Analyse bestehender Logistikprozesse und Ableitung konkreter Optimierungsmaßnahmen Kontinuierliche Weiterentwicklung der Ablauforganisation zur Effizienzsteigerung Steuerung langfristiger Optimierungsprojekte zur Verbesserung von Qualität, Beständen und Durchlaufzeiten Schnittstellenmanagement Enge Zusammenarbeit mit interner Logistik, IT, Operations und externen Logistikpartnern Steuerung des Materialflusses zwischen interner und externer Logistik Unterstützung von S&OP-Prozessen zur besseren Abstimmung von Absatz- und Kapazitätsplanung Bestands-, Fracht- und Forecast-Analysen Überwachung und Analyse der Bestandsqualität Durchführung von Frachtanalysen und datenbasierte Vorbereitung von Frachtausschreibungen Erstellung von Forecasts für die mittel- und langfristige Logistikplanung Dein Profil Fachliche Qualifikationen Abgeschlossenes Studium im Bereich Betriebswirtschaft mit Schwerpunkt Logistik, Supply Chain oder Materialwirtschaft oder eine vergleichbare Ausbildung mit relevanter Berufserfahrung Mehrjährige Berufserfahrung in der Logistikdatenanalyse oder im Logistikcontrolling Sehr gute Excel-Kenntnisse sowie sichere Anwendung von MS Office Idealerweise Erfahrung mit SAP im Bereich Warehouse Management Sprachkenntnisse Fließende Deutschkenntnisse (mindestens C1) Sehr gute Englischkenntnisse Persönliche Kompetenzen Ausgeprägtes analytisches Denkvermögen und strukturierte Arbeitsweise Unternehmerisches Denken sowie Ziel- und Ergebnisorientierung Hohe Organisationsfähigkeit und Belastbarkeit Interdisziplinäres Denken und ausgeprägte Teamfähigkeit Fähigkeit, komplexe Zusammenhänge verständlich zu kommunizieren Was dich bei Hamelin erwartet Bei Hamelin bekommst du das Beste aus zwei Welten: die Stabilität eines internationalen Unternehmens – und gleichzeitig kurze Wege, direkte Ansprache und echte Mitgestaltung wie im Mittelstand.
Strategy, Power BI, Tableau) Sicherstellung der Datenqualität sowie kontinuierliche Optimierung der Datenflüsse und -modelle Enge Zusammenarbeit mit IT, Finance und weiteren Fachbereichen, um datengetriebene Lösungen nutzbringend einzusetzen Mitwirkung bei der Weiterentwicklung der Data & Analytics-Strategie des Unternehmens Ihr Profil: Abgeschlossenes Studium im Bereich Wirtschaftsinformatik, Data Science, Statistik, Betriebswirtschaftslehre oder ein vergleichbares Studium Einschlägige Erfahrung im Bereich Data Analytics, idealerweise im Controlling-Umfeld Sehr gute Kenntnisse in BI-Tools (z. B. Strategy, Power BI, Tableau) sowie in SQL und mindestens einer Programmiersprache für Datenanalysen (z. B. Python, R) Fundiertes Verständnis von Finanz- und Controllingprozessen Erfahrung im Bereich Predictive Analytics und Machine Learning von Vorteil Analytische und konzeptionelle Stärke kombiniert mit ausgeprägter Kommunikationsfähigkeit und Freude an interdisziplinärer Zusammenarbeit Das bieten wir: Freuen Sie sich auf eine verantwortungsvolle Position in einem zukunftsorientierten Umfeld, in der Sie aktiv an der Gestaltung unserer BI- und Datenstrategie mitwirken.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQLAnforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best PracticesAufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und MonitoringStrategische Beratung zu Datenarchitekturen, Technologien und ToolsAktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Engineering und idealerweise auch Data ArchitectureSehr gute Kenntnisse in der Programmierung mit Python, SQL und ShellSicherer Umgang mit Infrastructure-as-Code, z.B. Terraform, und CI/CD-WorkflowsTiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und DatenmodellierungErfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder SnowflakeSehr gutes Verständnis für Data Governance, Sicherheit und DatenschutzIdealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQLDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermittelnKommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining)Entwicklung und Implementierung von Datenmodellen zur ProzessoptimierungNutzung von Google Cloud Platform (GCP) für Datenmanagement und AnalyseAufbau von skalierbaren Datenpipelines und ETL-ProzessenZusammenarbeit mit internen Fachbereichen zur Digitalisierung und AutomatisierungLangfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer FachrichtungErfahrung als Data Scientist oder in einer ähnlichen RolleFundierte Kenntnisse in:Google Cloud Platform (BigQuery, AI/ML-Services)Programmiersprachen: Python, SQLData Analytics, Machine Learning, Data MiningErfahrung mit ETL-Prozessen und Cloud-ArchitekturenAnalytisches Denken, strukturierte Arbeitsweise und KommunikationsstärkeSehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten UnternehmenAngenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener KommunikationsstilJährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugenEreigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank)Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und DurchsatzDurchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-DatenmengenKenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL)Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity)Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl. Tests und Git-WorkflowSehr gute Python-Kenntnisse (pandas/NumPy, File I/O, Regex/Textverarbeitung, Performance-Optimierung)Praktische Erfahrung mit SQL und DatenmodellierungErfahrung im Parsing von JSON/XML/CSV und im Umgang mit verschiedenen EncodingsSichere Zusammenarbeit über Git (Pull Requests, Branching)Erfahrung mit Vektor-Datenbanken (z.B.
Operative Unterstützung bei der Umsetzung des EU AI ACTAnalyse und Bewertung bestehender AI- und Datenmodelle hinsichtlich regulatorischer KonformitätKlassifizierung, Dokumentation und Risikobewertung bankinterner AI-SystemeAnpassung von Datenpipelines, Modellierungsprozessen und Governance-Strukturen gemäß EU AI ACTErstellung revisionssicherer Dokumentationen und Reports sowie Begleitung interner/externer Prüfungen Bankenerfahrung ist VoraussetzungTiefes Know-how in Machine Learning, Data Analytics und statistischer ModellierungErfahrung in regulatorischen Umsetzungsprojekten in Banken, insbesondere EU AI ACT, BAIT, ModellrisikomanagementSichere Kenntnisse in Python, gängigen ML-Frameworks, MLOps-Umgebungen und DatenqualitätsverfahrenNachweisbare Erfahrung in Modellvalidierung, Dokumentation und Modell-Governance im FinanzsektorFähigkeit, komplexe technische Inhalte in klare regulatorische Anforderungen zu übersetzen Dynamisches Projektumfeld Ihr Kontakt Referenznummer 866057/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Bachelorabschluss oder höherer Abschluss (Universität, FH) in Wirtschaftsinformatik, Data Science, Controlling, BWL, Information Systems oder einer vergleichbaren Fachrichtung Stark ausgeprägtes analytisches Denkvermögen, hohe Datenaffinität und Fähigkeit, komplexe Anforderungen in strukturierte Lösungen zu überführen Interesse am Ausbau von Kenntnissen in BI-Tools, Datenmodellierung und Prozessautomatisierung sowie Bereitschaft zur kontinuierlichen Weiterbildung Selbstständige, zuverlässige und qualitätsbewusste Arbeitsweise mit hohem Detailfokus Gute Englischkenntnisse in Wort und Schrift; Deutschkenntnisse sowie Erfahrung im Reporting, im Umgang mit Daten oder BI-Tools (z.B.
Deine Aufgaben Sie analysieren bestehende aktuarielle Prozesse rund um Reserveanalysen, Abschlüsse nach IFRS und Solvency II sowie Planung und ReportingSie entwickeln und implementieren technische Lösungen zur Automatisierung von ArbeitsabläufenSie identifizieren Potenziale zur Prozessoptimierung und setzen diese aktiv um z.B. mit gängigen Programmiersprachen und DatenbanksystemenSie arbeiten standortübergreifend mit Teams in Frankfurt und Köln sowie mit anderen (inter-)nationalen Einheiten des Unternehmens zusammen Ihre Arbeit bietet Ihnen eine abwechslungsreiche Mischung aus technischer Entwicklung, Analyse und Zusammenarbeit mit verschiedenen Teams Deine Fähigkeiten Sie haben eine Leidenschaft für Prozesse, Daten und Zahlen und begeistern sich für neue TechnologienSie haben Berufserfahrung als Data Scientist oder Data Engineer, idealerweise im (aktuariellen) VersicherungsumfeldSie können Erfolge in der Prozessoptimierung und -automatisierung nachweisenSie programmieren gerne und haben vertiefte Kenntnisse in modernen Programmiersprachen wie R, Python oder SQLSie arbeiten eigenverantwortlich und strukturiert, sind teamfähig und treten souverän aufSie haben ein erfolgreich abgeschlossenes Studium in Data Science, Mathematik oder einem vergleichbaren FachgebietSie besitzen gute Excel-Kenntnisse; aktuarielle Grundkenntnisse sind von VorteilSie sprechen sehr gutes Deutsch und Englisch in Wort und Schrift.
Ihre Aufgaben: Konzeption, Modellierung und Realisierung von Datawarehouse-/BI-Lösungen zusammen mit IT-Leitung und Fachkolleg*innenEntwicklung, Wartung und Optimierung von ETL-/ELT-Prozessen und DatenbankenDatenbankprogrammierung, Datenmodellierung und Prozessoptimierung zur DatenbereitstellungErfassung fachlicher Anforderungen und Umsetzung von Datenflüssen und -strukturenDurchführung von Ad-hoc-Analysen, Berichtserstellung und Dokumentationen Ihr Profil: Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Statistik, BWL oder vergleichbare Ausbildung (Quereinsteiger mit Erfahrung willkommen)Erfahrung in Datenbankprogrammierung (SQL), Datenmodellierung und Entwicklung von ETL-/ELT-StreckenIdealerweise Kenntnisse in Microsoft Azure Data Diensten (z. B. Azure SQL DB, Azure Data Lake, Azure Data Factory, Power BI)Kenntnisse in Python oder Java und erste Erfahrungen in Machine Learning von VorteilEngagement für neue Themen und LösungenTeamfähigkeit und strukturierte, selbstständige ArbeitsweiseVerständnis betriebswirtschaftlicher ZusammenhängeSehr gute Deutsch- und grundlegende Englischkenntnisse Was unser Kunde Ihnen bietet: Unbefristetes Arbeitsverhältnis mit abwechslungsreichen TätigkeitenVielfältige Entwicklungsmöglichkeiten und leistungsgerechte VergütungModernes Arbeitszeitmodell, mobiles Arbeiten, 30 Urlaubstage + freier Tag an Heiligabend und SilvesterGute ÖPNV-Erreichbarkeit und FahrradstellplatzWeitere Benefits: Firmenfitnessprogramm, JobRad, Zuschuss zur Kinderbetreuung, Zeitwertkonto (z.
Konzeption und Implementierung moderner Datenarchitekturen für Anwendungen wie semantische Suche, Knowledge-Management und Text-to-SQL Anforderungsanalyse und -definition und Entwicklung skalierbarer Daten- und KI-Lösungen in enger Zusammenarbeit mit Kund/innen Implementierung von Datenpipelines und -infrastrukturen für große Mengen strukturierter und unstrukturierter Daten Sicherstellen der Datenqualität, Sicherheit und Governance und Erarbeitung von Best Practices Aufbau und Betrieb skalierbarer Cloud-Infrastrukturen, automatisiere Deployments und Monitoring Strategische Beratung zu Datenarchitekturen, Technologien und Tools Aktiver Wissenstransfer im Team zur Weiterentwicklung des Data Engineerings anhand moderner NLP-Ansätzen wie LLMs, Embeddings, Knowledge Graphs und RAG Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Engineering und idealerweise auch Data Architecture Sehr gute Kenntnisse in der Programmierung mit Python, SQL und Shell Sicherer Umgang mit Infrastructure-as-Code, z.B. Terraform, und CI/CD-Workflows Tiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und Datenmodellierung Erfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder Snowflake Sehr gutes Verständnis für Data Governance, Sicherheit und Datenschutz Idealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQL Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln Kommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Analyse und Auswertung großer Datenmengen (Outbound-Datenanalyse, Data Mining) Entwicklung und Implementierung von Datenmodellen zur Prozessoptimierung Nutzung von Google Cloud Platform (GCP) für Datenmanagement und Analyse Aufbau von skalierbaren Datenpipelines und ETL-Prozessen Zusammenarbeit mit internen Fachbereichen zur Digitalisierung und Automatisierung Langfristige strategische Projekte zur Verbesserung der Datenverfügbarkeit und Geschwindigkeit Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Data Science, Mathematik, Statistik oder vergleichbarer Fachrichtung Erfahrung als Data Scientist oder in einer ähnlichen Rolle Fundierte Kenntnisse in: Google Cloud Platform (BigQuery, AI/ML-Services) Programmiersprachen: Python, SQL Data Analytics, Machine Learning, Data Mining Erfahrung mit ETL-Prozessen und Cloud-Architekturen Analytisches Denken, strukturierte Arbeitsweise und Kommunikationsstärke Sehr gute Deutsch- und Englischkenntnisse Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Angenehmes Arbeitsklima Ein hoch motiviertes Team und ein offener Kommunikationsstil Jährlicher Urlaubsanspruch von 30 Tagen Ihr Kontakt Referenznummer 854939/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Studium, fundierte Berufserfahrung oder vergleichbare Qualifikation Erfahrung in PCF-Modellierung, PCF-Analyse und gängigen Methodiken Kenntnisse im Life Cycle Assessment- LCA Sehr routinierter Umgang mit Daten, Datenmanagement und Excel (SVERWEIS, Datenspiegelung etc Praxis im Umfeld von PCF-Tools oder bereits durchgeführte PCF-Rollouts von Vorteil Sicherer Umgang mit großen Rohstoffportfolios und Sekundärdatenbanken, z.B.
Tests und Git-Workflow Sehr gute Python-Kenntnisse (pandas/NumPy, File I/O, Regex/Textverarbeitung, Performance-Optimierung) Praktische Erfahrung mit SQL und Datenmodellierung Erfahrung im Parsing von JSON/XML/CSV und im Umgang mit verschiedenen Encodings Sichere Zusammenarbeit über Git (Pull Requests, Branching) Erfahrung mit Vektor-Datenbanken (z.B.
Ihre Aufgaben Erstellung aussagekräftiger Vertriebs-Reportings und Controlling-Berichte, Identifikation von Trends sowie Optimierungspotenzialen und Ableitung datenbasierter Handlungsempfehlungen Weiterentwicklung von KPIs und Dashboards zur Messung der Vertriebsperformance, insbesondere mit SAP Analytics Cloud Fundierte Datenanalysen zur kontinuierlichen Verbesserung der Vertriebsprozesse und -strategien sowie Bereitstellung datengestützter Erkenntnisse für Preisgestaltung und Mengen-/Absatzplanung Transparente Aufbereitung und Visualisierung von Daten für Entscheidungsträger sowie Unterstützung bei der Datenbereitstellung für operative Prozesse Enge Zusammenarbeit mit Vertrieb, Einkauf, Controlling und IT als Schnittstelle für datenanalytische Fragen Eigenverantwortliches Projektmanagement für die Implementierung und Betreuung von EDI-Schnittstellen mit Kunden und Lieferanten Definition von Anforderungen, Koordination der Umsetzung mit internen Fachbereichen, externen Partnern und der IT unter Nutzung von Projektmanagement-Tools wie Jira Ihr Profil Abgeschlossenes Studium im Bereich Data Science, Data Analytics oder einem vergleichbaren Gebiet, alternativ im Bereich Wirtschaftswissenschaften Berufserfahrung im Bereich Sales Excellence, Market Intelligence, Controlling oder Data Analytics Praktische Erfahrung in der Datenextraktion und -analyse mit SAP ERP sowie idealerweise Kenntnisse in der Datenvisualisierung mit SAP Analytics Cloud (SAC) Erfahrung im Projektmanagement, vorzugsweise im IT- oder Schnittstellenumfeld, idealerweise unter Nutzung von Tools wie Jira Kenntnisse in weiteren Visualisierungstools (z.
SOX-Compliance) zur Sicherstellung eines wirksamen Risikomanagements Analyse von Prozess- und Organisationsveränderungen sowie Identifikation neuer Risiken in einem dynamischen Geschäftsumfeld Einsatz moderner Data-Analytics-Methoden, um Prüfungsqualität und Effizienz kontinuierlich zu steigern Präsentation von Audit-Ergebnissen und Handlungsempfehlungen an das Senior Management sowie Begleitung der Umsetzung von Maßnahmen Sparringspartner und Trusted Advisor für Fachbereiche zur nachhaltigen Optimierung von Prozessen Verfolgung regulatorischer Entwicklungen und neuer Standards im Audit- und Compliance-Umfeld Abgeschlossenes Studium der Betriebswirtschaft, Accounting, Finance oder eines vergleichbaren StudiengangsEinschlägige Berufserfahrung im Audit-Umfeld, idealerweise inklusive Erfahrung in der WirtschaftsprüfungTiefgehende Kenntnisse in internen Kontrollsystemen und Risikomanagement innerhalb eines ProduktionsunternehmensAusgeprägte Kommunikationsstärke und Überzeugungskraft im Austausch mit Senior ManagementHohe Analysefähigkeit, strukturierte Arbeitsweise und Souveränität in projektleitenden FunktionenBereitschaft zu Reisen innerhalb EuropasSehr gute Englischkenntnisse; Deutschkenntnisse sind ein PlusEine CIA-Zertifizierung ist von Vorteil Umfassende Gesundheits- und Wellnessprogramme Weiterbildungsmöglichkeiten und Kostenübernahme Zugang zu Trainings, Workshops und Online-Lernangeboten sowie Mentoring-ProgrammenFlexible Arbeitszeitmodelle ink.
SOX-Compliance) zur Sicherstellung eines wirksamen Risikomanagements Analyse von Prozess- und Organisationsveränderungen sowie Identifikation neuer Risiken in einem dynamischen Geschäftsumfeld Einsatz moderner Data-Analytics-Methoden, um Prüfungsqualität und Effizienz kontinuierlich zu steigern Präsentation von Audit-Ergebnissen und Handlungsempfehlungen an das Senior Management sowie Begleitung der Umsetzung von Maßnahmen Sparringspartner und Trusted Advisor für Fachbereiche zur nachhaltigen Optimierung von Prozessen Verfolgung regulatorischer Entwicklungen und neuer Standards im Audit- und Compliance-Umfeld Abgeschlossenes Studium der Betriebswirtschaft, Accounting, Finance oder eines vergleichbaren Studiengangs Einschlägige Berufserfahrung im Audit-Umfeld, idealerweise inklusive Erfahrung in der Wirtschaftsprüfung Tiefgehende Kenntnisse in internen Kontrollsystemen und Risikomanagement innerhalb eines Produktionsunternehmens Ausgeprägte Kommunikationsstärke und Überzeugungskraft im Austausch mit Senior Management Hohe Analysefähigkeit, strukturierte Arbeitsweise und Souveränität in projektleitenden Funktionen Bereitschaft zu Reisen innerhalb Europas Sehr gute Englischkenntnisse; Deutschkenntnisse sind ein Plus Eine CIA-Zertifizierung ist von Vorteil Umfassende Gesundheits- und Wellnessprogramme Weiterbildungsmöglichkeiten und Kostenübernahme Zugang zu Trainings, Workshops und Online-Lernangeboten sowie Mentoring-Programmen Flexible Arbeitszeitmodelle ink.
Realtime-Replikation/CDC dort, wo sinnvoll Datenqualität & Governance: Aufbau automatisierter DQ-Checks, Lineage/Metadata-Pflege und Dokumentation Performanceoptimierung (Push-Down, Parallelisierung, Partitionierung), sowie Kosten-/Leistungs-Tuning in Cloud-Szenarien Enge Zusammenarbeit mit Fachbereichen (Anforderungsanalyse, Data Contracts) und Data Analytics-Team (Modellierung, Semantik) Wünschenswert wäre CI/CD & Automatisierung: Versionierung, Build/Deploy-Pipelines, Testautomatisierung und „infrastructure as code“ für Datenstrecken Dokumentation & kontinuierliche Verbesserung der Integrationsarchitektur und Betriebsprozesse IHR PROFIL Studium der (Wirtschafts-)Informatik oder gleichwertige Praxis 3+ Jahre ETL-/Data-Engineering-Erfahrung, davon substantiell mit SAP Data Services und (idealerweise) SAP Datasphere Sehr gute SQL-Kenntnisse (z. B. SAP HANA SQLScript), Datenmodellierung (3NF/Star/Snowflake) und Datenintegration Routine in Betrieb/Monitoring (z. B. BODS Management Console), Fehleranalyse und Job-Stabilisierung Deutsch und Englisch in Wort und Schrift Orchestrierung/Workflow (z.
Realtime-Replikation/CDC dort, wo sinnvoll Datenqualität & Governance: Aufbau automatisierter DQ-Checks, Lineage/Metadata-Pflege und Dokumentation Performanceoptimierung (Push-Down, Parallelisierung, Partitionierung), sowie Kosten-/Leistungs-Tuning in Cloud-Szenarien Enge Zusammenarbeit mit Fachbereichen (Anforderungsanalyse, Data Contracts) und Data Analytics-Team (Modellierung, Semantik) Wünschenswert wäre CI/CD & Automatisierung: Versionierung, Build/Deploy-Pipelines, Testautomatisierung und „infrastructure as code“ für Datenstrecken Dokumentation & kontinuierliche Verbesserung der Integrationsarchitektur und Betriebsprozesse IHR PROFIL Studium der (Wirtschafts-)Informatik oder gleichwertige Praxis 3+ Jahre ETL-/Data-Engineering-Erfahrung, davon substantiell mit SAP Data Services und (idealerweise) SAP Datasphere Sehr gute SQL-Kenntnisse (z. B. SAP HANA SQLScript), Datenmodellierung (3NF/Star/Snowflake) und Datenintegration Routine in Betrieb/Monitoring (z. B. BODS Management Console), Fehleranalyse und Job-Stabilisierung Deutsch und Englisch in Wort und Schrift Orchestrierung/Workflow (z.
Auch wenn Du auf Basis Deiner bisherigen Erfahrungen noch nicht ganz auf dem Niveau eines „Head of …“ bist – hier bekommst Du die Chance, Deine Vision in einer skalierenden AI-Umgebung praktisch zu beweisen. IHRE KENNTNISSE Du bringst technologische Tiefe und Weitblick mit, um KI-Lösungen skalierbar und wirkungsvoll zu gestalten. Sicherer Umgang mit modernen AI-Stacks: Python, TensorFlow, PyTorch, Hugging Face.
Erfolgreich abgeschlossenes (Bachelor-)Studium mit der Fachrichtung BWL, Naturwissenschaften, Ingenieurwesen oder eine kaufmännische Berufsausbildung, bestenfalls mit technischem Know-how und entsprechender ErfahrungFundierte Kenntnisse im Umgang mit ERP-Systemen oder WarenwirtschaftssystemenSpielend leichter Umgang mit MS-Office, besonders mit ExcelGenauigkeit, Gewissenhaftigkeit und KonzentrationsfähigkeitStrukturiertes, logisches und unternehmerisches DenkenAusgeprägte analytische FähigkeitenSchnelles Verstehen von komplexen Prozessen, Artikelstrukturen und StücklistenFlexible, verlässliche und selbstständige ArbeitsweiseSchutz und Sicherheit für sensible DatenSehr gute Deutschkenntnisse (mind.
Abitur oder allgemeine Hochschulreife Interesse an Daten, Mathematik, Informatik und analytischem Denken Gute Kenntnisse in Mathematik & erste Berührungspunkte mit Programmierung sind von Vorteil Selbstständige Arbeitsweise, Teamfähigkeit & Spaß am Lernen Durchhaltevermögen und MotivationGehalt und Sonderleistungen Wir übernehmen deine Studiengebühren und du erhältst außerdem ein überdurchschnittliches Ausbildungsgehalt (1.
B. zum ElektronikerIdealerweise: Weiterbildung zum Fachwirt für Einkauf, Technischen Fachwirt oder Technischen Betriebswirt oder betriebswirtschaftliches Studium (BWL)Berufserfahrung im technischen Einkauf oder im Projekteinkauf mit technischem Verständnis im elektrotechnischen AnlagenbauWünschenswert: Kenntnisse im VertragsrechtDeutschkenntnisse Level C1, verhandlungssichere Englischkenntnisse und Führerschein Klasse B Wir bieten Verlässlichkeit: Unbefristete Anstellung in einem internationalen Umfeld bei einem krisensicheren und wachsenden UnternehmenAttraktives Gehalt: Leistungsbezogene und faire Bezahlung, vergünstigte Mitarbeiteraktien und Zuschuss zur betrieblichen AltersvorsorgeViele Urlaubstage: 30 Tage UrlaubPerspektiven + SPIE Akademie: Vielfältige Entwicklungsmöglichkeiten über unsere unternehmenseigene Akademie, sowie vielfältige Karrieremöglichkeiten innerhalb der gesamten UnternehmensgruppePrämie bis zu 2.550€: Bei erfolgreicher Einstellung durch das Mitarbeitenden-Empfehlungsprogramm „Gute Leute kennen gute Leute“Unterstützungsfond: Die Möglichkeit den Rest Cent der Nettovergütung zu spenden, um finanzielle Hilfe bei unverschuldeten Notlagen zu erhaltenWeitere Benefits: Dienstradleasing, Firmenhandy, hohe Arbeitssicherheits-Standards, Mitarbeiterevents sowie Corporate Benefits (Vergünstigungen in den Bereichen Shopping, Freizeit und Reisen) Wir freuen uns über eine aussagekräftige Bewerbung oder über eine Empfehlung (SPIE-Mitarbeiterempfehlungsprogramm).
Zusätzlich sind wir an unseren Standorten in Hamburg, Bremen und Augsburg jederzeit für Sie da.Ihr Anforderungsprofil: Sie haben ein erfolgreich abgeschlossenes Studium im Bereich Mathematik, Informatik, Physik, Elektrotechnik oder vergleichbarMehrere Jahre Berufserfahrung in komplexen Software-SystemenErfahrung im Bereich Continuous Integration / Continuous DeliveryErfahrung mit agilen EntwicklungsprozessenErfahrung in modellgetriebener Softwareentwicklung mit EMF/Xtext wünschenswertGute Programmierkenntnisse in C / C++Gute VxWorks- bzw. Linux-KenntnissePython-Kenntnisse sind wünschenswertDOORS-, Rhapsody- und VectorCAST-Kenntnisse sind wünschenswert Sie bringen außerdem mit: Sehr gute Deutsch- und EnglischkenntnisseFlexibilität und Teamfähigkeit Wir bieten Ihnen: Unbefristetes ArbeitsverhältnisEin angenehmes und kollegiales ArbeitsklimaÜbertarifliche BezahlungUrlaubs- und WeihnachtsgeldZusatzleistungen VWL und BAVVergünstigung beim E-Bike-Leasing (JobRad)
Umsetzung von Anforderungen mehrheitlich im Backend (Java, Spring Boot, Postgres) sowie teilweise im Frontend (Angular, Typescript)Durchführung von technischen Konzeptionen, Analysen und Design neuer FeaturesEntwicklung von Spring-Webapplikationen in der Azure CloudEntwicklung und Pflege von CI/CD-Pipelines für Code-, Daten- und ModellbereitstellungenGemeinsame Verantwortung für die Applikation ChatGPT-SkillInitiale Entwicklung, kontinuierliche Weiterentwicklung und stabiler Betrieb der Systeme im Rahmen der DevOps-Philosophie Fundierte Berufserfahrung auf Senior-Stufe in der Entwicklung moderner WebapplikationenSehr gute Kenntnisse in Java, Spring Boot, Angular und TypescriptHochschulabschluss in Informatik oder gleichwertige BerufserfahrungGutes Verständnis von generativen KI-Lösungen (Azure OpenAI Service), einschliesslich Infrastruktur-, Datenverarbeitungs- und BereitstellungsanforderungenFähigkeit zur Zusammenarbeit mit Data Scientists, Entwicklern und Solution ArchitectsBereitschaft, Wissen zu teilen und Teammitglieder in Applikationsentwicklung, IaC und CI/CD zu schulenPython-Erfahrung von VorteilSprachkenntnisse: Deutsch C2, Englisch B2 Arbeit in einem DevOps-Team bestehend aus Data Scientists, Business Engineers und DevOps EngineersMitarbeit am Aufbau einer GenAI-Plattform sowie an der Weiterentwicklung des ChatGPT-SkillsTätigkeit in einem modernen technischen Umfeld mit Cloud-, CI/CD- und GenAI-Technologien Ihr Kontakt Referenznummer 860773/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Affinität für digitale Netzwerke: Du hast Erfahrung im Umgang mit digitalen Tools und Netzwerken (LinkedIn Sales Navigator, Sales Force oder anderen CRM-Tools).Vertriebliche Expertise: Ein grundlegendes Verständnis über Vertriebsprozesse und Methoden sowie Erfahrung in der Identifikation und Bewertung von Zielkunden zeichnen dich aus.Marktanalyse: Du verfügst über ausgeprägte Kenntnisse zur Markt- & Kundenrecherche und bist bereit, dich in wechselnde Themen auf einem vertriebsfähigen Niveau einzuarbeiten.Kommunikationsstärke & Präsentationsfähigkeit: Du kommunizierst souverän in Deutsch und Englisch und verfügst über ein sicheres Auftreten und sehr guten Präsentationsfähigkeiten - auch vor größeren Gruppen.Reisebereitschaft & Flexibilität: Du bist bereit zu reisen, wenn es erforderlich ist (z.B. für Messe- und Kundenbetreuung onsite).
Erste Basiskenntnisse mit Angular, Versionskontrolle, API-Design/ Rest, Web-Services und IT-Systemen Erste Kenntnisse über Machine Learning und KI-Systeme (v.a. Large Language Models und GenAI Agents) Grundkenntnisse über Semantic Web, Knowledge Graphs, Graph Data Science, Data Mesh und Data Products von Vorteil Interesse an IT-Themen im Banken-/Finanzwesen, wie z.B.
Fernerkundungs- und Bilddaten, klimatische oder hydrologische Daten)Erfahrung in der Anwendung von maschinellem Lernen, räumlicher Optimierung oder anderer Methoden aus dem Bereich Künstliche Intelligenz (KI)gute Kenntnisse in einer Programmiersprache, z.B. Python, R oder Matlabgute Kenntnisse in ArcGIS oder QGISeine ausgeprägte Motivation, die Umweltplanung durch KI-gestützte Methoden weiterzuentwickeln und sowohl Klimawandel als auch Biodiversitätsverlust zu bekämpfen Die Leibniz Universität Hannover setzt sich für Chancengleichheit und Diversität ein.
SAP FI/CO, MM, SD, PP, EWM) und weiteren Systemen für eine effiziente Datenintegration Erstellung von Datenpipelines und ETL-Prozessen zur Verarbeitung großer Datenmengen aus verschiedenen SAP-Modulen und anderen Quellen Beratung der Fachbereiche bei der Nutzung von Daten aus SAP-Systemen zur Optimierung von Geschäftsprozessen Zusammenarbeit mit interdisziplinären Teams, um Anforderungen aus verschiedenen Fachbereichen aufzunehmen und datengetriebene Lösungen zu entwickeln Unterstützung bei der Analyse, Modellierung und Visualisierung von Daten Mitwirkung in der strategischen Weiterentwicklung eines globalen Berichtswesens Ihr Profil: Abgeschlossene Ausbildung oder Studium im Bereich (Wirtschafts-) Informatik oder vergleichbar - alternativ mehrjährige äquivalente Berufserfahrung Kommunikationsstärke und Fähigkeit, komplexe technische Zusammenhänge für nicht-technische Stakeholder verständlich zu machen Fundierte Erfahrung in der Modellierung und Visualisierung von Daten, idealerweise mit Qlik-Technologien Praktische Kenntnisse in SAP-Systemen und verschiedenen Modulen (z. B. SAP FI/CO, MM, SD, PP), optional ist Erfahrung in der Integration von SAP-Daten von Vorteil Fundierte SQL Kenntnisse sind erwünscht, Erfahrung in Programmiersprachen oder ähnlichen Tools zur Datenanalyse ist wünschenswert Kenntnisse im Aufbau und der Optimierung von Datenarchitekturen Gute Deutsch- und Englischkenntnisse in Wort und Schrift Einen Beitrag mit Bedeutung leisten: Bei uns haben Sie die Chance, aktiv Verantwortung zu übernehmen und die Gesundheitsversorgung unserer Gesellschaft nachhaltig zu verbessern.
Anforderungen IRT Expert:Masterabschluss in Naturwissenschaften und mehrere Jahre Erfahrung in einer verwandten wissenschaftlichen Disziplin oder Bachelorabschluss mit langjähriger Erfahrung in einem verwandten Bereich oder umfangreiche Erfahrung im Qualitätsumfeld.Erfahrung im IRT-Bereich, nachgewiesenes vertieftes Wissen über die technischen Aspekte und Funktionen eines IRT-Systems.Gute Kenntnisse des generischen Software-Entwicklungszyklus, einschließlich der Validierung von Cloud-Systemen.Gute Kenntnisse der regulatorischen Anforderungen und GMP/GCP-Vorgaben in der Pharmaindustrie und deren Anwendung auf die Funktion sind erforderlich.Gute Kenntnisse globaler investigativer Arzneimittelaktivitäten sowie allgemeiner klinischer Studienausführung und -design.Fähigkeit, komplexe Aufgaben eigenständig zu initiieren und zu analysieren, unter Berücksichtigung der geltenden Vorschriften, Wirtschaftlichkeit und Zeitpläne.Ausgezeichnete Kommunikationsfähigkeiten und fließend in Englisch, sowohl in Wort als auch in Schrift.
Mit unserer langjährigen Rekrutierungserfahrung und unseren Kenntnissen des Personalmarktes bieten wir Fach- und Führungskräften eine starke Partnerschaft. Denn durch unsere intensiven Beziehungen über alle Industriebranchen hinweg vermitteln wir Talenten spannende Aufgaben und attraktive Positionen.
Deine Tätigkeitsschwerpunkte Der Bachelorstudiengang in Data Science und Künstliche Intelligenz vermittelt praxisorientierte Kenntnisse in Informatik, Mathematik, Statistik und Betriebswirtschaftslehre. Studierende lernen, wie sie große Datenmengen analysieren und intelligente KI-gestützte Anwendungen zur Optimierung von Geschäftsprozessen entwickeln können.
Langjährige Erfahrung im Bereich PLM (Teamcenter) und SAP MDG (Master Data Governance), idealerweise in einer vergleichbaren Position. Fundierte Kenntnisse in der Übersetzung von Business-Anforderungen in technische Lösungen. Erfahrung im Umgang mit SAP-Datenmodellen und Tabellen sowie im Management von Stammdaten.
Das wünschen wir uns: Mehrjährige Erfahrung im Bereich Software Developement oder einer vergleichbaren Rolle in der Entwicklung, dem Deployment oder dem Betrieb von Integrationen innerhalb einer Enterprise-Landschaft Idealerweise Erfahrung mit der Mulesoft Integration Platform sowie dem MuleSoft Certified Developer und MuleSoft Certified Architect Erfahrung mit Aufbau und Nutzung generischer APIs und entsprechender API-getriebener Landschaften Sehr gutes Verständnis und sicherer Umgang mit API Contracts (RAML/OAS) und Message Queues (z. B. AWS SQS) Sehr gute Kenntnisse in event‑driven Architekturmustern und asynchronen Integrationen Erfahrung mit SOPS, AWS KMS und modernen Secret‑Management‑Praktiken Offenheit gegenüber unbekannten Technologien, insbesondere Enterprise Softwarelösungen Fundiertes Verständnis von IAM‑Prinzipien (Least Privilege, Cross‑Account Roles, Service Identities) Gute Programmierkenntnisse in Python oder anderen vergleichbaren Sprachen Freude an sauberer Dokumentation, Clean Code, hoher Code‑Qualität und kollaborativer Zusammenarbeit (Pull Requests, Peer Reviews, …) Sehr gute Deutsch- und Englischkenntnisse in Wort und Schrift Darauf kannst Du Dich freuen: Einzigartige Unternehmenskultur: Basierend auf den Werten von Ferdinand Graf von Zeppelin handeln wir als Stiftungsunternehmen zukunftsorientiert, sozial und nachhaltig.
Gute Kenntnisse im Bereich Bildverarbeitung, Statistik, Data Analytics oder Maschinelles Lernen Grundkenntnisse in Python und Gitlab Kenntnisse in OpenCV, o.ä.
Power BI Du evaluierst neueste Technologien und Features, erprobst diese in Form von Proof of Concepts und führst sie als neue (Teil )Produkte für die Data & Analytics Plattform ein Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in Wirtschaftswissenschaften, Statistik, Business Intelligence, Data Analytics oder anderen einschlägigen Bereichen hast du erfolgreich abgeschlossen Du hast mind. 5 Jahre Berufserfahrung in den Bereichen Business Intelligence, Data Analytics, Data Engineering oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Du verfügst über weitreichende Kenntnisse in der Entwicklung von adressatengerechten Berichten und Dashboards für unterschiedliche Stakeholder und bist in der Lage, komplexe Datensätze zu analysieren, zu modellieren und dieses Wissen mit deinen Teamkollegen zu teilen Du bringst fortgeschrittene Programmierkenntnisse in R, Python, SQL oder Vergleichbarem mit sowie ausgeprägte Erfahrungen mit Business Intelligence Tools wie Microsoft Power BI, Tableau oder Qlik Sense Idealerweise konntest du bereits praktische Erfahrungen im Umgang mit großen Datenmengen sammeln Du bist ein Teamplayer mit einem hohen Maß an Engagement, Selbständigkeit und kreativem Denken Du verfügst über gute Englisch und Deutschkenntnisse Business-Intelligence-Engineer-m-w-d-Essen
Ihre Chancen und Vorteile – mehr als nur ein Job Attraktive Vergütungsmodelle (Gehaltsspanne von 50.000 - 60.000 € jährlich)Unbefristetes Arbeitsverhältnis30 Tage UrlaubUrlaubsgeldJahresgratifikationVermögenswirksame LeistungenUmfangreiches Angebot an WeiterbildungenAttraktive Jobrad KonditionenAusführliche Einarbeitung Ihr Tätigkeitsbereich mit Verantwortung Eigenverantwortliche Unterstützung bei allen Planungs- und ReportingaktivitätenErstellung kundenspezifischer Daten und vertriebsunterstützender Auswertungen zur Analyse und Steuerung von VertriebsaktivitätenFortentwicklung der bestehenden Controlling-Systeme und Roll-Out unseres BI Systems (Power BI) in weitere GeschäftsbereicheZusammenarbeit mit verschiedenen Abteilungen, um Datenquellen zu identifizieren, zu integrieren und zu analysieren (Data Warehouse)Unterstützung der Fachabteilungen bei der Erstellung / Nutzung von Berichten und KPI´sErstellung und innerbetriebliche Diskussion von Abweichungsanalysen und Ad-hoc Auswertungen Ihre Kompetenzen und Potentiale Studium bzw. kaufmännische Ausbildung mit Schwerpunkt Big Data, Business Intelligence oder vergleichbarMindestens 3 Jahre BerufserfahrungSelbstständige, teamfähige, aufgeschlossene und motivierte Persönlichkeit, die sich als proaktiver Sparringspartner verstehtKenntnisse in BI-Tools (Qilk, Power BI) und/oder LucaNet wünschenswertAusgeprägte IT-Affinität von VorteilSehr gute Excel-KenntnisseFundierte Kenntnisse in operativen Themen (Budgetierung, Forecasting, Reporting, KPIs, etc.) Wir haben Ihr interesse geweckt?
Erfahrung Du hast ein solides und anwendbares Grundlagenwissen in der Verfahrens- oder Energietechnik, fundierte Programmierkenntnisse in Python sowie Kenntnisse in der Datenanalyse und Statistik. Idealerweise hast du auch bereits Erfahrung im Umgang mit PySpark und/oder SQL sowie git und Jira.
Erfahrung mit der Anbindung neuer Datenquellen, Entwicklung und Optimierung von ETL Pipelines, Datenmodellierung) Erstellung von Schulungsunterlagen und Durchführung von Schulungen Ausführen von Ad hoc Auswertungen für strategische Fragestellungen nach Bedarf Das bringst du mit Abgeschlossenes Studium der Wirtschaftsinformatik, Statistik, Business Intelligence, Data Analytics oder vergleichbare Qualifikation Du hast mind. 5 Jahre Berufserfahrung in den Bereichen Business Intelligence, Data Analytics, Data Engineering oder einer vergleichbaren Tätigkeit Du verfügst über fundierte Kenntnisse in der Entwicklung von adressatengerechten Berichten und Dashboards für unterschiedliche Stakeholder und bist in der Lage, komplexe Datensätze zu analysieren, zu modellieren und dieses Wissen mit deinen Teamkollegen zu teilen Du bringst fortgeschrittene Programmierkenntnisse in R, Python, SQL oder Vergleichbarem im Zusammenspiel mit Business Intelligence Tools wie Microsoft Power BI mit Analytisches Denkvermögen, eine strukturierte Vorgehensweise und Spaß am Lösen komplexer neuer Aufgaben Ein hohes Maß an Selbständigkeit, Sorgfalt und Qualitätsbewusstsein Fähigkeit mit Unsicherheit umzugehen und hohe Motivation neue Prozesse und Konzepte zu gestalten Gute Englischkenntnisse in Wort und Schrift Business-Intelligence-Engineer-m-w-d-Operational-Reporting-Essen
Aufgaben Eigenverantwortliche Mitwirkung bei innovativen Projekten im Bereich IT-Security, IT-Infrastruktur und Cloud Entwicklung von Komponenten und Schnittstellen für die Kommunikation mit verschiedenen Technologien und weiteren Systemen nach der SCRUM-Methodik Begleiten und Betreuen von Entwicklungsprojekten, von der Anforderungsanalyse bis zur Inbetriebnahme Arbeiten mit modernen Technologien wie CI/CD Pipelines, Docker, Spring Boot und HashiCorp in Microservice-basierenden Umgebungen Qualifizierung von beliebigen Problemstellungen Zentrale Entwicklung und Weiterentwicklung von Anwendungen Dienstsitz: Deutschlandweit/Home Office Einstellungsdatum: schnellst möglich Gehalt: nach Vereinbarung Anforderungen Mehrjährige Berufserfahrung in aktuellen Technologien und Lösungen der Software Entwicklung Sicherer Umgang mit Entwicklungsumgebungen und Integrations-Software (u.a. Intellij, Maven, Git, Docker) Sehr gute Kenntnisse in der Entwicklungssprache Java und Spring Boot Mehrjährige Erfahrung mit aktuellen Datenbanken (bspw. MySQL) Grundlegendes Wissen auf dem Gebiet der Frontendentwicklung.
Hierbei bringen Sie nicht nur Ihr technologisches Wissen, sondern die Kenntnisse betrieblicher Abläufe ein Dienstsitz: Raum Stuttgart Einstellungsdatum: schnellst möglich Gehalt: nach Vereinbarung Anforderungen Mehrjährige Berufserfahrung im Bereich Netzwerk-Administration/-Betrieb sowie der Systemintegration Routinierter Umgang mit verschiedenen Herstellern im Netzwerk-Umfeld (LAN, Data Center, WLAN), als auch mit der abstrakten Protokollwelt Fundierte Fachkenntnisse in Fabric Technologien, NAC, Software Defined Networking, sowie klassischer LAN Architekturen werden durch Erfahrungen mit AAA- und Monitoring-Lösungen abgerundet Sehr gutes prozessuales Denken im Bereich betrieblicher Abläufe, Vorgehensmodelle wie ITIL sind geläufig Freude an der Arbeit in wechselnden Kundenumgebungen Spaß am Erkennen und Umsetzen von Kundenbedürfnissen sowie pragmatische und zielorientierte Arbeitsweise Nachweisbare Erfolge im Führen von Kundenworkshops Zuverlässigkeit, Teamfähigkeit und hohe Kundenorientierung Sehr gute Deutsch- und Englisch-Kenntnisse Angebot Flexible Arbeitszeiten Home-Office / flexibles Arbeiten Firmenwagen Vermögenswirksame Leistungen Betriebliche Altersvorsorge Weiterbildungsprogramme Gesundheitsförderung Sport- und Freizeitangebote Mitarbeiterrabatte Mitarbeiterhandy Mitarbeiterevents
Ihre Chancen und Vorteile – mehr als nur ein Job Attraktive Vergütungsmodelle (Gehaltsspanne von 50.000 - 60.000 € jährlich) Unbefristetes Arbeitsverhältnis 30 Tage Urlaub Urlaubsgeld Jahresgratifikation Vermögenswirksame Leistungen Umfangreiches Angebot an Weiterbildungen Attraktive Jobrad Konditionen Ausführliche Einarbeitung Ihr Tätigkeitsbereich mit Verantwortung Eigenverantwortliche Unterstützung bei allen Planungs- und Reportingaktivitäten Erstellung kundenspezifischer Daten und vertriebsunterstützender Auswertungen zur Analyse und Steuerung von Vertriebsaktivitäten Fortentwicklung der bestehenden Controlling-Systeme und Roll-Out unseres BI Systems (Power BI) in weitere Geschäftsbereiche Zusammenarbeit mit verschiedenen Abteilungen, um Datenquellen zu identifizieren, zu integrieren und zu analysieren (Data Warehouse) Unterstützung der Fachabteilungen bei der Erstellung / Nutzung von Berichten und KPI´s Erstellung und innerbetriebliche Diskussion von Abweichungsanalysen und Ad-hoc Auswertungen Ihre Kompetenzen und Potentiale Studium bzw. kaufmännische Ausbildung mit Schwerpunkt Big Data, Business Intelligence oder vergleichbar Mindestens 3 Jahre Berufserfahrung Selbstständige, teamfähige, aufgeschlossene und motivierte Persönlichkeit, die sich als proaktiver Sparringspartner versteht Kenntnisse in BI-Tools (Qilk, Power BI) und/oder LucaNet wünschenswert Ausgeprägte IT-Affinität von Vorteil Sehr gute Excel-Kenntnisse Fundierte Kenntnisse in operativen Themen (Budgetierung, Forecasting, Reporting, KPIs, etc.)
Ihre Aufgaben Übersetzung von Business- und Engineering-Anforderungen in funktionale Lösungen in PLM (Teamcenter) und SAP S/4HANA MDG-M Schnittstellenfunktion zwischen Fachbereich, Engineering und IT inkl. aktiver Mitgestaltung von Lösungsdesign und Umsetzbarkeit Erstellung und Dokumentation von fachlichen Anforderungen, Spezifikationen und Lösungskonzepten Steuerung und Durchführung funktionaler Tests (Änderungen, Erweiterungen, Schnittstellen) Definition, Implementierung und Monitoring von Data-Governance- und Datenqualitätsregeln in SAP MDG-M Analyse und Bereinigung von Stammdatenproblemen (Dublette, Klone, Kollisionen) Leitung von Abstimmungen zu Schnittstellen zwischen SAP (MM, PP, optional PM/QM/SD), PLM und angebundenen Systemen Erstellung von Anwenderdokumentationen und Schulungsunterlagen sowie fachliche Eskalationsinstanz Ihr Profil Mindestens 6 Jahre Erfahrung in IT-Implementierungsprojekten, davon 2 Jahre in vergleichbaren Projekten im Engineering-/PLM-/SAP-Umfeld Fundierte Expertise in PLM (idealerweise Teamcenter) und SAP S/4HANA MDG-M inkl. MM und PP (PM/QM/SD von Vorteil) Sehr gute Kenntnisse in Requirements Engineering, funktionalem Design und Testmanagement Tiefgehendes Verständnis von SAP-Datenmodellen und Stammdatenprozessen mit Fokus auf minimale Customizing-Anteile Erfahrung im IT-Projektmanagement inkl.
Um die Digitalisierung im Unternehmen voranzutreiben und mitzugestalten, suchen wir ab sofort einen Senior Engineer Digital Solutions (m/w/d) Ihre Aufgaben: Sicherstellung und Wahrung der Datenintegrität der firmenweiten Datenbanklandschaft Kontinuierliches Vorantreiben der Digitalisierung und Automatisierung im Unternehmen Wartung, Weiterentwicklung und Erhalt bestehender Lösungen Kontinuierliche Pflege und Weiterentwicklung der firmenweiten Datenbanklandschaft (Data Warehouse Konzept, Datenbanklösungen, erfassen von Prozess- und Qualitätsdaten…) Entwicklung von Applikationen in Zusammenarbeit mit den einzelnen Bereichen (Manufacturing, Business / Administration) nach Fachkonzepten und internen Abteilungsstandards Schnittstellenprogrammierung (Equipment Integration, MES Automatisierung und Datenerfassung, LineWorks SPACE Datenerfassung) Konfiguration und Administration des Manufacturing Execution Systems Ihr Profil: Abgeschlossenes technisches Studium vorzugsweise aus den Bereichen Angewandte Informatik oder Software-Engineering. Kenntnisse in einer der folgenden Programmiersprachen sind wünschenswert: C# (.NET), JavaScript / TypeScript, Python Kenntnisse im Umgang mit SQL, vorzugsweise Microsoft SQL-Server (T-SQL) Optionale Kenntnisse in OracleDB, Umgang mit Linux Systemen oder Git.
Du konfigurierst, überwachst und optimierst unsere Client-, Server- und Cloud-Infrastrukturen zuverlässig und zukunftsorientiert Du bringst dein Know-How gezielt ein, um unsere IT-Sicherheitsstandards sowie bestehende Zertifizierungen (ISO27001) zu sichern und weiterzuentwickeln Das bringst du mit Deine Ausbildung mit IT-Schwerpunkt hast du erfolgreich abgeschossen oder du hast dir vergleichbares Wissen in der Praxis angeeignet Fundierte Kenntnisse cloud-basierender Microsoft-Umgebungen, u.a. Entra ID, Teams inkl. Telefonieanbindung, Intune / Endpoint Manager / Auto Pilot und Softwareverteilung bringst Du bereits mit.
Angular, Spring, Hibernate, JPA) und SQL.Du hast Erfahrung mit Versionskontrolle (Git), dem Springboot Framework, Datenbanken, Docker und mit API-Dokumentationen.Erste Erfahrungen mit Terraform und Ansible oder Kenntnisse in Python sind von Vorteil.Eigenverantwortliches Arbeiten ist für dich selbstverständlich, außerdem arbeitest Du gerne in einem agilen Team und agile Prozesse wie Scrum oder Kanban sind Dir bekannt.Eine Zertifizierung nach iSAQB® Certified Professional for Software Architecture ist ein Plus.ISO/IEC 25010, SQuaRE, Docker und Kubernetes sind für dich keine Fremdwörter.Du punktest durch analytische und konzeptionelle Fähigkeiten sowie einer eigenständigen und strukturierten Arbeitsweise.Eine hohe Kommunikationsfähigkeit sowie Kreativität und soziale Kompetenz zeichnen Dich aus.Du verfügst über verhandlungssichere Deutschkenntnisse und kannst bei Bedarf auch in englischer Sprache kommunizieren.Gelegentliche Dienstreisen innerhalb Deutschlands sind für Dich kein Problem.Die Möglichkeit, Dich auf Basis Deiner Expertise und Talente auf den Einsatz in Kundenprojekten zu konzentrieren, oder ergänzend zu Kundenprojekten bei der Mitgestaltung unserer Zukunftsthemen sowie deren Marktdurchdringung zu unterstützen.Aktuell sind wir rund 170 MIDler:innen und wir wollen weiter wachsen.
Sie verfügen über eine analytische und lösungsorientierte Arbeitsweise. Idealerweise haben Sie schon erste Kenntnisse in der Anwendung von CAD-Software und Simulationsprogrammen. Kommunikation in deutsch und englisch ist für Sie selbstverständlich, Sie arbeiten gerne sowohl eigenständig als auch im Team.