Data Engineering und KI sind für dich die einzig wahre Kombination!? Mit moderner Technologie und Datenanalyse die Effizienz für Kunden steigern ist deine Motivation?

Dr. Ausbüttel ist ein stark wachsendes, zukunftsorientiertes Familienunternehmen aus der MedTech-Branche mit über 200 Mitarbeitern in Dortmund, dem Herzen Westfalens.     
Als Hersteller von Medizinprodukten der Marken DRACO® und Piratoplast® mit den Schwerpunkten Wundversorgung und Okklusionstherapie leisten wir einen wichtigen Beitrag Wunden bezahlbar zu heilen.

Das erlebst du bei uns

  • Einen Job mit Sinn, bei dem soziales Engagement und wirtschaftliches Wachstum im Einklang stehen.
  • Kurze Entscheidungswege, Freiräume und Selbstverantwortung für deine fachliche und persönliche Weiterentwicklung, damit du im Umfeld digitaler Innovationen am Puls der Zeit bist. 
  • Eine integrative Kultur der Chancengleichheit in einem wertegetragenen Arbeitsumfeld.    
  • Deine Gesundheit ist uns wichtig, deshalb erwarten dich unterschiedliche Maßnahmen und Aktionen zur Gesundheitsförderung.
  • Eine flexible Zeitgestaltung für deine persönliche Flexibilität zwischen Remote Work (bis zu 2-mal pro Woche) und dem Büro.
  • Wir nehmen uns Zeit für deine Einarbeitung. So erwartet dich ein strukturiertes Onboarding und eine Begleitung durch Mentoring.
  • Netzwerken durch Austauschformate: Dabei lernst du uns und unsere Werte noch besser kennen und kannst mit neuen Kollegen gut ins Gespräch kommen.  

Das sind deine Aufgaben

  • Du bist verantwortlich für den Aufbau und die kontinuierliche Weiterentwicklung einer zentralen Datenplattform als solide Grundlage für unsere Analytics und KI-Anwendungen.
  • Du begeisterst für Künstliche Intelligenz, bist leidenschaftlich daran interessiert, komplexe Datenprobleme zu lösen und willst unsere Dateninfrastruktur auf die nächste Stufe heben. 
  • Bei dir liegen die Entwicklung und Wartung von robusten Datenpipelines für die Extraktion, Transformation und das Laden (ETL) von Daten aus verschiedenen Quellen in ein formatiertes, nutzbares Format für die Analyse und Modellierung.
  • Du implementierst Verfahren zur Datenspeicherung und zum Datentransport, die Effizienz, Skalierbarkeit und Sicherheit gewährleisten.
  • Zusammenarbeit mit Data Scientists und Analysten? Du erlangst dadurch Daten und wandelst diese in ein wertvolles und aussagekräftiges Format für prädiktive und präskriptive Modellierungen um.
  • Du stellst die Datenqualität und -integrität sowie die Optimierung der Datenarchitektur für eine verbesserte Datenverarbeitung und -analyse sicher.
  • Du identifizierst, bewertest und integrierst neue Technologien und Tools zur Verbesserung der Dateninfrastruktur und -verarbeitung.

Das bringst du mit

  • Mindestens 3 Jahre Berufserfahrung als Data Engineer oder in einer ähnlichen Rolle, vorzugsweise mit Schwerpunkt auf Künstlicher Intelligenz.
  • Fundierte Kenntnisse in der Entwicklung von ETL-Prozessen und im Aufbau von Datenpipelines, ebenfalls Erfahrung mit Datenbanktechnologien (z.B. SQL, NoSQL) und Big Data Technologien (z.B. Hadoop, Spark).
  • Praktische Erfahrung mit Cloud-Plattformen, z.B. Azure und deren Datenverarbeitungsservices.
  • Starke Programmierkenntnisse in mindestens einer der folgenden Sprachen Python, Java, Scala.
  • Praktische Erfahrung mit Tools zur Datenorchestrierung z.B. Kafka, Airflow.
  • Ein abgeschlossenes Hochschulstudium in Informatik, Ingenieurwesen, Mathematik oder eine entsprechende Ausbildung mit kontinuierlicher und intensiver Weiterbildung.
  • Fließende Deutsch- und Englischkenntnisse in Wort und Schrift.

Persönlichkeit ist uns wichtig

Bei uns bist du richtig, wenn du positiv eingestellt bist, in stressigen Zeiten die Ruhe bewahrst und zum Lachen nicht in den Keller gehst.  
Erzähle uns etwas über dich als Person: Was liegt dir besonders am Herzen und was geht überhaupt nicht für dich?  
 
Um dich zu bewerben, sende uns deine vollständigen Bewerbungsunterlagen zu Händen Dirk Frauenhoff (CIO).

 
 
Ähnliche Stellenanzeigen um Berlin im Bundesland Nordrhein-Westfalen
Lade...