Over the past 20 years, NETCONOMY has grown from a startup to a 500-people team working across 10 European locations. We believe in the power of agile and cross-functional collaboration, bringing together people from various backgrounds to create outstanding digital solutions.
As a Data Engineer with a focus on Databricks, you will play a key role in building modern, scalable, and high-performance data solutions for our clients.
You'll be part of our growing Data & AI team and work hands-on with the Databricks platform, supporting clients in solving complex data challenges.
Your Job's Key Responsibilities Are:
Essential Skills:
Wir bieten dir die Möglichkeit, hybrid zu arbeiten du kannst selbst entscheiden, ob du mehr im Büro oder im Home Office arbeiten möchtest. Career Development & Onboarding: Starte deine Reise bei NETCONOMY mit einem strukturierten Onboarding und Mentoring und setze sie mit individuellen... -
Homeoffice
Wir bieten dir die Möglichkeit, hybrid zu arbeiten du kannst selbst entscheiden, ob du mehr im Büro oder im Home Office arbeiten möchtest. Career Development & Onboarding: Starte deine Reise bei NETCONOMY mit einem strukturierten Onboarding und Mentoring und setze sie mit individuellen...
Homeoffice
Wir bieten dir die Möglichkeit, hybrid zu arbeiten du kannst selbst entscheiden, ob du mehr im Büro oder im Home Office arbeiten möchtest. Career Development & Onboarding: Starte deine Reise bei NETCONOMY mit einem strukturierten Onboarding und Mentoring und setze sie mit individuellen... -
flache Hierarchien Homeoffice
Wir bieten dir die Möglichkeit, hybrid zu arbeiten du kannst selbst entscheiden, ob du mehr im Büro oder im Home Office arbeiten möchtest. Career Development & Onboarding: Starte deine Reise bei NETCONOMY mit einem strukturierten Onboarding und Mentoring und setze sie mit individuellen...
flache Hierarchien Homeoffice
Key Responsibilities Are: Designing, developing, and maintaining robust data pipelines using Databricks, Spark, and Python. Building efficient and scalable ETL processes to ingest, transform, and load data from various sources (databases, APIs, streaming platforms) into cloud-based data lakes... -