SIGN IN
Back to offers
MIDDLE DATA ENGINEER (AZURE)
Offer expiration date: 2022-07-06

Firma działa na rynku od 20 lat i zatrudnia 2000 pracowników na całym świecie. Rozpoczęła działalność w rodzimym mieście Manchester w UK, ale zdobyła międzynarodowy zasięg otwierając oddziały w Bułgarii, Litwie, Gruzji, Zjednoczonych Emiratach Arabskich oraz w Polsce. Nad Wisłą powstały już dwa biura – we Wrocławiu oraz Łodzi, a pod koniec 2022 roku Godel zawitał również do Trójmiasta. Działalność Godel Technologies skupia się na dostarczaniu wysokowydajnych rozwiązań w takich obszarach jak sztuczna inteligencja, transformacja cyfrowa czy uczenie maszynowe. Najczęściej współpracuje z firmami z branży energetycznej, motoryzacyjnej, finansowej i e-commerce.

 

Na dzień dzisiejszy Godel Technologies Europe zatrudnia w Polsce ponad 1000 osób. Firma nie planuje na tym przestać i już buduje plany na otwarcie kolejnych biur na terenie Polski. Zatrudnienie w Godel Technologies mogą znaleźć nie tylko eksperci IT. Rekrutacja obejmuje również stanowiska administracyjne do działu finansowego, HR i Talent Acquisition, marketingu czy na pozycję Office Managera. Firma planuje również wdrożyć programy stażowe dla lokalnych młodych talentów.

 

Od samego początku Godel blisko współpracuje ze swoimi klientami, budując mocne i długotrwałe relacje oraz tworząc reputację słynącą z doskonałości. Lista naszych partnerów to m in.comparethemarket.com, Shell Energy, AO.com, Intelliflo, Booking.com. 

 

Godel stawia od kilku lat na działania w środowisku .Net, JavaScript, Java oraz rozwój kompetencji w dziale Data Science. Zespół zajmuje się między innymi zaawansowaną analityką i raportowaniem dla protokołów bezpieczeństwa na platformach w chmurze. Starania firmy zostały już niejednokrotnie docenione: inżynierowie zdobyli tytuły „Inżyniera Oprogramowania Roku” w konkursie Computing Women in IT Exellence Awards (2019), „Inżyniera Oprogramowania Roku” w Computing Digital Technology Leaders Awards (2017) oraz wymieniono ją w rankingu The Sunday Times Tech Track (2016). 

We Offer:
  • Agile Delivery  
  • Challenging Projects 
  • Personal Development Plan 
  • Corporate Activities  
  • Free English and Polish Classes 
  • Investment Into Your Training 
  • Multiport Card 
  • Private Medical and Life Insurance 
  • Flexible Working Schedule and Hybrid Way of Work 
  • Kafeteria MyBenefit  

Technology stack we use:

  • Data Integration: Azure Data Factory (with SSIS)  
  • Data Processing: Azure Databricks  
  • Database & Data Warehouse: Azure SQL Database, Azure Synapse, SQL Server   
  • Storage: Azure Blob, Azure Data Lake Storage  

Must have: 

  •  Extensive knowledge of data architecture principles (e.g., data lake, data warehousing, etc.).  
  • Strong knowledge of relational databases, as well as skills in SQL query design and development.  
  • Experience working with the data in Python  
  • Conceptual understanding of cloud architectures, service tiers and hybrid deployment models.  
  • Ability to independently troubleshoot and performance tune large scale enterprise systems.  
  • Expertise with ETL/ELT design patterns, and DataMart structures (star, snowflake schemas, etc.).  
  • Experience with Microsoft Cloud Data Platform: Azure Data Lake, Azure Blob Storage, Azure Data Factory, Azure Cosmos DB, Azure Databricks, Synapse Analytics.  
  • Experience in Azure Data Factory (ADF) creating multiple pipelines and activities using Azure for full and incremental data loads into Azure Data Lake Store and Azure SQL DW.  
  • Hands-on experience with data migration methodologies and processes to transform on-premises data to cloud using tools like Azure Data Factory, Data Migration Service, SSIS, etc.  
  • Must have an ability to communicate clearly and be a team player.  
  • Intermediate level of English.  

Nice to have:

  • Hands-on programming experience in additional technologies, such as Python, Java, Scala , C#, Spark, Databricks, Powershell is a plus.  
  • Experience working with developer tools such as Azure DevOps and GitLabs.  
  • Power BI reporting tool experience.  
  • Understanding of big data tools such as Hadoop.  
  • Experience managing Microsoft Azure environments with VM's, VNETS, Subnets, NSG's, Resource Groups.  
  • Azure certification would be desired.   
Task range:
  • Creating functional design specifications, Azure reference architectures, and assisting with other project deliverables as needed.  
  • Design and Develop Platform as a Service (PaaS) Solutions using different Azure Services.  
  • Create a data factory, orchestrate data processing activities in a data-driven workflow, monitor and manage the data factory, move, transform and analyze data.  
  • Design complex enterprise Data solutions that utilize Azure Data Factory. Creating migration plans to move legacy SSIS packages into Azure Data Factory.  
  • Build conceptual and logical data models.  
  • Design, build, and scale data pipelines across a variety of source systems and streams (internal, third-party, as well as cloud-based), distributed / elastic environments, and downstream applications and/or self-service solutions.  
  • Develop and document mechanisms for deployment, monitoring, and maintenance.  
  • Identifying performance bottlenecks, and accessing external data sources.  
  • Implementing security requirements.  
  • Monitoring and managing.    
Documents needed for the application:

CV

B2B Contract

Godel Technologies Europe

  • PaidYes
  • Salary9,500 - 17,000 PLN
  • Company DepartmentGodel Technologies Europe
  • Company PositionRegular Specialist
  • CityŁódź
Contact :

Work in the coolest city in Poland. Find out about current job offers

Check it out