Data Engineer: big data, Python, PySpark, Databricks, Azure, API (toimiala finanssi)
Positions and allocation100% allokaatio
LocationHybridi, 1 pv/vko Helsinki ja muuten etänä Suomessa
Required language skills English • Finnish
Start1.1.2025
Duration31.1.2026
Requirements
Description of the project:

We process data both on-premise and on-cloud resulting in a hybrid architecture necessitating skilled data engineering practices. The data products are served for users via few selected integration patterns i.e. API, cloud object storage, and data warehouse. We are operating on AWS but migrating to Azure.


Technical skills:
• Software development: Demonstrated commitment to professional programming practices, including a track record of promoting and adhering to principles of code readability, modularity, and other best practices.
• Data pipelines: strong proficiency in designing and implementing scalable and robust data pipelines, batch and streaming.
• Data storage: In-depth knowledge of data storage technologies: big data technologies, data lakes, Spark processing, relational databases (SQL).
• Programming: Strong proficiency in Python, PySpark, and SQL.
• Databricks: Familiarity with Databricks platform e.g. workflows, deployments.
• Cloud: Experience with cloud platforms Azure or AWS including services like Azure Data Factory, AWS Glue, etc.

Tehtävään valitulle henkilölle teetetään turvallisuusselvitys.
Additional information
Jos haluat hakea tätä tehtävää, lähetä CV muokattavassa muodossa esim. Word. Lisää siihen kappale, jossa kerrotaan mitä osaamista on kaikista ilmoituksessa mainituista teknologioista tai muista taidoista. Kerro viestissäsi myös tuntihintatoiveesi. Lisää sähköpostin Aihe/Subject-kenttään koodi 1453. Lähetä hakemus ilmoituksen kontaktihenkilölle sähköpostilla viimeistään 13.12.2024. Kannattaa hakea heti, haku voi sulkeutua aikaisemmin.
Contactsarita@digiahub.com
Case ID#1453
Apply time ends 13.12.2024
Updated5 months ago
This project is closed