Data
Engineer

Pisa, Milano, Roma, ibrido

3+ anni esperienza minima

Nel ruolo di Data Engineer contribuirai alla progettazione, evoluzione e gestione dell’infrastruttura dati che supporta le attività di misurazione, analisi e ottimizzazione delle performance digitali dei nostri clienti. 

Opererai su piattaforme GCP per integrare, modellare e rendere fruibili i dati, collaborando con team eterogenei e trasformando i requisiti di business in soluzioni scalabili.

Di cosa sarai responsabile

Data architecture, Data pipeline & Data Visualization

  • Progettare, sviluppare e manutenere datalake e data warehouse su Google Cloud Platform garantendo scalabilità, qualità e sicurezza.
  • Implementare processi di ingestion, normalizzazione e trasformazione dati da fonti eterogenee (Advertising Platforms, GA4, CRM, eCommerce, API custom, file batch).
  • Creare pipeline robuste a supporto di reporting avanzato, analisi operative, modelli ML e insight strategici.
  • Tradurre requisiti di business e KPI in dashboard efficaci, progettando visualizzazioni coerenti e orientate al decision-making (Looker Studio, Power BI, Looker, ecc.).

Supporto ai team e governance del dato

  • Collaborare con team Digital Marketing, SEO, Content, Data Science e BI, traducendo le loro esigenze in requisiti tecnici e soluzioni dati.
  • Fornire supporto tecnico a figure meno esperte e contribuire alla diffusione di best practice.
  • Definire e mantenere pratiche di governance, documentazione, versioning, monitoraggio e presidio dei processi ETL/ELT.
  • Sperimentare nuove tecnologie e metodologie, collaborando quando necessario con il team Data Science per supportare modelli predittivi e processi MLOps (esperienza non richiesta ma gradita).

Chi stiamo cercando

Cerchiamo una persona con solide competenze tecniche, autonomia nella gestione di progetti complessi, capacità di dialogo con team sia tecnici sia business, attitudine al mentoring e alla diffusione delle best practice.

Requisiti principali

  • Esperienza nella progettazione e implementazione di pipeline di ingestion, trasformazione e modellazione dati su GCP (BigQuery, Cloud Storage, Dataform, Cloud Run).
    (In alternativa: competenze equivalenti su Azure – Data Factory, Synapse, Storage, Functions.)
  • Ottima conoscenza di SQL (query complesse, ottimizzazione, partizionamento, clustering).
  • Esperienza nella progettazione di architetture dati scalabili e modelli per analytics.
  • Capacità di lavorare con almeno uno strumento di BI (Looker Studio, Power BI, Looker…).

Plus (non obbligatori, ma apprezzati)

  • Esperienza in contesti Digital Marketing e con dati provenienti da piattaforme ADV, GA4/Adobe Analytics, CRM o eCommerce.
  • Conoscenza di metodologie di integrazione da API e fonti digitali.
  • Utilizzo di Python per orchestrazione, automazioni e integrazione API.
  • Familiarità con strumenti ML/MLOps, in particolare Vertex AI.
  • Esperienza nel coordinamento tecnico di figure junior o nella gestione end-to-end di progetti complessi.
  • Conoscenza di strumenti di orchestrazione/versioning (Git, CI/CD, Terraform).

Cosa troverai da noi

  • Una realtà che vede al suo centro l’innovazione tecnologica, il marketing etico e lo sviluppo professionale;
  • Smart Working  e flessibilità oraria;
  • Buoni pasto elettronici per i tuoi pranzi con i colleghi;
  • 6 settimane di full remote dove poter lavorare da dove vuoi (anche all’estero!)
  • Birthday off: il giorno del compleanno non si lavora!
  • Premio annuale in base al raggiungimento di obiettivi aziendali e personali.

Vuoi entrare in squadra? Noi ti stiamo già aspettando.

Il presente annuncio è rivolto ad entrambi i sessi, ai sensi delle leggi 903/77 e 125/91.

Candidati ora!

"*" indica i campi obbligatori

Tipi di file accettati: pdf, doc, docx, png, jpg, psd, Dimensione max del file: 3 MB.
SEDE DI PREFERENZA*
Questo campo serve per la convalida e dovrebbe essere lasciato inalterato.