Job Search and Career Advice Platform

Attiva gli avvisi di lavoro via e-mail!

LLM Research Engineer / ML Engineer

Deda

Vecchiano

In loco

EUR 40.000 - 70.000

Tempo pieno

Ieri
Candidati tra i primi

Genera un CV personalizzato in pochi minuti

Ottieni un colloquio e una retribuzione più elevata. Scopri di più

Descrizione del lavoro

Un'azienda tecnologica italiana è alla ricerca di un professionista per lavorare su Big Data e Intelligenza Artificiale. Il candidato ideale ha una laurea in Informatica o Ingegneria Informatica e solida esperienza in Machine Learning e Deep Learning. Sarai coinvolto nella progettazione di pipeline per modelli linguistici e lavorerai con infrastrutture innovative multi-GPU. Offriamo un ambiente di lavoro agile e l'accesso a tecnologie all'avanguardia nel campo dei LLM.

Servizi

Work life balance grazie a un modello di lavoro agile
Accesso a infrastrutture GPU e modelli proprietari

Competenze

  • Solida esperienza in Machine Learning e Deep Learning.
  • Ottima conoscenza di Python e PyTorch.
  • Esperienza nel training o fine-tuning di LLM o modelli NLP di grandi dimensioni.
  • Familiarità con distributed training.
  • Comprensione approfondita delle architetture Transformer.

Mansioni

  • Progettazione e implementazione di pipeline di pre-training e fine-tuning di modelli linguistici.
  • Preparazione, filtraggio e deduplicazione di dataset testuali.
  • Training su infrastrutture multi-GPU e multi-node.
  • Valutazione delle capacità dei modelli in termini di qualità e robustezza.
  • Ottimizzazione delle fasi di inferenza.

Conoscenze

Machine Learning
Deep Learning
Python
PyTorch
Architetture Transformer

Formazione

Laurea in Informatica o Ingegneria Informatica

Strumenti

GPU / CUDA
vLLM
DeepSpeed
lama.cpp
Unsloth
Axolotl
Descrizione del lavoro

Siamo uno dei principali gruppi tecnologici a capitale interamente italiano, interlocutore naturale di Aziende, Istituzioni Finanziarie e Servizi Pubblici nell’evoluzione delle loro strategie IT e digitali.
Nel corso degli anni, abbiamo costruito un ecosistema di aziende che condividono valori e strategie di business e una visione comune: sfruttare la forza della dedizione per aiutare i clienti a cogliere i benefici dell'evoluzione digitale, potenziando così l'impatto positivo della tecnologia sull'economia e sulla società.

Cosa aspettarti

Siamo uno dei principali gruppi tecnologici in Italia e operiamo come Business & Technology Accelerator di Aziende, Istituzioni Finanziarie e Servizi Pubblici, supportando l’evoluzione delle loro strategie IT e digitali. Con un ecosistema di imprese che condividono valori e visione, aiutiamo i clienti a cogliere i benefici della tecnologia, amplificandone l’impatto positivo su economia e società.

Entrerai in Istella, partner di Dedagroup, è specializzata in Big Data e Intelligenza Artificiale, con un forte focus su tecnologie di knowledge graph, data intelligence e AI generativa a supporto di soluzioni enterprise.

Troverai un contesto di ricerca applicata integrato con lo sviluppo di prodotto, dedicato allo sviluppo, all’addestramento e all’ottimizzazione di Large Language Models di scala medio-grande, con particolare attenzione alla lingua italiana ed europea e alla loro industrializzazione.

Cosa farai

Sarai coinvolto nella progettazione e implementazione di pipeline di pre-training, continual pre-training e fine-tuning di modelli linguistici, occupandoti della preparazione, del filtraggio e della deduplicazione di dataset testuali di grandi dimensioni.

Lavorerai su attività di training su infrastrutture multi-GPU e multi-node e sulla sperimentazione di tecniche di adattamento efficiente dei modelli.

Contribuirai alla valutazione delle capacità dei modelli in termini di qualità, robustezza e performance e all’ottimizzazione delle fasi di inferenza, con attenzione agli aspetti di efficienza e scalabilità.

Cosa ci aspettiamo da te

Laurea in discipline scientifiche, preferibilmente in Informatica o Ingegneria Informatica.

Solida esperienza in Machine Learning e Deep Learning e un’ottima conoscenza di Python e PyTorch

Esperienza diretta nel training o fine-tuning di LLM o modelli NLP di grandi dimensioni.

Familiarità con distributed training (DDP, FSDP, ZeRO, parallelismi) e con l’ecosistema GPU / CUDA.

Comprensione approfondita delle architetture Transformer.

Costituiscono titolo preferenziale l’esperienza con strumenti e framework avanzati (vLLM, DeepSpeed, llama.cpp, Unsloth, Axolotl) .

Gradito background di ricerca accademica.

Cosa ti offriamo

Work life balance grazie a un modello di lavoro agile.

Lavoro su tecnologie all’avanguardia nel campo Search + LLM e accesso a infrastrutture GPU e modelli proprietari

Ottieni la revisione del curriculum gratis e riservata.
oppure trascina qui un file PDF, DOC, DOCX, ODT o PAGES di non oltre 5 MB.