)
Tesi e Tirocini
Scopri le nostre proposte di tesi e tirocini per laureandi triennali e magistrali di facoltà legate al mondo dell'informatica.
Cerchi un progetto di tesi per completare il tuo percorso universitario o vuoi approcciare il mondo del lavoro?
Ti proponiamo una vasta gamma di progetti di tesi innovativi e sperimentali dove avrai modo di metterti alla prova confrontandoti con casi reali ed utilizzando le tecnologie più innovative affiancato dai nostri esperti. Consulta la seguente lista e lasciati incuriosire dalle nostre iniziative. Se non dovessi trovare ciò che cerchi, non esitare a contattarci e proveremo a costruire insieme il tuo percorso.
Contesto: La Generative AI sta evolvendo verso soluzioni multi-agente, dove più agenti specializzati collaborano per svolgere compiti complessi. Semantic Kernel mette a disposizione diversi orchestration pattern (tra cui il group chat orchestration, con un manager che governa turn-taking e decisioni) utili per costruire sistemi modulari e controllabili. In parallelo, l’adozione di MCP (Model Context Protocol) consente di collegare agenti a tool e sistemi esterni con un’interfaccia standard, rendendo più semplice creare componenti riusabili nell’acceleratore interno.
Obiettivi: La tesi/tirocinio ha l’obiettivo di:
- studiare e confrontare i principali orchestration pattern disponibili in Semantic Kernel (quando usarli, trade-off, limiti);
-implementare un Group Chat custom (manager e policy di orchestrazione) capace di coordinare agenti “tool-enabled” connessi all’applicazione tramite MCP (es. query, workflow, azioni su sistemi) e un sistema RAG (retrieval + grounding) come agente/servizio specializzato dentro la conversazione;
- definire un layer di governance: logging/audit, regole di selezione agente, criteri di escalation/human-in-the-loop, controlli su tool-use e qualità risposta.
Attività previste:
- Analisi pattern SK (sequential, concurrent, handoff, group chat) e selezione pattern target per l’acceleratore;
- Progettazione del Group Chat Manager (strategie: round-robin, rule/policy-based, confidence-based, cost/latency-aware);
- Implementazione orchestrazione in Python, partendo dalle primitive SK di group chat orchestration;
- Integrazione di agenti MCP e definizione dei contratti (tool schema, permessi, error handling);
- Test e valutazione: robustezza, qualità, tempi, tracciabilità delle decisioni del manager.
Deliverable:
- Documento di design con comparazione pattern e linee guida per l’acceleratore;
- PoC: group chat custom + 2–3 agenti MCP + agente RAG, integrati end-to-end;
- Suite di test + report metriche (qualità, stabilità, costi/latency).
Tecnologie: Semantic Kernel (Python), MCP, Python, SQL, Vector Search / indicizzazione, logging/monitoring, container (Docker).
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto: Molti sistemi RAG “tradizionali” eseguono un retrieval relativamente lineare (una query → top-k documenti → risposta). Le nuove funzionalità di agentic retrieval puntano invece a gestire domande complesse tramite pianificazione e decomposizione in sotto-query, iterazione e ottimizzazione del retrieval per migliorare la qualità del grounding.
In questo quadro, Foundry IQ (Azure AI Search) si propone come knowledge layer che automatizza e migliora workflow RAG e grounding, includendo un motore di agentic retrieval in knowledge bases.
Obiettivi:
- Analizzare i limiti del RAG attuale (non agentico): coverage, precision/recall, failure mode su query multi-hop, citazioni e coerenza;
- Progettare e implementare un Agentic RAG retrieval basato su: Foundry IQ come knowledge layer/knowledge base e Agentic Retrieval di Azure AI Search come pipeline multi-query guidata da LLM per domande complesse;
- Introdurre un framework di valutazione per confrontare prima/dopo (qualità risposta, groundedness, copertura, latenza/costo).
Attività previste:
- Baseline di un RAG esistente non agetncio: dataset di test, metriche e analisi errori (hallucination, retrieval mismatch, missing evidence);
- Setup/integrazione knowledge base Foundry IQ e sorgenti (documenti e/o fonti remote);
- Implementazione della pipeline di agentic retrieval (query planning, sub-query, aggregazione risultati, controlli “retrieval reasoning effort”);
- A/B testing: confronto con RAG tradizionale su KPI di qualità e prestazioni.
Deliverable:
- Modulo Agentic RAG retrieval integrabile nell’acceleratore interno;
- Report comparativo con metriche e raccomandazioni (quando usare agentic retrieval vs RAG standard);
- Linee guida operative: configurazioni, parametri, gestione costo/latenza, osservabilità.
Tecnologie: Azure AI Search (agentic retrieval), Microsoft Foundry / Foundry IQ, LLM (es. Azure OpenAI/Foundry Models), Python, SQL, strumenti di evaluation e monitoring.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto: Le soluzioni basate su Retrieval-Augmented Generation (RAG) stanno diventando uno standard per abilitare Q&A e knowledge experience su documentazione aziendale. Tuttavia, misurare “quanto funziona” un RAG è complesso: bisogna valutare sia la parte di retrieval (stiamo recuperando i contenuti giusti?) sia la parte di generation (la risposta è corretta, completa e soprattutto grounded nelle fonti?).
Negli ultimi anni si sono consolidati approcci e framework dedicati, come: RAGAS, con metriche come faithfulness, answer relevancy, context precision/recall e altre per isolare i componenti della pipeline; TruLens e la “RAG Triad” (context relevance, groundedness, answer relevance) per intercettare hallucination lungo i punti chiave dell’architettura RAG; Strumenti moderni di valutazione integrabili in pipeline (es. DeepEval) e valutatori enterprise (es. Azure AI Foundry RAG evaluators per groundedness, relevance e completeness, incluse metriche retrieval con ground truth).
Obiettivi: La tesi/tirocinio mira a costruire un framework di valutazione riusabile (per un acceleratore interno Reply) capace di misurare in modo ripetibile la “bontà” di un sistema RAG LLM, con output utili per miglioramento continuo e industrializzazione:
1. Studio della letteratura e dello stato dell’arte su metriche RAG, LLM-as-a-Judge, dataset di test, valutazione referenceless vs reference-based, e failure mode (hallucination, over-retrieval, missing evidence).
2. Definizione di un modello di qualità (KPI) che includa almeno:
- Retrieval quality: relevance del contesto, coverage, ranking quality (quando c’è ground truth).
- Groundedness / Faithfulness: quanto la risposta è supportata dal contesto recuperato.
- Answer relevance & completeness: quanto la risposta soddisfa la richiesta e copre ciò che serve (anche con ground truth).
3. Implementazione di una evaluation harness automatizzata che permetta: esecuzione batch su un golden set di query, scoring con metriche RAGAS / RAG Triad / evaluators equivalenti, report comparativi (prima/dopo) e regressioni in CI/CD.
Attività previste (workplan indicativo):
- Design del dataset: costruzione di un golden set multi-dominio con query, expected points, e (se possibile) label per retrieval.
- Implementazione metriche: integrazione di RAGAS e/o TruLens e/o DeepEval; supporto sia a valutazioni con ground truth sia senza ground truth (LLM-as-a-judge).
- Valutazione retrieval: quando presenti label, usare metriche di search quality (es. NDCG/fidelity); quando assenti, usare judge-based per context relevance.
- Robustezza e sicurezza: test dedicati a prompt injection e “context poisoning” (quanto facilmente il sistema produce risposte non grounded).
- Packaging per acceleratore: API/SDK + template di report + dashboard (anche minimale) per rendere il framework riutilizzabile tra progetti.
Deliverable:
- Documento di stato dell’arte + scelte metriche e motivazioni;
- Framework di evaluation riusabile (codice + configurazioni + pipeline);
- Golden set e suite di test (inclusi test di regressione);
- Report finale: risultati su uno o più RAG di riferimento, analisi errori e raccomandazioni tecniche.
Tecnologie: Python, SQL, strumenti di evaluation (RAGAS / TruLens / DeepEval), LLM-as-a-judge, integrazione con pipeline CI/CD, logging/monitoring, Azure AI Foundry, Azure AI Search.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto: La Reply Cloud Management Platform (CMP) è una piattaforma SaaS per la gestione multi-cloud che abilita discovery, provisioning, osservabilità e cost management, con forte attenzione a FinOps e automazione.
Un’area ad alto impatto, trasversale a tutti i settori, è l’ottimizzazione dei costi tramite instance reservations. Nel cloud, una grossa parte dei costi deriva da risorse “compute” (VM/istanze, container, ecc.) consumate on-demand. Le reservations (e strumenti affini) sono meccanismi commerciali che permettono di ottenere sconti in cambio di un impegno (di utilizzo o di spesa) su un certo orizzonte temporale, tipicamente 1 o 3 anni. Oggi queste scelte sono spesso manuali e “a tentativi”: la tesi mira a portare nella CMP un sistema AI che preveda il fabbisogno e suggerisca quali reservations acquistare, quando e con che dimensionamento, riducendo sprechi e aumentando la prevedibilità della spesa.
Obiettivi: Progettare e sviluppare un modulo AI integrato nella CMP in grado di:
- Prevedere la domanda (baseline stabile vs picchi/stagionalità) per famiglie di risorse e per provider (Azure/AWS/GCP).
- Tradurre la previsione in una raccomandazione di commitment: mix ottimale tra opzioni disponibili (es. Azure Reservations/Savings Plans, AWS RIs/Savings Plans, GCP CUDs) con vincoli di rischio e flessibilità.
- Produrre output “actionable” in CMP: copertura stimata, risparmio atteso, break-even, rischio underutilization, scenari “what-if” e motivazioni.
Attività previste (workplan indicativo):
1. Studio funzionale: come si applicano sconti/commitment per i 3 hyperscaler e quali input servono (storico consumo, tagging, region, classi istanza).
2. Data pipeline in CMP: raccolta e normalizzazione segnali (utilization, cost, runtime hours) sfruttando le viste multi-cloud e cost management della piattaforma.
3. Modello AI di previsione: time-series forecasting + segmentazione workload (stabili, intermittenti, stagionali) e stima “commit-friendly baseline”.
4. Motore di ottimizzazione: algoritmo che propone quantità/termine/tipo di commitment massimizzando saving e minimizzando rischio (vincoli di flessibilità, cap su over-commit, soglie di confidenza).
- Integrazione UI/UX in CMP (in Vibe Coding): dashboard raccomandazioni, spiegazioni, alert su drift (quando la previsione cambia), esportazione per approvazione interna.
- Valutazione: confronto “prima/dopo” su dataset storico (saving teorico, underutilization evitata, stabilità raccomandazioni, latenza e robustezza).
Deliverable:
- Modulo AI “Reservations Recommendation” integrato nella CMP (PoC pronto a evoluzione industriale).
- Report con: metodologia, metriche, risultati e linee guida (quando conviene commitment vs on-demand).
- Dataset e suite di test per regressione e monitoraggio continuo.
Tecnologie: Python, C#, SQL, ML/Forecasting (es. modelli time-series), integrazione API/provider billing & usage, componenti CMP, container (Docker), monitoring/logging.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto: Le attività di Help Desk di primo livello sono spesso ripetitive e soggette a colli di bottiglia. Attualmente, queste operazioni richiedono l'intervento manuale di un operatore tramite desktop remoto o l'invio di istruzioni testuali all'utente finale. L'innovazione consiste nell'utilizzare un AI Agent capace di interpretare il linguaggio naturale dell'utente o dell'operatore, tradurlo in script eseguibili (PowerShell, Bash, Python) ed eseguirli in modo sicuro sulla macchina target.
Obiettivi: Configurare un loop di ragionamento dell'agente (Thought → Action → Observation).
- Fornire all'utente tutte le guide per raggiungere una soluzione in maniera autonoma.
- Implementare un sistema di sicurezza dove l'azione viene eseguita solo se sicura o previa conferma.
Attività previste:
- Analisi dei casi d'uso più frequenti.
- Sistema di ticketing per il tracciamento delle richieste.
- Creazione di una chat integrata in Microsoft Teams per interagire con il bot.
- Implementazione di policy di sicurezza (whitelist comandi, sandbox, conferma operatore).
- Test end-to-end su scenari reali e valutazione di robustezza e affidabilità.
Deliverable:
- Repository con l'agente configurato e i tool di sistema pronti all'uso.
- Documentazione tecnica: architettura, criteri di sicurezza, flussi di interazione.
- PoC funzionante integrato con Teams e capace di gestire operazioni tipiche di Help Desk.
Tecnologie: Python, PowerShell/Bash, Microsoft Teams Bot Framework, Azure OpenAI
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto: Microsoft Intune offre funzionalità robuste di device management e app deployment, ma la catalogazione, normalizzazione e registrazione automatica di applicazioni presenti sui device o in repository aziendali rimane spesso manuale. La tesi mira a progettare e implementare un agente multipiattaforma capace di effettuare discovery, normalizzazione dei metadati (nome, versione, publisher, hash/signature, dipendenze), e registrazione in Intune/Entra ID (o in un backend intermedio) per abilitare flussi di automazione (approvazione, packaging, policy di distribuzione) e governance trasparente.
Obiettivi: La tesi/tirocinio ha l’obiettivo di:
- Definire un modello dati comune per applicazioni e pacchetti (Windows, macOS, Linux) con mapping verso gli schemi/artefatti di Intune (es. Win32 app, macOS LOB app, script‑based, repository esterni).
- Sviluppare un agente cross‑platform (core comune + adapter per OS) che:
a. esegua discovery locale (inventario installato + sorgenti di package manager),
b. effettui normalizzazione e deduplica (versioni/varianti),
c. invii/registri i risultati in Intune o in un Application Registry interno.
- Integrare controlli di governance: regole di qualità metadati, signature/hash, criteri di attendibilità fonte, tagging (business unit/owner), audit e tracciabilità.
- Abilitare automazione: da application registry verso flussi di packaging e pubblicazione (pipeline CI/CD, approvazioni, rollout canary).
Attività previste:
1. Analisi dei canali di discovery per ciascun OS:
- Windows: WinGet/winget source, registry uninstall keys, MSI product code, file system scan mirato;
- macOS: Homebrew, pkgutil, system_profiler, Application bundle metadata (Info.plist);
- Linux: APT/DPKG (Debian/Ubuntu), YUM/DNF/RPM (RHEL/CentOS/Fedora), Snap, Flatpak.
2. Design del modello dati comune (app, versione, architettura, fonte, firma, dipendenze, silent install args, detection rules, ritorni di stato).
3. Progettazione dell’architettura dell’agente:
- Core in linguaggio multipiattaforma (es. Python + packaging per OS; valutazione di .NET per servizi),
- Adapter per OS con capability specifiche,
- Collector (discovery), Normalizer (deduplica/merge), Publisher (Intune/registry).
4. Integrazione con Intune/Entra ID (via API) o con un backend intermedio (es. REST + DB) che esponga:
- endpoint per ingestion,
- regole di validazione/approvazione (human‑in‑the‑loop),
- export verso Intune (Win32/macOS/Linux script/app).
5. Layer di governance: logging/audit, policy di fiducia per repository, controllo firme/hash, whitelist/blacklist, tagging e ownership, criteri di escalation.
6. Test e valutazione: robustezza su OS differenti, qualità metadati, accuratezza discovery, copertura canali, performance, tracciabilità end‑to‑end, esperimenti su device reali/VM.
7. Packaging e distribuzione dell’agente: installer per i tre OS, configurazioni, rollout pilota in ambiente di test.
Deliverable:
- Documento di design con: architettura, modello dati, flussi di integrazione e linee guida operative.
- PoC funzionante dell’agente cross‑platform.
Tecnologie: Python, Bash/PowerShell, Microsoft InTune, WinGet/MSI, Homebrew/PKG/DMG, APT/YUM/DNF/RPM/Snap/Flatpak.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto: La tesi/tirocinio propone lo sviluppo di una piattaforma innovativa di Data Governance, integrando tecnologie Microsoft Azure, Microsoft Purview, Databricks Unity Catalog e AI Foundry. L’obiettivo è progettare un sistema che utilizzi agenti AI intelligenti per automatizzare la classificazione dei dati, il monitoraggio della qualità e il supporto alla compliance, migliorando la gestione e l’uso dei dati aziendali. Il progetto permette di esplorare attività pratiche di data governance, tra cui catalogazione dei dati, classificazione automatica secondo tipologia, qualità e criticità, rilevazione di anomalie e supporto alle policy aziendali, usando principalmente SQL e Python per sviluppare prototipi e analisi.
Obiettivi: Gli obiettivi del progetto sono la classificazione automatica dei dati in base a tipologia, qualità e criticità, il monitoraggio continuo della qualità dei dati con meccanismi di alert automatici, il supporto alla compliance attraverso workflow strutturati e report generati da agenti di intelligenza artificiale, nonché lo sviluppo di prototipi operativi mediante l’utilizzo di SQL e Python su dataset aziendali.
Tecnologie: Conoscenza base di SQL e Python.
Richiesto interesse per Data Governance, Data Management e AI. Curiosità per l’analisi dei dati e sperimentazione di soluzioni innovative.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Non hai trovato quello che cerchi?
Possiamo provare a costruire insieme il percorso più idoneo per te.
Grazie per l’interesse dimostrato
Per completare la richiesta, si prega di cliccare sul link di conferma che Le abbiamo inviato tramite e-mail.