Tesi e tirocini

Proposte per laureandi triennali e magistrali, delle facoltà legate al mondo dell'informatica.

Sei alla ricerca di una tesi o di un tirocinio e, al tempo stesso, vuoi iniziare a conoscere meglio il mondo del lavoro?

Ti proponiamo i seguenti ambiti sperimentali (non per tesi compilative) dove potrai metterti alla prova lavorando su casi reali utilizzando le tecnologie più innovative, ed avere il supporto dei nostri esperti. Questa lista di proposte è in costante aggiornamento, qualora non riuscissi a trovare un titolo d'interesse, o la proposta non rispecchiasse a pieno la tua aspettativa, nessun problema, contattaci e cercheremo di trovare la soluzione più adeguata a te.

Sede: Torino/Padova/Silea/Bologna | Durata 3-6 mesi | Scade il 31/12/2025

CIA - Collaborative Intelligent Agents. Un deepdive sui sistemi multi-agent per affrontare sfide complesse

Contesto
Nel panorama in rapida evoluzione dell'intelligenza artificiale generativa (GenAI), le architetture multiagent rappresentano una frontiera innovativa che consente di orchestrare più agenti intelligenti in grado di collaborare, pianificare e risolvere compiti complessi in modo autonomo. LangChain è un framework progettato per semplificare l'integrazione e la gestione dei Large Language Models (LLM) in applicazioni reali, offrendo strumenti avanzati per la progettazione e l'esecuzione di sistemi multi-agente coordinati. Come alternativa open source recentemente introdotta, il protocollo A2A rappresenta un'opzione valida per l'implementazione di sistemi multi-agente.

Obiettivi
- Progettare e sviluppare un’architettura multiagente con LangChain.
- Analizzare prestazioni, scalabilità, e coordinamento tra agenti LLM.
- Costruire un caso di studio reale basato su task suddivisi tra agenti.
- Valutare metriche come latenza, robustezza e capacità di adattamento.

Tecnologie
LangChain, OpenAI GPT-4, LangGraph, Agent2Agent (A2A) Protocol, Python, LlamaIndex, FireCrawl.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Torino/Padova/Silea/Bologna | Durata 3-6 mesi | Scade il 31/12/2025

Navigare la Conoscenza 2.0 - Metodi e strumenti per la creazione e l’utilizzo di Knowledge Graph e RDF con GenAI

Contesto
La tesi si focalizza sull'integrazione tra Knowledge Graph e GenAI, esaminando architetture che combinano KG con modelli di linguaggio per interrogazione, costruzione, e memoria conversazionale. Verranno analizzati vari pattern di costruzione, integrazione e utilizzo di Knowledge Graph combinati con il potere della GenAI.
RDF e Property Graph saranno messi a confronto in modo approfondito come tecnologie alternative per l’implementazione di un Knowledge Graph.

Obiettivi
- Implementare GraphQA Chain per tradurre query in linguaggio naturale.
- Realizzare un KG-Enhanced RAG per combinare interrogazioni semantiche e strutturate.
- Sviluppare un LLM-assisted KG construction per l'automazione della creazione dei KG.
- Creare un KG-Agent capace di gestire query e strumenti.
- Usare un KG come memoria conversazionale persistente.

Tecnologie
Neo4j Community Edition, Apache Jena Fuseki, LangChain, Chroma (vector DB), SPARQL e Cypher, Neo4j Bloom, Grafana.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: BOLOGNA/TORINO/MILANO/ROMA E/O SMART WORKING | Durata 3-6 mesi | Scade il 31/12/2025

Project Onboarding Assistant: Your Smart Copilot

Contesto
L'assistente sarà implementato attraverso un sistema multi-agente con Retrieval Augmented Generation (RAG), che permetterà di:

- Recuperare informazioni contestuali dalla documentazione del progetto.
- Rispondere a domande specifiche sulla codebase.
- Suggerire buone pratiche allineate alle linee guida del progetto.
- Assistere nella creazione e gestione di issue e componenti.

Questo assistente permetterà di ridurre significativamente il tempo necessario per raggiungere la piena produttività degli sviluppatori al loro ingresso su nuovi progetti, garantendo al contempo una maggiore aderenza agli standard e alle pratiche consolidate del team.

Obiettivi
Realizzare un assistente copilot intelligente che supporti gli sviluppatori durante la fase di onboarding sui progetti dei clienti. Questo strumento faciliterà l'inserimento di nuovi sviluppatori, accelerando la loro comprensione della base di codice, delle architetture e delle pratiche di sviluppo specifiche del progetto.

Tecnologie
Langchainm LangGraph, Database Vettoriali, OpenAI.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: BOLOGNA/TORINO/MILANO/ROMA E/O SMART WORKING | Durata 3-6 mesi | Scade il 31/12/2025

Boost Software Quality Assurance with GenAI’s Intelligent Plugin

Contesto
Sviluppare un plugin avanzato per Intellij IDEA e/o Visual Studio Code che sfrutti l'intelligenza artificiale generativa per assistere gli sviluppatori durante le fasi di Testing e Quality Assurance. Questa soluzione permetterà di ottimizzare il processo di testing, migliorare la qualità del codice e aumentare la produttività degli sviluppatori.

Obiettivi
Nel corso di questa esperienza potrai lavorare su queste tematiche:

- Generazione intelligente di JUnit Test: analisi automatica del codice sorgente e creazione di test case completi ed efficaci, con particolare attenzione a edge case e scenari critici.
- Validazione della qualità dei test: verifica dell'effettiva validità e completezza dei test esistenti, con suggerimenti per migliorare la copertura e l'efficacia.
- Monitoraggio avanzato della coverage: visualizzazione in tempo reale della copertura del codice con identificazione delle aree critiche non sufficientemente testate.
- Analisi della qualità del codice: controllo automatico dell'aderenza agli standard di qualità predefiniti, con suggerimenti contestuali per il refactoring.
- Assistente contestuale: supporto interattivo durante la fase di scrittura dei test con raccomandazioni personalizzate basate sul contesto del progetto.

I benefici attesi da questa sperimentazione riguardano:

- La riduzione significativa del tempo dedicato alla scrittura e manutenzione dei test.
- L’incremento della qualità e dell'affidabilità del software prodotto.
- L’identificazione precoce di potenziali bug e vulnerabilità.
- L’adozione più efficace delle best practice di testing.
- L’accelerazione del processo di onboarding per nuovi sviluppatori.

Il plugin si integrerà perfettamente nel flusso di lavoro degli IDE più diffusi, offrendo un'esperienza fluida e non invasiva che potenzia le capacità dello sviluppatore senza sostituirsi al suo giudizio professionale.

Tecnologie
Java/Javascript, LangGraph, LangChain, OpenAI.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: BOLOGNA/TORINO/MILANO/ROMA E/O SMART WORKING | Durata 3-6 mesi | Scade il 31/12/2025

The Intelligent Connector: Empowering AI with MCP

Contesto
Realizzare un ecosistema di server MCP che connetta le risorse aziendali con assistenti AI come Claude e plugin integrati negli IDE. Questo sistema permetterà agli sviluppatori di accedere istantaneamente a documentazione, codice sorgente, ticket e database direttamente attraverso interfacce conversazionali o IDE, accelerando lo sviluppo e migliorando la qualità del codice.

Obiettivi
Il sistema sarà implementato attraverso una rete di server MCP specializzati che:

- Espongono API standardizzate per l'accesso sicuro alle risorse aziendali.
- Si integrano con un MCP Host per offrire un'esperienza fluida.
- Mantengono una gestione centralizzata delle autorizzazioni.
- Permettono l'orchestrazione intelligente delle richieste tra diversi server.

L’obiettivo dell’ecosistema MCP permetterà di ridurre drasticamente i tempi di ricerca informazioni, facilitare l'onboarding di nuovi sviluppatori e garantire una maggiore aderenza agli standard aziendali. I modelli AI potranno fornire assistenza contestuale basata sui dati aziendali reali, migliorando significativamente la produttività del team.

Tecnologie
SDK MCP, Langchain, Database Vettoriali, OpenAI, Anthropic Claude.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: BOLOGNA/TORINO/MILANO/ROMA E/O SMART WORKING | Durata 3-6 mesi | Scade il 31/12/2025

Bridging Data and Dialogue: a Generative AI Approach to KPI Analysis and Business Insights

Contesto
La rapida diffusione dell’intelligenza artificiale generativa e delle tecnologie di comprensione del linguaggio naturale sta aprendo scenari inediti per l’interazione uomo-macchina: oggi è possibile sviluppare strumenti capaci di dialogare con l’utente, comprendere il contesto e trasformare dati grezzi in conoscenza utile e fruibile.
Questa tesi si inserisce nel punto d’incontro tra Intelligenza Artificiale, business analytics e user experience, con l’obiettivo di progettare un sistema intelligente in grado di semplificare l’interazione con il dato e valorizzarne pienamente il contenuto informativo.

Obiettivi
L’obiettivo è la progettazione e realizzazione di un assistente conversazionale intelligente basato su Generative AI, in grado di dialogare con gli utenti in linguaggio naturale e fornire informazioni dettagliate e personalizzate a partire da dati aziendali strutturati.

L’agente non si limiterà a cercare dati o fornire risposte testuali, ma sarà in grado di:

- Comprendere le domande anche quando formulate in modo impreciso o informale.
- Ragionare sui dati, con un focus particolare sull’analisi di KPI (Key Performance Indicator).
- Navigare tra diverse tabelle categorizzate per dominio (vendite, risorse umane, assistenza, ecc.), interpretandone il contenuto in modo flessibile.
- Generare insight, confronti temporali, grafici e report su richiesta.

L’obiettivo è quindi abbattere la complessità nell’accesso ai dati, permettendo anche a chi non ha competenze tecniche di ottenere risposte, analisi e spiegazioni attraverso una semplice conversazione, in termini di:

- Accessibilità: consultazione dei KPI anche da parte di utenti non esperti, mediante semplici richieste in linguaggio naturale.
- Efficienza: riduzione del tempo necessario per ottenere statistiche, grafici e report rilevanti.
- Flessibilità: possibilità di utilizzare formati condivisi per l’inserimento dei dati, semplificando l’integrazione in vari contesti aziendali.
- Automazione: generazione autonoma di risposte, analisi e documentazione a partire da dati grezzi.
- Personalizzazione: il sistema potrà apprendere il contesto aziendale e adattarsi ai KPI più rilevanti per l’utente o per il settore.
- Scalabilità: la soluzione è progettata per essere espandibile e adattabile a nuove fonti dati o formati di input/output.

Tecnologie
Python, LangChain, OpenAI GPT-4 (o successivi), Database relazionale o documentale, Meccanismi di ingestione dati, Reportistica (PDF generation).


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: TORINO/BOLOGNA | Durata 3-6 mesi | Scade il 31/12/2025

HCI-Driven UI Optimizer: An Application for Automated User Interface Improvement through Heuristic Evaluations

Contesto
Il progetto propone lo sviluppo di un'applicazione innovativa a supporto degli sviluppatori per migliorare le interfacce utente esistenti. L'applicazione sfrutta le HCI Heuristic Evaluations per identificare e raccomandare miglioramenti in termini di usabilità e funzionalità. Il sistema guiderà l’utente finale nell’individuazione di potenziali violazioni, generando un report dettagliato per gli sviluppatori che includa suggerimenti di miglioramento sia dal punto di vista funzionale che del codice.​

Obiettivi
L’obiettivo di questa tesi è sviluppare un’applicazione che consenta agli sviluppatori di selezionare elementi o funzioni dell’interfaccia da valutare, guidando utenti non esperti nella compilazione di un questionario per identificare potenziali violazioni di usabilità. I risultati del questionario saranno elaborati per generare un report dettagliato che includa un elenco delle violazioni rilevate insieme a suggerimenti concreti per il loro miglioramento funzionale. Una caratteristica chiave dell’applicazione è il meccanismo automatico di proposta, in cui un agente intelligente analizza i problemi identificati e genera suggerimenti di modifica su misura, collegati direttamente agli elementi problematici nel codice. Agli sviluppatori verrà presentato un report interattivo che mostrerà le violazioni, le sezioni di codice rilevanti e le modifiche proposte dall’agente. Questa automazione mira a ridurre significativamente il lavoro manuale, permettendo agli sviluppatori di accettare, personalizzare o ignorare facilmente i suggerimenti, accelerando così e semplificando il processo di ottimizzazione dell’interfaccia utente.​

Tecnologie
React.JS, Node.js, TypeScript, PostgreSQL, Python, Langchain.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: TORINO/BOLOGNA | Durata 3-6 mesi | Scade il 31/12/2025

AI-Powered Dynamic UI Generation

Contesto
L'interazione con i sistemi basati sull'Intelligenza Artificiale (AI) è destinata a evolversi. Questa tesi propone un modello avanzato per la generazione dinamica di interfacce utente (UI), in cui il motore LLM seleziona componenti orientati all'azione, ovvero elementi scelti in base alla loro capacità di facilitare un flusso di lavoro chiaro e funzionale. Questi componenti non sono selezionati in base alle preferenze esplicite dell'utente, ma su esigenze generiche dedotte in tempo reale tramite inferenza contestuale.​

Obiettivi
L'obiettivo è sviluppare un sistema che utilizza Large Language Models (LLMs) per analizzare l'input dell'utente e fornire un'interfaccia utente efficace volta a migliorarne l'usabilità. Per raggiungere questo scopo, il sistema determina le esigenze contestuali basandosi sulle richieste dell'utente e configura di conseguenza un'interfaccia di interazione. In particolare, gli obiettivi sono:​

- Sviluppare e descrivere un insieme di componenti orientati all'azione per affrontare casi d'uso comuni di un assistente virtuale.​
- Applicare inferenze semantiche per comprendere le intenzioni dell'utente.​
- Trasformare dinamicamente l'interfaccia selezionando i componenti UI più adatti tra quelli precedentemente sviluppati. Questa selezione dovrebbe avvenire attraverso un processo di corrispondenza semantica tra le intenzioni identificate e le descrizioni dei componenti.

Tecnologie
LangChain, Python, Typescript, React.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: TORINO/BOLOGNA | Durata 3-6 mesi | Scade il 31/12/2025

Agentic RAG

Contesto
La rapida evoluzione degli agenti conversazionali intelligenti ha registrato una crescita senza precedenti, guidata dai progressi nei framework di Retrieval-Augmented Generation (RAG), che combinano i punti di forza del recupero di informazioni e dell'AI generativa per fornire risposte contestualmente ricche e accurate. Questi progressi aprono la strada a sistemi più sofisticati, in grado di affrontare interrogazioni complesse da parte degli utenti con maggiore precisione e adattabilità.

Obiettivi
L’Agentic Retrieval-Augmented Generation (RAG) introduce un nuovo paradigma nell’AI generativa, consentendo ai sistemi di integrare autonomamente processi di recupero, ragionamento e presa di decisioni. A differenza dei sistemi RAG statici, l’agentic RAG determina dinamicamente la sequenza dei recuperi, valuta i risultati intermedi e decide quale base di conoscenza sia più appropriata per reperire le informazioni. Questa flessibilità consente di affrontare interrogazioni complesse e articolate con maggiore precisione e adattabilità.Consentendo ai sistemi di gestire flussi di lavoro che richiedono comprensione contestuale e risoluzione dei problemi in tempo reale, l’agentic RAG apre nuove possibilità in settori come il customer service, l’educazione e la sanità. Questa tesi esplora lo sviluppo e le sfide di tali sistemi, con l'obiettivo di promuoverne l'applicazione nella risoluzione di problemi complessi del mondo reale​

Tecnologie
Python, TypeScript, Neo4j, LangChain.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: TORINO/BOLOGNA | Durata 3-6 mesi | Scade il 31/12/2025

Multi-hop and Advanced RAG Techniques

Contesto
Nel campo in evoluzione della Generative AI, rispondere a domande complesse richiede spesso diversi passaggi di ragionamento su fonti di dati eterogenee. Questa tesi si concentra sulla progettazione e implementazione di un sistema Multi-hop Retrieval-Augmented Generation (RAG).

Obiettivi
La ricerca mira a permettere al modello di attraversare e sintetizzare informazioni da più basi di conoscenza, utilizzando tecniche di recupero all'avanguardia, ragionamento basato su grafi e chain-of-thought prompting. Sfruttando database a grafo per unificare dati strutturati e non strutturati, il sistema acquisisce la capacità di mappare relazioni complesse e garantire un'integrazione fluida di fonti informative diverse. Incorporando meccanismi avanzati di routing e strategie di concatenamento contestuale, il sistema proposto affronta sfide come la disambiguazione della conoscenza e la gestione di contesti lunghi. Valutazioni approfondite vengono effettuate per analizzare la capacità del sistema di rispondere a query multi-hop in scenari reali, tra cui ricerca legale, esplorazione scientifica e business intelligence. I risultati contribuiscono all'avanzamento di un ragionamento multi-hop scalabile e interpretabile nei sistemi GenAI.

Tecnologie
Python, TypeScript, Neo4j, LangChain.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: TORINO/BOLOGNA | Durata 3-6 mesi | Scade il 31/12/2025

FinOps for GenAI Agents

Contesto
La rapida adozione dei Large Language Models (LLMs) ha rivoluzionato attività come la comprensione del linguaggio naturale, la generazione di contenuti e l'automazione. Tuttavia, le richieste computazionali di questi modelli comportano spesso costi significativi, creando sfide nella gestione e ottimizzazione efficace delle risorse. Poiché le organizzazioni integrano sempre più i LLM nei propri flussi di lavoro, comprendere e controllare le implicazioni finanziarie del loro utilizzo è diventato fondamentale. Ciò introduce la necessità di sistemi intelligenti in grado di monitorare e ottimizzare i costi garantendo al contempo alte prestazioni e scalabilità.

Obiettivi
Questa tesi si concentra sullo sviluppo di tecniche FinOps per agenti GenAI, progettate per monitorare, analizzare e ottimizzare i costi associati all'utilizzo dei LLM. La ricerca esplora tecniche per tracciare le spese a un livello granulare, come i costi per utente o per applicazione, e strategie per ottimizzare il consumo di token. Il sistema proposto integra strumenti avanzati di monitoraggio, algoritmi di ottimizzazione dei costi e politiche intelligenti di utilizzo per bilanciare accessibilità ed efficienza. Attraverso l'implementazione e la valutazione di queste soluzioni in diversi casi d'uso, lo studio mira a fornire indicazioni pratiche e framework per un utilizzo sostenibile ed economicamente efficiente dei LLM.​

Tecnologie
Python, Langfuse, LangChain.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: BOLOGNA/BARI | Durata 6 mesi | Scade il 30/06/2025

Automazione dei task di sviluppo mediante l'utilizzo di agenti AI Empowered

Contesto
Nel contesto dello sviluppo software, l'efficienza e la rapidità di implementazione sono fattori critici per il successo dei progetti. L'emergere di tecnologie di intelligenza artificiale offre nuove opportunità per l'automazione dei task di sviluppo, in particolare attraverso l'uso di agenti AI empowered. Questi agenti sono in grado di leggere e interpretare il contenuto di un task, comprendere gli impatti delle modifiche richieste sul codice esistente e procedere con implementazioni automatiche basate su analisi contestuali.

Obiettivi
L'obiettivo di questa tesi è progettare e sviluppare un sistema automatizzato che utilizzi agenti AI empowered per gestire i task di sviluppo a partire da requisiti funzionali e tecnici. Nella fase iniziale, si procederà a un'analisi approfondita delle tecnologie AI disponibili, con particolare attenzione alle capacità di elaborazione del linguaggio naturale e di analisi del codice. Successivamente, verrà realizzato un prototipo di agente AI in grado di interpretare le richieste, valutare le modifiche necessarie e implementarle autonomamente nel codice applicativo. L'efficacia del sistema sarà valutata attraverso metriche quali il tempo di implementazione, il tasso di errori post-implementazione e la soddisfazione degli sviluppatori. Questo progetto mira a dimostrare come l'automazione dei task di sviluppo possa migliorare la produttività e ridurre il carico di lavoro manuale, contribuendo a un ciclo di sviluppo più efficiente e reattivo.

Tecnologie
Github, Langchain, LangGraph, OpenAI, AWS, Bedrock, MCP (Model Context Protocol).


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Torino/Silea/Padova/Bologna | Durata 3-6 mesi | Scade il 31/12/2025

Revolutionizing data fetchin: a battle between GraphQL and REST in data-driven micoservices

Contesto
Grazie alla loro semplicità e scalabilità, le API REST rappresentano uno standard consolidato per la comunicazione tra le varie componenti in architetture a microservizi. Tuttavia, l'emergere di GraphQL ha offerto nuove prospettive per un recupero dei dati più efficiente, specialmente in contesti dove la complessità delle query e l'over-fetching di informazioni rappresentano un problema. GraphQL permette di richiedere solo i dati necessari, riducendo così il traffico di rete e ottimizzando la comunicazione tra frontend e backend.

Obiettivi
Questo studio si propone di confrontare GraphQL e REST dal punto di vista dell'efficienza nel recupero dei dati in architetture a microservizi. L’obiettivo principale è valutare le prestazioni, l’efficacia nel ridurre l’over-fetching e l’impatto sui tempi di risposta in scenari reali. Sarà esaminata anche la facilità di adozione e integrazione di GraphQL rispetto a REST in applicazioni esistenti, nonché i potenziali vantaggi e svantaggi per gli sviluppatori e gli utenti finali.
La sperimentazione coinvolgerà lo sviluppo di due versioni di un’applicazione a microservizi, una che utilizza API REST tradizionali e una che implementa GraphQL. Entrambe le architetture verranno sottoposte a test di carico per valutare tempi di risposta, utilizzo delle risorse e volume di dati trasferiti. L’analisi si concentrerà anche sulla gestione della complessità delle query e sulla flessibilità di entrambe le soluzioni in scenari complessi con elevata personalizzazione delle richieste di dati.

Tecnologie
GraphQL, REST, AWS, Gatling, Apache JMeter, Prometheus, Grafana, Java, Spring Boot.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Silea/Padova | Durata 3-5 mesi | Scade il 30/06/2025

Analisi e gestione dei conflitti tra requisiti non funzionali

Contesto
In ingegneria dei requisiti, i requisiti non funzionali rappresentano i vincoli di funzionamento di un sistema, e.g., i vincoli di natura temporale, vincoli sul processo di sviluppo e sugli standard da adottare, e sono fondamentali nel determinare la qualità dei servizi forniti attraverso una soluzione software.
Le caratteristiche di run-time riferite ad un insieme di NFR dipendono dall'infrastruttura operativa in cui è stata implementata la soluzione. Quando si gestiscono più requisiti non funzionali in un sistema, possono sorgere conflitti causati da diversi fattori, e.g., cambiamenti nell'ambiente aziendale, modifiche all'infrastruttura operativa, e requisiti in evoluzione. Questi conflitti possono porre sfide significative e richiedono un’attenta considerazione per garantire che i requisiti non funzionali siano soddisfatti in modo ottimale. I conflitti tra requisiti non funzionali non individuati possono avere un impatto dannoso sulle prestazioni di un sistema operativo.
In "Minimizing conflicts among run-time non-functional requirements within DevOps" è stato proposto un framework per la minimizzazione dei conflitti tra requisiti non funzionali, con lo scopo di migliorare la qualità del software ed aumentare la produttività.

Obiettivi
Questa tesi ha lo scopo di:

- Individuare ed analizzare i requisiti non funzionali, ed i loro conflitti, richiesti da un applicativo aziendale.
- Indagare l'applicabilità del framework sopra menzionato in ambito aziendale, analizzandone vantaggi e limiti, ed indagare possibili ottimizzazioni e/o estensioni delle sue funzionalità.

Tecnologie
Java, Eclipse, Python, SQL Server.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Silea/Padova | Durata 3-5 mesi | Scade il 30/06/2025

Utilizzo dell'intelligenza artificiale a supporto della fase di definizione dei requisiti

Contesto
Alcune delle decisioni prese durante il flusso di valore tecnologico possono sfociare in errori software complessi, le cui possibili soluzioni vengono ridotte dal passare del tempo. Questo, a sua volta, fa sì che le organizzazioni dimostrino sempre più interesse nel gestire in modo efficiente il flusso di valore di un prodotto software.
In "Driving the Technology Value Stream by Analyzing App Reviews" è stato proposto un framework che analizza i riscontri degli utenti finali di un'applicazione software, che combina:

- Tecniche di sentiment analysis.
- Un key phrase extraction model basato su un'architettura transformer-based.
- Un topic recognition classifier di recensioni, con lo scopo di facilitare le organizzazioni a prendere delle decisioni per ottenere un alto grado di soddisfazione da parte degli utenti finali del software proposto.

Obiettivi
Questa tesi ha lo scopo di indagare l'applicabilità del framework sopra menzionato in ambito aziendale, analizzandone vantaggi e limiti, ed indagare possibili ottimizzazioni e/o estensioni delle sue funzionalità.

Tecnologie
Jupyter notebook, OpenAI account.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Silea/Padova | Durata 3-5 mesi | Scade il 30/06/2025

Utilizzo dell'intelligenza artificiale a supporto della documentazione di codice sorgente

Contesto
Il codice sorgente spesso non viene documentato; questo porta ad un forte aumento del tempo dedicato alla risoluzione degli errori software, difficoltà nella manutenzione e nell'aggiornamento del codice, e talvolta anche il completo abbandono dello stesso.
"CoDescribe: An Intelligent Code Analyst for Enhancing Productivity and Software Quality" è un framework che utilizza transformer-based models e knowledge graphs per generare documentazione di codice sorgente, tra le altre cose.

Obiettivi
Questa tesi ha lo scopo di indagare l'applicabilità di CoDescribe in ambito aziendale, analizzandone vantaggi e limiti, ed indagare possibili ottimizzazioni e/o estensioni delle sue funzionalità.

Tecnologie
Python, OpenAI account.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Silea/Padova | Durata 3-6 mesi | Scade il 30/06/2025

Test Driven AI

Contesto
Nel campo dello sviluppo software, l'automazione dei test è essenziale per garantire la qualità e la stabilità delle applicazioni. Tuttavia, la creazione manuale di testcase può essere laboriosa e suscettibile di errori. In risposta a questa sfida, l'utilizzo dell'intelligenza artificiale (AI) per la generazione automatica di testcase rappresenta un'opportunità promettente. Questa tesi si propone di sviluppare un tool innovativo che, dato un input in linguaggio naturale, generi automaticamente delle specifiche compatibili con il processo di Behavior-Driven Development e generi degli script automatici sfruttando le capacità delle API di ChatGPT o un analogo modello di AI.

Obiettivi
L'obiettivo principale di questa tesi è lo sviluppo di un tool che consenta di generare testcase a partire da prompt espressi in linguaggio naturale. Il tool utilizzerà le API di ChatGPT o un framework simile per interpretare i prompt degli utenti e tradurli in specifiche Behavior-Driven Development (es. Cucumber). Successivamente sempre tramite AI si genereranno dei test automatici sotto forma di script eseguibili.

Ti occuperai di:

- Progettazione dell'Architettura del Tool: Si definirà l'architettura del tool, identificando i componenti necessari per l'interazione con le API di ChatGPT e l'esecuzione dei comandi.
- Implementazione delle Funzionalità di Intelligenza Artificiale: Si studieranno modelli di linguaggio naturale e le API di ChatGPT o un analogo framework, per interpretare i prompt degli utenti.
- Integrazione con il Generatore di Testcase: Si implementeranno le funzionalità per tradurre le istruzioni generate in script Behavior-Driven Development.
- Scrittura dei test automatici: Tramite l'utilizzo dell'AI si implementeranno test automatici eseguibili.
- Testing e Valutazione: Si condurranno test per valutare l'accuratezza e l'efficacia del tool nella generazione di testcase in base a prompt in linguaggio naturale.
- Valutazione Comparativa: Si effettuerà un confronto con altri approcci disponibili per il test automation, valutandone l'efficienza e la manutenibilità.

Tecnologie
Cucumber, ChatGPT o equivalente.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Silea/Padova | Durata 3 mesi | Scade il 30/06/2025

Serverless Framework

Contesto
L'adozione crescente del paradigma serverless ha portato molte organizzazioni a considerare l'uso del Serverless Framework come uno strumento principale per lo sviluppo e il deployment delle loro applicazioni. Tuttavia, l'ambiente multicloud presenta sfide uniche in termini di portabilità delle applicazioni e gestione delle risorse. Questa tesi si concentra sull'indagine dell'efficacia del Serverless Framework in contesti multicloud, con particolare attenzione alla sua portabilità e alla gestione delle risorse.

Obiettivi

1. Analizzare le funzionalità e l'architettura del Serverless Framework e comprendere come si adatta agli ambienti multicloud.
2. Progettare e implementare un ambiente di sperimentazione multicloud utilizzando una selezione di provider cloud, come AWS e Azure.
3. Deployare applicazioni di esempio utilizzando il Serverless Framework su ciascuna piattaforma cloud selezionata.
4. Valutare la portabilità delle applicazioni sviluppate utilizzando il Serverless Framework tra i diversi fornitori di servizi cloud.
5. Esplorare le strategie e gli strumenti per la gestione delle risorse nell'ambiente multicloud utilizzando il Serverless Framework.

Tecnologie
Git, Serverless framework, Aws, Azure.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Bari/Torino | Durata 3-6 mesi | Scade il 30/06/2025

Big Data - Tecniche avanzate di ottimizzazione per la gestione logistica dello spostamento merci

Contesto
Il presente lavoro di tesi si propone di analizzare e approfondire le tecniche più avanzate di risoluzione di problemi di ottimizzazione applicati alla gestione logistica dello spostamento merci, con un focus particolare sulle metodologie che prevedono l'aggiornamento parziale della soluzione. La logistica rappresenta una componente cruciale per il successo delle aziende, poiché influisce direttamente sull'efficienza operativa e sui costi complessivi. In un contesto caratterizzato da una crescente complessità delle reti di distribuzione e da una domanda sempre più esigente di tempi di consegna ridotti e di alta qualità del servizio, diventa essenziale adottare soluzioni innovative e ottimizzate.

Obiettivi
La tesi si suddivide in tre parti principali:

1. La prima parte prevede l’analisi teorica delle tecniche di ottimizzazione, con un focus particolare su algoritmi evolutivi, algoritmi di ottimizzazione basati su swarm intelligence, programmazione matematica avanzata e metodi di machine learning. Viene esplorata l'applicabilità di tali tecniche in diversi scenari logistici, con un'enfasi speciale sulle metodologie che consentono l'aggiornamento parziale della soluzione, permettendo di adattarsi in tempo quasi reale a variazioni dei dati e delle condizioni operative.
2. La seconda parte del lavoro approfondisce gli strumenti software open source attualmente disponibili per l'implementazione delle suddette tecniche di ottimizzazione. Vengono analizzati diversi software open source, mettendo in luce le funzionalità, le prestazioni e la facilità d'uso. Particolare attenzione viene riservata agli strumenti che integrano algoritmi di intelligenza artificiale e apprendimento automatico, nonché alle capacità di questi strumenti di gestire aggiornamenti parziali della soluzione in risposta a nuove informazioni o cambiamenti nei requisiti logistici.
3. Nella terza e ultima parte, verrà presentato come caso di studio l'applicazione pratica di una delle tecniche sopra discusse su un problema reale. Attraverso un'analisi dei risultati ottenuti, si valuterà quanto l'utilizzo di tecniche di ottimizzazione avanzate con aggiornamento parziale della soluzione abbia portato a miglioramenti significativi in termini di riduzione dei costi ed aumento dell'efficienza operativa.

Tecnologie
Artificial Intelligence Algoritm, IBM, AWS, Azure, Google Cloud, Python, Java.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Bari/Torino | Durata 3-6 mesi | Scade il 30/06/2025

Big Bata - AI for automatic Data Harmonization & Data Lineage

Contesto
La Data Harmonization è un processo cruciale ma estremamente dispendioso in termini di tempo nella gestione dei dati, volto a creare un dataset coerente, accurato e completo a partire da fonti eterogenee. A questo si aggiunge l'importanza del Data Lineage, che garantisce la tracciabilità e la trasparenza del ciclo di vita dei dati. Questa tesi esplora l'applicazione innovativa dell'Intelligenza Artificiale Generativa, in particolare dei Large Language Models (LLMs), per automatizzare e ottimizzare i processi di Data Harmonization e Data Lineage.

Obiettivi
Gli LLMs hanno dimostrato notevoli capacità di comprensione e generazione del testo, rendendoli particolarmente adatti a gestire le complessità dell'armonizzazione dei dati e della tracciabilità delle loro trasformazioni. La ricerca indaga il potenziale degli LLMs nell'automazione delle principali fasi della Data Harmonization, compresa la standardizzazione, la pulizia e l'integrazione dei dati, nonché nel miglioramento della tracciabilità del Data Lineage attraverso l'analisi e la documentazione automatizzata delle trasformazioni dei dati.
Attraverso sperimentazioni e analisi comparative, si valuterà l'efficacia degli LLMs nel ridurre i tempi e i costi associati a questi processi, migliorando al contempo la qualità, l'affidabilità e la trasparenza dei dati armonizzati e tracciati. I risultati attesi potrebbero rappresentare un significativo avanzamento nelle pratiche di gestione dei dati, offrendo soluzioni più rapide, accurate e trasparenti per le organizzazioni che operano con grandi volumi di dati complessi.

Tecnologie
Artificial Intelligence Algoritm, IBM, AWS, Azure, Google Cloud.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Bari/Torino | Durata 3-6 mesi | Scade il 30/06/2025

Big Data - AI Data Test Automation Framework

Contesto
L'evoluzione dell'Intelligenza Artificiale (AI) e della gestione dei dati ha aperto nuove opportunità per l'automazione dei test, specialmente nel contesto dei processi di estrazione, trasformazione e caricamento (ETL). Questa tesi propone la realizzazione di un framework innovativo, denominato AI Data Test Automation Framework, progettato per automatizzare e ottimizzare i test dei processi ETL.

Obiettivi
La tesi prevede lo studio e l’implementazione di tre principali funzionalità:

- Generazione di Test Book dal Codice ETL: Il framework sarà in grado di analizzare automaticamente il codice ETL e generare un test book dettagliato, evidenziando le peculiarità dei test presenti nel codice, come i casi di edge, le condizioni di errore e i comportamenti attesi. L'obiettivo è fornire una documentazione strutturata che faciliti la comprensione e la verifica del codice da parte dei tester.
- Generazione di Dati Sintetici con Validazione Matematica/Statistica: Un modulo del framework sarà dedicato alla generazione di dati sintetici. Questi dati verranno creati per coprire tutte le possibili casistiche di test, garantendo la rappresentazione di scenari reali senza compromettere la privacy su dati sensibili (GDPR compliant). La validità dei dati sintetici sarà assicurata attraverso tecniche di validazione matematica e statistica, permettendo di simulare accuratamente i dati di produzione.
- Automazione dei Test e Reportistica Dettagliata: Un apposito Agent testerà automaticamente il codice ETL utilizzando i dati sintetici generati. Verranno eseguiti vari test, inclusi test di integrazione, di regressione e di performance. Al termine dei test, il framework genererà un report dettagliato che descriverà i risultati ottenuti, le eventuali anomalie riscontrate e le raccomandazioni per migliorare il codice.

Tecnologie
Artificial Intelligence Algoritm, IBM, AWS, Azure, Google Cloud.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Milano/Torino e/o Smart working | Durata 6 mesi | Scade il 30/06/2025

La Generative AI nei processi di gestione del software, studio di un caso reale

Contesto
Questo studio di tesi mira ad esplorare e misurare come l'applicazione di modelli di intelligenza artificiale generativa possano supportare nel processo di gestione del software, affrontando aspetti specifici mediante lo studio e la prototipazione di un caso reale.
Un contesto in continua e rapida evoluzione, che può portare a diversi vantaggi e impatti positivi, contribuendo a migliorare l'efficienza, la produttività e la qualità dello sviluppo del software.

Obiettivi
Lo studio di tesi si pone l’obiettivo di esplorare e misurare come l'applicazione di modelli di intelligenza artificiale generativa possano supportare nell’interpretazione dei documenti di specifiche funzionali e nelle successive fasi di disegno e generazione del codice.
Lo studio sarà applicato ad un caso concreto che preveda l’addestramento di modelli su documenti multiformato, come word ed excel, per la generazione modelli concettuali coerenti e alla generazione del codice software.

Tecnologie
LLM, Gaph DB.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Torino e/o Smart Working | Durata 3-6 mesi | Scade il 30/06/2025

Innovazione nello sviluppo: un'indagine sull'impatto della Generative AI

Contesto
Questa tesi si propone di esplorare il ruolo rivoluzionario della Generative Artificial Intelligence (Generative AI) nell'ambito dello sviluppo di applicazioni Angular. Concentrandosi sull'integrazione di tale tecnologia innovativa, l'obiettivo è migliorare l'efficienza, la coerenza e la produttività complessiva durante il ciclo di sviluppo.

Obiettivi
L'indagine inizia con un'esplorazione approfondita delle basi dei framework di sviluppo e dei loro requisiti di sviluppo, per poi introdurre la Generative AI come supporto chiave. Quest'ultima, attraverso la generazione automatica di codice e componenti, mira a semplificare il processo di sviluppo, riducendo i tempi e mitigando potenziali errori umani.
L'analisi pratica si basa su studi di casi specifici, dimostrazioni di implementazione e misurazioni quantitative delle prestazioni.
La tesi conclude con linee guida pratiche per gli sviluppatori che desiderano integrare la Generative AI nei loro progetti di sviluppo, evidenziando le potenzialità di questa tecnologia nel migliorare la qualità del codice, la velocità di sviluppo e la sostenibilità a lungo termine delle applicazioni.

Tecnologie
Java, Angular, React, Spring.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Milano/Torino | Durata 3-6 mesi | Scade il 30/06/2025

AI-Powered Robot Framework Code Generator: la rivoluzione nella test automation e nella creazione di bot

Contesto
La ricerca sottolinea l’importanza della generazione di codice basata sull’intelligenza artificiale come principale acceleratore per raggiungere la massima agilità nei progetti IT. Offre una soluzione pratica per team di test, sviluppatori e in generale per tutti coloro che cercano di migliorare la velocità, l'affidabilità e la scalabilità delle loro iniziative di automazione, siano esse relative alla test automation o al mondo della RPA. Il potenziale dello strumento è dimostrato attraverso casi di studio reali e valutazioni empiriche, che dimostrano la sua capacità di accelerare la creazione del codice mantenendo elevati livelli di copertura dei test e precisione di automazione dei processi.

Obiettivi
L’obiettivo di questo percorso di tesi è disegnare e realizzare un tool che automatizzi la generazione di codice sfruttando l'intelligenza artificiale per create dei bot su Robot Framework che svolgano attività di automazione di test e processi robotici (RPA). Robot Framework è uno strumento di automazione versatile, che funge da base per questa ricerca. Il nostro obiettivo è consentire a tester, sviluppatori e professionisti RPA di progettare e generare rapidamente codice su Robot Framework, eliminando la necessità di codifica manuale e accelerando significativamente il processo di automazione.
Lo sviluppo di questo strumento ruota attorno all'integrazione di algoritmi di intelligenza artificiale avanzati, consentendo allo strumento di interpretare input, requisiti e scenari di test o automazione forniti dagli utenti. Attraverso l’intelligenza artificiale, il processo di generazione del codice è automatizzato, consentendo agli utenti di esprimere i propri requisiti in linguaggio naturale e ottenere in risposta del codice che soddisfi determinate soglie di qualità.

Tecnologie
Robot Framework, RPA, AI, LLM.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Milano/Torino | Durata 3-6 mesi | Scade il 30/06/2025

Strategie e sfide nell'implementazione e nella distribuzione di Large Language Model (LLM) come agenti interattivi

Contesto
Questa tesi approfondisce le molteplici strategie, sfide e risultati ottenibili grazie all’utilizzo di Large Language Model (LLM) per l’implementazione di agenti interattivi a supporto della nostra operatività quotidiana. Oggi gli LLM giocano un ruolo centrale nel rimodellare il panorama dell'elaborazione del linguaggio naturale e delle interazioni guidate dall'intelligenza artificiale, pertanto risulta necessario comprendere a fondo le complessità nella loro implementazione per poterne sfruttare al meglio le potenzialità.

Obiettivi
In particolare, lo studio è focalizzato sull'implementazione di un agente interattivo basato su LLM. Questo agente è progettato per interpretare le istruzioni umane con un elevato grado di precisione e successivamente interrogare lo strumento appropriato per soddisfare tali richieste, sia esso un tool aziendale, un documento o una risorsa web. L’agente dovrà essere in grado di assolvere compiti diversi, come la generazione di testi sofisticati, la generazione di immagini dinamiche, la segmentazione precisa delle immagini e altre funzionalità avanzate.
In sintesi, la tesi indaga le strategie, le sfide e i risultati nell'implementazione dei Large Language Model (LLM) come agenti intelligenti in grado di elaborare istruzioni umane e svolgere compiti articolati che prevedono di manipolare diverse tipologie di informazioni, come testo ed immagini.

Tecnologie
AI, LLM, Langchain.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Milano/Torino | Durata 3-6 mesi | Scade il 30/06/2025

L'Intelligenza Artificiale come acceleratore nell'utilizzo di tool low code

Contesto
Nel contesto dell'evoluzione delle pratiche di sviluppo software, l'approccio low code è emerso come una soluzione innovativa per accelerare il processo di creazione di applicazioni grazie all'adozione di interfacce grafiche intuitive che riducono la necessità di scrivere manualmente grandi quantità di codice. Questo studio si concentra sull'integrazione di tecnologie di Intelligenza Artificiale come acceleratore chiave all'interno di piattaforme con approccio low code, quali IBM Business Automation Workflow (BAW) e PEGA.

Obiettivi
La ricerca esplora come l'AI può essere implementata per ottimizzare il ciclo di vita dello sviluppo delle applicazioni, migliorando la produttività degli sviluppatori, riducendo i tempi di sviluppo e garantendo una maggiore qualità del software risultante. Vengono analizzate le funzionalità specifiche di IBM BAW e PEGA che sfruttano l'AI, evidenziando casi di studio, best practice e sfide riscontrate durante l'implementazione di progetti.
Attraverso un approccio metodologico che include la revisione della letteratura, lo studio di progetti concreti e l'analisi comparativa delle performance, la tesi mira a fornire una panoramica completa sull'impatto dell'AI nell'ecosistema low code. I risultati ottenuti contribuiscono a delineare le prospettive future di questa sinergia, offrendo insight utili per gli sviluppatori e per le aziende che cercano di massimizzare l'efficienza e la qualità nello sviluppo di applicazioni attraverso l'uso di strumenti low code potenziati dall'AI.

Tecnologie
Low code, AI, LLM, PEGA, IBM BAW.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Non c'è la tesi che fa per te?

Possiamo provare a costruire insieme un nuovo titolo di tesi. Avrai il supporto dei nostri esperti per scegliere le tecnologie più adeguate.