Tesi e tirocini

Proposte per laureandi triennali e magistrali, delle facoltà legate al mondo dell'informatica.

Sei alla ricerca di una tesi o di un tirocinio e, al tempo stesso, vuoi iniziare a conoscere meglio il mondo del lavoro?

Ti proponiamo i seguenti ambiti sperimentali (non per tesi compilative) dove potrai metterti alla prova lavorando su casi reali utilizzando le tecnologie più innovative, ed avere il supporto dei nostri esperti. Questa lista di proposte è in costante aggiornamento, qualora non riuscissi a trovare un titolo d'interesse, o la proposta non rispecchiasse a pieno la tua aspettativa, nessun problema, contattaci e cercheremo di trovare la soluzione più adeguata a te.

Sede: BOLGONA/BARI | Durata 6 mesi | Scade il 31/12/2025

L’approccio del test driven development applicato al modello di sviluppo agentico

Contesto
Il Test-Driven Development (TDD) è una metodologia che guida lo sviluppo software partendo dalla scrittura dei test prima dell’implementazione della logica applicativa. In questo approccio, i test derivano direttamente dai requisiti e il codice viene sviluppato per soddisfarli. L’integrazione dell’intelligenza artificiale in questo flusso apre scenari innovativi: un agente AI può essere incaricato di interpretare un requisito, generare test automatici coerenti e successivamente implementare il codice necessario per farli passare, seguendo il ciclo TDD.

Obiettivi
La tesi si propone di progettare e valutare un sistema che sfrutti agenti AI per automatizzare il processo di sviluppo secondo la metodologia TDD. A partire da una descrizione testuale del requisito, l’agente dovrà generare i test attesi (unitari e/o di integrazione), implementarli nel codice di test e successivamente sviluppare la logica applicativa necessaria per soddisfare tali test. Il sistema verrà confrontato con approcci AI più diretti (code generation senza test preventivi), al fine di valutare vantaggi e svantaggi dell’approccio TDD-assistito in termini di qualità del codice, copertura dei test, produttività e mantenibilità. L’obiettivo finale è comprendere se la TDD automatizzata tramite AI possa diventare una pratica sostenibile ed efficace nei team di sviluppo.

Tecnologie
Windsurf, SonarQube, JUnit, OpenAI, Springboot.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: SILEA/Padova | Durata 3-6 mesi | Scade il 31/12/2025

Creator of Documentation

Contesto
Nel panorama digitale contemporaneo, la complessità degli applicativi web è in costante crescita, rendendo sempre più difficile per utenti non tecnici comprenderne il funzionamento. Molte aziende investono risorse significative nella formazione del personale o nella creazione di documentazione dettagliata per i propri strumenti digitali. Tuttavia, questo processo è spesso costoso, time-consuming e soggetto a rapida obsolescenza a causa degli aggiornamenti continui delle interfacce. La necessità di un sistema automatizzato che possa analizzare in tempo reale un applicativo web e generare documentazione comprensibile anche ai non esperti è diventata cruciale per migliorare l'adozione degli strumenti digitali, ridurre i costi di formazione e aumentare la produttività aziendale.

Obiettivi
- Comprendere il funzionamento degli applicativi: sviluppare algoritmi che permettano di analizzare e interpretare l'interfaccia e le funzionalità di un applicativo web, generando un documento che ne sintetizzi il comportamento.
- Creare un documento informativo: produrre un output testuale utile per gli utenti, in modo che possano comprendere rapidamente come utilizzare l'applicativo e quali funzioni sono disponibili.
- Sviluppare un plug-in per il browser: realizzare un'estensione del browser che, interagendo con l'applicativo, possa guidare l'utente nell'esecuzione di compiti specifici. Questa estensione potrebbe evidenziare i pulsanti e le funzionalità pertinenti, migliorando l'esperienza utente e fornendo assistenza in tempo reale.
- Valutare l'usabilità: testare e valutare l'efficacia del tool e del plug-in sviluppati, raccogliendo feedback dagli utenti e analizzando come queste soluzioni possano migliorare la loro interazione con gli applicativi web.

Tecnologie
Gen AI, Python, JavaScript, Browser extension.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: SILEA/Padova | Durata 3-6 mesi | Scade il 31/12/2025

Application Serverless

Contesto
L'adozione di architetture cloud native e serverless è in rapida crescita grazie ai vantaggi di scalabilità, flessibilità e riduzione dei costi operativi. Tuttavia, un problema critico che le aziende affrontano è il rischio di dipendere eccessivamente da specifici cloud provider (vendor lock-in), limitando la loro agilità strategica e potenzialmente aumentando i costi nel lungo periodo. Questa tesi nasce dalla necessità di sviluppare un'applicazione funzionale ad uso interno dell'azienda, ma l'interesse principale è di definire un approccio metodologico che permetta alle organizzazioni di sfruttare i vantaggi del cloud preservando la libertà di migrare tra diversi provider secondo le proprie esigenze evolutive.

Obiettivi
- Analisi comparativa delle principali soluzioni serverless offerte dai cloud provider.
- Valutazione di framework e tecnologie open source per lo sviluppo cloud native.
- Definizione di best practices per lo sviluppo di applicazioni cloud-agnostic.
- Implementazione di una applicazione prototipo utilizzando la metodologia sviluppata.
- Valutazione critica dei risultati ottenuti in termini di portabilità e prestazioni.

Tecnologie
Servlerlss framework (https://github.com/serverless/serverless), AWS.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Torino/Padova/Silea/Bologna | Durata 3-6 mesi | Scade il 31/12/2025

CIA - Collaborative Intelligent Agents. Un deepdive sui sistemi multi-agent per affrontare sfide complesse

Contesto
Nel panorama in rapida evoluzione dell'intelligenza artificiale generativa (GenAI), le architetture multiagent rappresentano una frontiera innovativa che consente di orchestrare più agenti intelligenti in grado di collaborare, pianificare e risolvere compiti complessi in modo autonomo. LangChain è un framework progettato per semplificare l'integrazione e la gestione dei Large Language Models (LLM) in applicazioni reali, offrendo strumenti avanzati per la progettazione e l'esecuzione di sistemi multi-agente coordinati. Come alternativa open source recentemente introdotta, il protocollo A2A rappresenta un'opzione valida per l'implementazione di sistemi multi-agente.

Obiettivi
- Progettare e sviluppare un’architettura multiagente con LangChain.
- Analizzare prestazioni, scalabilità, e coordinamento tra agenti LLM.
- Costruire un caso di studio reale basato su task suddivisi tra agenti.
- Valutare metriche come latenza, robustezza e capacità di adattamento.

Tecnologie
LangChain, OpenAI GPT-4, LangGraph, Agent2Agent (A2A) Protocol, Python, LlamaIndex, FireCrawl.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Torino/Padova/Silea/Bologna | Durata 3-6 mesi | Scade il 31/12/2025

Navigare la Conoscenza 2.0 - Metodi e strumenti per la creazione e l’utilizzo di Knowledge Graph e RDF con GenAI

Contesto
La tesi si focalizza sull'integrazione tra Knowledge Graph e GenAI, esaminando architetture che combinano KG con modelli di linguaggio per interrogazione, costruzione, e memoria conversazionale. Verranno analizzati vari pattern di costruzione, integrazione e utilizzo di Knowledge Graph combinati con il potere della GenAI.
RDF e Property Graph saranno messi a confronto in modo approfondito come tecnologie alternative per l’implementazione di un Knowledge Graph.

Obiettivi
- Implementare GraphQA Chain per tradurre query in linguaggio naturale.
- Realizzare un KG-Enhanced RAG per combinare interrogazioni semantiche e strutturate.
- Sviluppare un LLM-assisted KG construction per l'automazione della creazione dei KG.
- Creare un KG-Agent capace di gestire query e strumenti.
- Usare un KG come memoria conversazionale persistente.

Tecnologie
Neo4j Community Edition, Apache Jena Fuseki, LangChain, Chroma (vector DB), SPARQL e Cypher, Neo4j Bloom, Grafana.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: BOLOGNA/TORINO/MILANO/ROMA E/O SMART WORKING | Durata 3-6 mesi | Scade il 31/12/2025

Project Onboarding Assistant: Your Smart Copilot

Contesto
L'assistente sarà implementato attraverso un sistema multi-agente con Retrieval Augmented Generation (RAG), che permetterà di:

- Recuperare informazioni contestuali dalla documentazione del progetto.
- Rispondere a domande specifiche sulla codebase.
- Suggerire buone pratiche allineate alle linee guida del progetto.
- Assistere nella creazione e gestione di issue e componenti.

Questo assistente permetterà di ridurre significativamente il tempo necessario per raggiungere la piena produttività degli sviluppatori al loro ingresso su nuovi progetti, garantendo al contempo una maggiore aderenza agli standard e alle pratiche consolidate del team.

Obiettivi
Realizzare un assistente copilot intelligente che supporti gli sviluppatori durante la fase di onboarding sui progetti dei clienti. Questo strumento faciliterà l'inserimento di nuovi sviluppatori, accelerando la loro comprensione della base di codice, delle architetture e delle pratiche di sviluppo specifiche del progetto.

Tecnologie
Langchainm LangGraph, Database Vettoriali, OpenAI.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: BOLOGNA/TORINO/MILANO/ROMA E/O SMART WORKING | Durata 3-6 mesi | Scade il 31/12/2025

Boost Software Quality Assurance with GenAI’s Intelligent Plugin

Contesto
Sviluppare un plugin avanzato per Intellij IDEA e/o Visual Studio Code che sfrutti l'intelligenza artificiale generativa per assistere gli sviluppatori durante le fasi di Testing e Quality Assurance. Questa soluzione permetterà di ottimizzare il processo di testing, migliorare la qualità del codice e aumentare la produttività degli sviluppatori.

Obiettivi
Nel corso di questa esperienza potrai lavorare su queste tematiche:

- Generazione intelligente di JUnit Test: analisi automatica del codice sorgente e creazione di test case completi ed efficaci, con particolare attenzione a edge case e scenari critici.
- Validazione della qualità dei test: verifica dell'effettiva validità e completezza dei test esistenti, con suggerimenti per migliorare la copertura e l'efficacia.
- Monitoraggio avanzato della coverage: visualizzazione in tempo reale della copertura del codice con identificazione delle aree critiche non sufficientemente testate.
- Analisi della qualità del codice: controllo automatico dell'aderenza agli standard di qualità predefiniti, con suggerimenti contestuali per il refactoring.
- Assistente contestuale: supporto interattivo durante la fase di scrittura dei test con raccomandazioni personalizzate basate sul contesto del progetto.

I benefici attesi da questa sperimentazione riguardano:

- La riduzione significativa del tempo dedicato alla scrittura e manutenzione dei test.
- L’incremento della qualità e dell'affidabilità del software prodotto.
- L’identificazione precoce di potenziali bug e vulnerabilità.
- L’adozione più efficace delle best practice di testing.
- L’accelerazione del processo di onboarding per nuovi sviluppatori.

Il plugin si integrerà perfettamente nel flusso di lavoro degli IDE più diffusi, offrendo un'esperienza fluida e non invasiva che potenzia le capacità dello sviluppatore senza sostituirsi al suo giudizio professionale.

Tecnologie
Java/Javascript, LangGraph, LangChain, OpenAI.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: BOLOGNA/TORINO/MILANO/ROMA E/O SMART WORKING | Durata 3-6 mesi | Scade il 31/12/2025

The Intelligent Connector: Empowering AI with MCP

Contesto
Realizzare un ecosistema di server MCP che connetta le risorse aziendali con assistenti AI come Claude e plugin integrati negli IDE. Questo sistema permetterà agli sviluppatori di accedere istantaneamente a documentazione, codice sorgente, ticket e database direttamente attraverso interfacce conversazionali o IDE, accelerando lo sviluppo e migliorando la qualità del codice.

Obiettivi
Il sistema sarà implementato attraverso una rete di server MCP specializzati che:

- Espongono API standardizzate per l'accesso sicuro alle risorse aziendali.
- Si integrano con un MCP Host per offrire un'esperienza fluida.
- Mantengono una gestione centralizzata delle autorizzazioni.
- Permettono l'orchestrazione intelligente delle richieste tra diversi server.

L’obiettivo dell’ecosistema MCP permetterà di ridurre drasticamente i tempi di ricerca informazioni, facilitare l'onboarding di nuovi sviluppatori e garantire una maggiore aderenza agli standard aziendali. I modelli AI potranno fornire assistenza contestuale basata sui dati aziendali reali, migliorando significativamente la produttività del team.

Tecnologie
SDK MCP, Langchain, Database Vettoriali, OpenAI, Anthropic Claude.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: BOLOGNA/TORINO/MILANO/ROMA E/O SMART WORKING | Durata 3-6 mesi | Scade il 31/12/2025

Bridging Data and Dialogue: a Generative AI Approach to KPI Analysis and Business Insights

Contesto
La rapida diffusione dell’intelligenza artificiale generativa e delle tecnologie di comprensione del linguaggio naturale sta aprendo scenari inediti per l’interazione uomo-macchina: oggi è possibile sviluppare strumenti capaci di dialogare con l’utente, comprendere il contesto e trasformare dati grezzi in conoscenza utile e fruibile.
Questa tesi si inserisce nel punto d’incontro tra Intelligenza Artificiale, business analytics e user experience, con l’obiettivo di progettare un sistema intelligente in grado di semplificare l’interazione con il dato e valorizzarne pienamente il contenuto informativo.

Obiettivi
L’obiettivo è la progettazione e realizzazione di un assistente conversazionale intelligente basato su Generative AI, in grado di dialogare con gli utenti in linguaggio naturale e fornire informazioni dettagliate e personalizzate a partire da dati aziendali strutturati.

L’agente non si limiterà a cercare dati o fornire risposte testuali, ma sarà in grado di:

- Comprendere le domande anche quando formulate in modo impreciso o informale.
- Ragionare sui dati, con un focus particolare sull’analisi di KPI (Key Performance Indicator).
- Navigare tra diverse tabelle categorizzate per dominio (vendite, risorse umane, assistenza, ecc.), interpretandone il contenuto in modo flessibile.
- Generare insight, confronti temporali, grafici e report su richiesta.

L’obiettivo è quindi abbattere la complessità nell’accesso ai dati, permettendo anche a chi non ha competenze tecniche di ottenere risposte, analisi e spiegazioni attraverso una semplice conversazione, in termini di:

- Accessibilità: consultazione dei KPI anche da parte di utenti non esperti, mediante semplici richieste in linguaggio naturale.
- Efficienza: riduzione del tempo necessario per ottenere statistiche, grafici e report rilevanti.
- Flessibilità: possibilità di utilizzare formati condivisi per l’inserimento dei dati, semplificando l’integrazione in vari contesti aziendali.
- Automazione: generazione autonoma di risposte, analisi e documentazione a partire da dati grezzi.
- Personalizzazione: il sistema potrà apprendere il contesto aziendale e adattarsi ai KPI più rilevanti per l’utente o per il settore.
- Scalabilità: la soluzione è progettata per essere espandibile e adattabile a nuove fonti dati o formati di input/output.

Tecnologie
Python, LangChain, OpenAI GPT-4 (o successivi), Database relazionale o documentale, Meccanismi di ingestione dati, Reportistica (PDF generation).


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: TORINO/BOLOGNA | Durata 3-6 mesi | Scade il 31/12/2025

HCI-Driven UI Optimizer: An Application for Automated User Interface Improvement through Heuristic Evaluations

Contesto
Il progetto propone lo sviluppo di un'applicazione innovativa a supporto degli sviluppatori per migliorare le interfacce utente esistenti. L'applicazione sfrutta le HCI Heuristic Evaluations per identificare e raccomandare miglioramenti in termini di usabilità e funzionalità. Il sistema guiderà l’utente finale nell’individuazione di potenziali violazioni, generando un report dettagliato per gli sviluppatori che includa suggerimenti di miglioramento sia dal punto di vista funzionale che del codice.​

Obiettivi
L’obiettivo di questa tesi è sviluppare un’applicazione che consenta agli sviluppatori di selezionare elementi o funzioni dell’interfaccia da valutare, guidando utenti non esperti nella compilazione di un questionario per identificare potenziali violazioni di usabilità. I risultati del questionario saranno elaborati per generare un report dettagliato che includa un elenco delle violazioni rilevate insieme a suggerimenti concreti per il loro miglioramento funzionale. Una caratteristica chiave dell’applicazione è il meccanismo automatico di proposta, in cui un agente intelligente analizza i problemi identificati e genera suggerimenti di modifica su misura, collegati direttamente agli elementi problematici nel codice. Agli sviluppatori verrà presentato un report interattivo che mostrerà le violazioni, le sezioni di codice rilevanti e le modifiche proposte dall’agente. Questa automazione mira a ridurre significativamente il lavoro manuale, permettendo agli sviluppatori di accettare, personalizzare o ignorare facilmente i suggerimenti, accelerando così e semplificando il processo di ottimizzazione dell’interfaccia utente.​

Tecnologie
React.JS, Node.js, TypeScript, PostgreSQL, Python, Langchain.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: TORINO/BOLOGNA | Durata 3-6 mesi | Scade il 31/12/2025

AI-Powered Dynamic UI Generation

Contesto
L'interazione con i sistemi basati sull'Intelligenza Artificiale (AI) è destinata a evolversi. Questa tesi propone un modello avanzato per la generazione dinamica di interfacce utente (UI), in cui il motore LLM seleziona componenti orientati all'azione, ovvero elementi scelti in base alla loro capacità di facilitare un flusso di lavoro chiaro e funzionale. Questi componenti non sono selezionati in base alle preferenze esplicite dell'utente, ma su esigenze generiche dedotte in tempo reale tramite inferenza contestuale.​

Obiettivi
L'obiettivo è sviluppare un sistema che utilizza Large Language Models (LLMs) per analizzare l'input dell'utente e fornire un'interfaccia utente efficace volta a migliorarne l'usabilità. Per raggiungere questo scopo, il sistema determina le esigenze contestuali basandosi sulle richieste dell'utente e configura di conseguenza un'interfaccia di interazione. In particolare, gli obiettivi sono:​

- Sviluppare e descrivere un insieme di componenti orientati all'azione per affrontare casi d'uso comuni di un assistente virtuale.​
- Applicare inferenze semantiche per comprendere le intenzioni dell'utente.​
- Trasformare dinamicamente l'interfaccia selezionando i componenti UI più adatti tra quelli precedentemente sviluppati. Questa selezione dovrebbe avvenire attraverso un processo di corrispondenza semantica tra le intenzioni identificate e le descrizioni dei componenti.

Tecnologie
LangChain, Python, Typescript, React.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: TORINO/BOLOGNA | Durata 3-6 mesi | Scade il 31/12/2025

Agentic RAG

Contesto
La rapida evoluzione degli agenti conversazionali intelligenti ha registrato una crescita senza precedenti, guidata dai progressi nei framework di Retrieval-Augmented Generation (RAG), che combinano i punti di forza del recupero di informazioni e dell'AI generativa per fornire risposte contestualmente ricche e accurate. Questi progressi aprono la strada a sistemi più sofisticati, in grado di affrontare interrogazioni complesse da parte degli utenti con maggiore precisione e adattabilità.

Obiettivi
L’Agentic Retrieval-Augmented Generation (RAG) introduce un nuovo paradigma nell’AI generativa, consentendo ai sistemi di integrare autonomamente processi di recupero, ragionamento e presa di decisioni. A differenza dei sistemi RAG statici, l’agentic RAG determina dinamicamente la sequenza dei recuperi, valuta i risultati intermedi e decide quale base di conoscenza sia più appropriata per reperire le informazioni. Questa flessibilità consente di affrontare interrogazioni complesse e articolate con maggiore precisione e adattabilità.Consentendo ai sistemi di gestire flussi di lavoro che richiedono comprensione contestuale e risoluzione dei problemi in tempo reale, l’agentic RAG apre nuove possibilità in settori come il customer service, l’educazione e la sanità. Questa tesi esplora lo sviluppo e le sfide di tali sistemi, con l'obiettivo di promuoverne l'applicazione nella risoluzione di problemi complessi del mondo reale​

Tecnologie
Python, TypeScript, Neo4j, LangChain.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: TORINO/BOLOGNA | Durata 3-6 mesi | Scade il 31/12/2025

Multi-hop and Advanced RAG Techniques

Contesto
Nel campo in evoluzione della Generative AI, rispondere a domande complesse richiede spesso diversi passaggi di ragionamento su fonti di dati eterogenee. Questa tesi si concentra sulla progettazione e implementazione di un sistema Multi-hop Retrieval-Augmented Generation (RAG).

Obiettivi
La ricerca mira a permettere al modello di attraversare e sintetizzare informazioni da più basi di conoscenza, utilizzando tecniche di recupero all'avanguardia, ragionamento basato su grafi e chain-of-thought prompting. Sfruttando database a grafo per unificare dati strutturati e non strutturati, il sistema acquisisce la capacità di mappare relazioni complesse e garantire un'integrazione fluida di fonti informative diverse. Incorporando meccanismi avanzati di routing e strategie di concatenamento contestuale, il sistema proposto affronta sfide come la disambiguazione della conoscenza e la gestione di contesti lunghi. Valutazioni approfondite vengono effettuate per analizzare la capacità del sistema di rispondere a query multi-hop in scenari reali, tra cui ricerca legale, esplorazione scientifica e business intelligence. I risultati contribuiscono all'avanzamento di un ragionamento multi-hop scalabile e interpretabile nei sistemi GenAI.

Tecnologie
Python, TypeScript, Neo4j, LangChain.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: TORINO/BOLOGNA | Durata 3-6 mesi | Scade il 31/12/2025

FinOps for GenAI Agents

Contesto
La rapida adozione dei Large Language Models (LLMs) ha rivoluzionato attività come la comprensione del linguaggio naturale, la generazione di contenuti e l'automazione. Tuttavia, le richieste computazionali di questi modelli comportano spesso costi significativi, creando sfide nella gestione e ottimizzazione efficace delle risorse. Poiché le organizzazioni integrano sempre più i LLM nei propri flussi di lavoro, comprendere e controllare le implicazioni finanziarie del loro utilizzo è diventato fondamentale. Ciò introduce la necessità di sistemi intelligenti in grado di monitorare e ottimizzare i costi garantendo al contempo alte prestazioni e scalabilità.

Obiettivi
Questa tesi si concentra sullo sviluppo di tecniche FinOps per agenti GenAI, progettate per monitorare, analizzare e ottimizzare i costi associati all'utilizzo dei LLM. La ricerca esplora tecniche per tracciare le spese a un livello granulare, come i costi per utente o per applicazione, e strategie per ottimizzare il consumo di token. Il sistema proposto integra strumenti avanzati di monitoraggio, algoritmi di ottimizzazione dei costi e politiche intelligenti di utilizzo per bilanciare accessibilità ed efficienza. Attraverso l'implementazione e la valutazione di queste soluzioni in diversi casi d'uso, lo studio mira a fornire indicazioni pratiche e framework per un utilizzo sostenibile ed economicamente efficiente dei LLM.​

Tecnologie
Python, Langfuse, LangChain.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Sede: Torino/Silea/Padova/Bologna | Durata 3-6 mesi | Scade il 31/12/2025

Revolutionizing data fetchin: a battle between GraphQL and REST in data-driven micoservices

Contesto
Grazie alla loro semplicità e scalabilità, le API REST rappresentano uno standard consolidato per la comunicazione tra le varie componenti in architetture a microservizi. Tuttavia, l'emergere di GraphQL ha offerto nuove prospettive per un recupero dei dati più efficiente, specialmente in contesti dove la complessità delle query e l'over-fetching di informazioni rappresentano un problema. GraphQL permette di richiedere solo i dati necessari, riducendo così il traffico di rete e ottimizzando la comunicazione tra frontend e backend.

Obiettivi
Questo studio si propone di confrontare GraphQL e REST dal punto di vista dell'efficienza nel recupero dei dati in architetture a microservizi. L’obiettivo principale è valutare le prestazioni, l’efficacia nel ridurre l’over-fetching e l’impatto sui tempi di risposta in scenari reali. Sarà esaminata anche la facilità di adozione e integrazione di GraphQL rispetto a REST in applicazioni esistenti, nonché i potenziali vantaggi e svantaggi per gli sviluppatori e gli utenti finali.
La sperimentazione coinvolgerà lo sviluppo di due versioni di un’applicazione a microservizi, una che utilizza API REST tradizionali e una che implementa GraphQL. Entrambe le architetture verranno sottoposte a test di carico per valutare tempi di risposta, utilizzo delle risorse e volume di dati trasferiti. L’analisi si concentrerà anche sulla gestione della complessità delle query e sulla flessibilità di entrambe le soluzioni in scenari complessi con elevata personalizzazione delle richieste di dati.

Tecnologie
GraphQL, REST, AWS, Gatling, Apache JMeter, Prometheus, Grafana, Java, Spring Boot.


Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.

Non c'è la tesi che fa per te?

Possiamo provare a costruire insieme un nuovo titolo di tesi. Avrai il supporto dei nostri esperti per scegliere le tecnologie più adeguate.