,allowExpansion)
Tesi e tirocini
Proposte per laureandi triennali e magistrali, delle facoltà legate al mondo dell'informatica.
Sei alla ricerca di una tesi o di un tirocinio e, al tempo stesso, vuoi iniziare a conoscere meglio il mondo del lavoro?
Ti proponiamo i seguenti ambiti sperimentali (non per tesi compilative) dove potrai metterti alla prova lavorando su casi reali utilizzando le tecnologie più innovative, ed avere il supporto dei nostri esperti. Questa lista di proposte è in costante aggiornamento, qualora non riuscissi a trovare un titolo d'interesse, o la proposta non rispecchiasse a pieno la tua aspettativa, nessun problema, contattaci e cercheremo di trovare la soluzione più adeguata a te.
Contesto
I modelli multimodali permettono di comprendere e generare contenuti da testo, voce, immagini e video. In azienda molte attività sono knowledge‑intensive e si perdono tra email, screenshot, call e documenti. Una UI multimodale riduce passaggi manuali, tempi morti e ambiguità.
Nel nostro contesto aziendale sono 2 i fronti ad alto impatto:
1. Customer Care: l’utente carica uno screenshot dell’errore e lo descrive a voce; il sistema classifica il ticket, propone una diagnostica guidata e genera una risposta con snippet visivi o un breve video tutorial.
2. Document Intelligence e Accessibilità: da immagini/scansioni e commento vocale, si estraggono dati strutturati, si normalizzano tabelle e si generano documenti; in parallelo si creano descrizioni alternative, riassunti semplificati e output TTS per l’accessibilità.
Obiettivi
Nella prima fase analizziamo due use case prioritari osservando come avvengono oggi le interazioni: quali tipi di input arrivano davvero (screenshot, PDF/scansioni, note vocali e testo), dove si spezza il contesto e quali passaggi generano ambiguità o tempi morti. Da questa lettura costruiamo l’architettura logica del sistema: un modulo di raccolta e normalizzazione degli input multimodali, un livello di orchestrazione che instrada i compiti verso gli strumenti giusti di estrazione e riassunto e, infine, i formati di output previsti, dai suggerimenti testuali alle annotazioni visive fino ai micro video e all’audio Text to Speech (TTS). In parallelo definiamo linee guida di UX realmente operative: quando conviene chiedere la voce invece del testo, come guidare l’utente se lo screenshot è ambiguo, come visualizzare i risultati senza sovraccaricare l’interfaccia.
Gestiscono input multimodali (immagini, documenti, voce e testo), li normalizzano e li verificano; una pipeline instrada i task, estrae e riassume le informazioni e, quando serve, consulta le knowledge base interne. Gli output includono annotazioni su immagini, brevi video dimostrativi e risposte Text to Speech. Le scelte di UX diventano componenti concreti: selezione voce vs testo, brevi passaggi di disambiguazione per screenshot poco chiari e layout essenziali che mettono in risalto ciò che conta.
Concludiamo testando i prototipi con utenti interni misurando le metriche definite in apertura e confrontando le prestazioni con il processo attuale per stimare l’impatto reale: riduzione dei tempi nei ticket di assistenza, velocità e coerenza nella risposta a RFP, copertura di alt‑text e aderenza alle linee guida di accessibilità. Analizziamo i casi di errore e le situazioni a bassa confidenza per capire dove la pipeline fallisce, quando richiedere chiarimenti o prevedere l’escalation umana, e come migliorare prompt, regole e interfacce.
Tecnologie
Angular/React, LLM e Multimodal LLM, Python, Typescript, LangGraph, vector databases, MCP server.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
Automatizzare le interazioni vocali ripetitive con i Large Language Models (LLM) consente di dedicare le risorse umane ai casi più complessi, ottimizzando l'efficienza e valorizzando le competenze strategiche del team. Tuttavia, integrare la potenza conversazionale degli LLM con l'infrastruttura tecnica e i vincoli di tempo reale della telefonia (VoIP) rappresenta una frontiera tecnologica ancora in larga parte inesplorata. Il principale ostacolo è la latenza intrinseca nella catena di elaborazione: la voce dell'utente deve essere catturata, processata, elaborata dall'LLM e infine riconvertita in audio. Questa pipeline sequenziale introduce un ritardo che rende la conversazione innaturale e frammentata. Oltre a questa sfida puramente tecnica, manca un "direttore d'orchestra" intelligente che gestisca il flusso del dialogo. Un essere umano sa quando interrompere, quando attendere una pausa, e come usare intercalari per segnalare che sta pensando. Un sistema puramente sequenziale non può farlo: non sa gestire le interruzioni dell'utente e crea silenzi "morti" che degradano totalmente l'esperienza, segnalando in modo inequivocabile che si sta parlando con una macchina lenta.
Obiettivi
L'obiettivo è progettare e sviluppare un'applicazione server in grado di gestire chiamate VoIP e rispondere in tempo reale, abilitando conversazioni fluide e naturali. Il percorso inizia con la configurazione di un server SIP per accettare chiamate in ingresso e gestire lo streaming audio RTP bidirezionale, creando le fondamenta tecniche per una comunicazione a bassissima latenza. Su questa base si innesta la pipeline di intelligenza artificiale.
Il cuore del sistema risiede in un'architettura ibrida. In primo luogo, il flusso audio dell'utente viene processato in tempo reale per estrarne il contenuto semantico. Questa rappresentazione dell'input vocale viene quindi analizzata da un modello di classificazione di intenti snello e veloce, il cui compito è identificare con precisione lo scopo specifico della richiesta. Questo passaggio è cruciale. Solo dopo aver classificato l'intento, il sistema instrada la richiesta al Large Language Model, fornendogli non solo l'input originale dell'utente, ma anche il contesto dell'intento identificato. Questo permette all'LLM di generare una risposta non solo genericamente conversazionale, ma mirata, pertinente e consapevole del compito da svolgere.
Il lavoro si conclude con l'orchestrazione e l'ottimizzazione dell'intera pipeline per ridurre la latenza percepita e garantire la fluidità. Si sviluppa una logica per la gestione del turno di parola, usando tecniche come il Voice Activity Detection (VAD) per capire quando l'utente ha finito di parlare. Si implementano inoltre strategie per mascherare i tempi di elaborazione, come l'uso di "filler" conversazionali. La validazione finale misurerà non solo le performance tecniche di latenza e l'accuratezza del classificatore, ma valuterà anche la qualità e la naturalezza dell'interazione, dimostrando l'efficacia del sistema nel creare un'esperienza conversazionale davvero dinamica e umana.
Tecnologie
Angular/React, LLM e Multimodal LLM, Java, Typescript, Python, Langchain, LangGraph, vector databases, MCP server.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
Negli ultimi anni le organizzazioni stanno introducendo con crescente frequenza architetture multi agent per supportare e automatizzare attività di analisi operativa, triage, arricchimento informativo e supporto decisionale in domini quali IT operations, cybersecurity, knowledge management e data quality.
Tuttavia, l’impiego sistematico di Large Language Models (LLM) di grandi dimensioni su ogni richiesta presenta criticità rilevanti: costi operativi elevati, latenza non sempre compatibile con processi time sensitive e un potenziale incremento del rischio di esposizione dei dati, in particolare quando i flussi informativi includono elementi sensibili o soggetti a vincoli di compliance.
In parallelo, una parte significativa dei task tipici in contesto IT non richiede necessariamente capacità di reasoning estese, risultando quindi candidabile a modelli più compatti ed economici.
Da qui deriva l’interesse verso un approccio ibrido, in cui Small Language Models (SLM) eseguiti localmente (on premise o private cloud) operano come primo livello di elaborazione e controllo: effettuano pre processing e sanitizzazione, producono segnali di confidenza e istruzioni operative, e attivano un meccanismo di escalation verso agenti tool based o LLM più potenti solo quando la complessità del caso, i requisiti di accuratezza o le condizioni di rischio lo rendano necessario.
Obiettivi
La ricerca mira a esplorare un approccio SLM first per sistemi multiagent in cui questi gestiscono le richieste più semplici e ripetitive, lasciando ai LLM solo i casi realmente complessi.
Nella prima fase viene svolto uno studio sullo stato dell’arte dei principali SLM oggi disponibili, mettendo a confronto aspetti pratici come dimensione, requisiti di esecuzione, facilità di deploy e performance su task tipici (classificazione, estrazione, normalizzazione, supporto alla sanitizzazione).
Successivamente viene realizzato un prototipo di sistema multi agent in cui uno SLM fa da primo livello: effettua triage e pre processing, usa strumenti dedicati quando opportuno e attiva una escalation verso un LLM solo quando la confidenza è bassa o la richiesta è troppo complessa.
In chiusura, il lavoro riporta una valutazione comparativa per evidenziare vantaggi e limiti rispetto a un approccio diretto con LLM, misurando costi, latenza, throughput, qualità delle risposte e altri aspetti tecnici come complessità operativa e affidabilità.
Tecnologie
Python, LangGraph, LangFuse, Java, Spring AI, Ollama, Vector databases, MCP server.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
Nei sistemi multi-agent distribuiti, gli agenti operano spesso su server e domini organizzativi differenti rispetto ai client che ospitano l’interfaccia utente. In questo scenario, l’interazione tra agenti e interfacce utente rappresenta una criticità strutturale: un agente remoto non può manipolare direttamente la UI dell’applicazione host, ma deve comunicare esclusivamente tramite messaggi. Storicamente, questo problema è stato affrontato trasmettendo frammenti di HTML o TypeScript, spesso incapsulati in iframe, demandando al client il compito di renderizzarli.
Tale approccio presenta però limiti strutturali rilevanti. Dal punto di vista della sicurezza, l’iniezione di codice arbitrario amplia la superficie di attacco e richiede meccanismi complessi di sandboxing e isolamento. Sul piano dell’esperienza utente, l’invio di frammenti di HTML o TypeScript crea discontinuità visiva rispetto allo stile dell’applicazione, rende difficile il controllo del layout e compromette la manutenibilità del sistema nel lungo periodo. Infine, la dipendenza da tecnologie e framework specifici riduce drasticamente la portabilità: una UI progettata per il web non può essere riutilizzata nativamente su mobile o desktop senza riscrittura.
Alla base di queste criticità vi è l’assenza di un modello di rappresentazione dell’interfaccia che sia al tempo stesso sicuro come un dato strutturato e flessibile come codice eseguibile. La sfida tecnologica consiste quindi nel definire un paradigma in cui la UI venga trasmessa come una descrizione strutturata, validabile e controllabile, capace di integrarsi nativamente con lo stile, le regole e i vincoli dell’applicazione host.
Un simile approccio consentirebbe agli agenti di esprimere intenti e componenti interattivi senza esporre superfici di attacco, preservando coerenza visiva, accessibilità e controllo del ciclo di vita della UI.
In questa prospettiva si colloca il protocollo A2UI (Agent-to-UI), che propone la trasmissione di interfacce come messaggi JSON strutturati, generabili dagli LLM e interpretabili da qualsiasi client compatibile.
Obiettivi
L’obiettivo della tesi è progettare, sviluppare e valutare un’architettura agent-driven per la generazione di interfacce utente basate sul protocollo A2UI, in cui l’interfaccia venga trasmessa come dato strutturato e renderizzata nativamente dal client. Il lavoro mira a dimostrare come sia possibile ottenere UI dinamiche, sicure e portabili, generate da Large Language Models, senza ricorrere all’esecuzione di codice remoto.
Il percorso inizia con la definizione del modello di comunicazione tra agente e client. L’agente, alimentato da un LLM, genera output strutturati sotto forma di messaggi JSONL, descrivendo componenti, layout e flussi di interazione. Tali messaggi sono pensati per viaggiare su qualunque meccanismo di trasporto — Server-Sent Events (SSE), WebSocket — consentendo uno streaming incrementale delle UI e l’aggiornamento progressivo dell’interfaccia.
Su queste fondamenta viene sviluppato un agente in grado di produrre risposte A2UI per qualsiasi client compatibile. I messaggi JSONL prodotti descrivono esclusivamente dati dichiarativi: il client mantiene il pieno controllo sulla selezione dei componenti da un catalogo predefinito e sulla loro istanziazione tramite il proprio framework UI nativo (ad esempio React o Angular per il web).
Parallelamente, lato client viene implementato un renderer A2UI, responsabile dell’interpretazione dei messaggi JSON e della loro traduzione in componenti UI nativi. Questo livello rappresenta il punto di enforcement dei principi di sicurezza e coerenza visiva: il client valida lo schema, applica il proprio sistema di design, gestisce l’accessibilità e decide come e quando rendere interattivi i componenti richiesti dall’agente.
Il lavoro si conclude con una valutazione sperimentale dell’approccio proposto. I prototipi sviluppati vengono testati con utenti interni misurando aspetti quali: sicurezza, coerenza visiva e integrazione con lo stile nativo, qualità dell’esperienza utente. Il risultato atteso è dimostrare che, adottando un modello A2UI, il controllo rimane saldamente nelle mani del client, mentre le interfacce generate dagli agenti risultano fluide, coerenti e indistinguibili da quelle progettate manualmente.
Tecnologie
Angular/React, LLM e Multimodal LLM, Typescript, Python, Langchain, LangGraph, vector databases.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
Il modello on-demand dei cloud pubblici (Azure, AWS) offre grande flessibilità nel provisioning delle risorse IT, ma introduce una significativa complessità nella gestione e nel controllo dei costi, soprattutto in contesti aziendali multi-cloud. In questo scenario si inserisce il paradigma FinOps (Financial Operations), che mira a garantire visibilità, controllo e responsabilità della spesa cloud. L’adozione di strumenti come Terraform e Pulumi, secondo il paradigma Infrastructure as Code, consente di automatizzare i processi di provisioning, tagging e gestione dei budget, supportando l’applicazione efficace delle pratiche FinOps in ambienti single e multi-cloud attraverso la razionalizzazione di casi d’uso ricorrenti delle risorse offerte dai cloud provider.
Obiettivi
La tesi si propone di:
- Analizzare gli strumenti esistenti per il provisioning di risorse in cloud pubblici, evidenziandone punti di forza e limiti;
- Definire un insieme di casi di provisioning standard rappresentativi di contesti enterprise da codificare tramite tool IaaC (come Terraform e Pulumi);
- Prototipare un processo di governance FinOps che integri policy, controllo dei tag e verifica preventiva dei costi contro budget;
- Implementare processo automatizzato per la gestione dei profili di tagging dei casi di provisioning e l’aggiornamento dei budget;
- Implementare processo automatizzato di pulizia delle sorgenti di costo inutilizzate;
- Validare la soluzione attraverso test sperimentali su scenari realistici.
Tecnologie
Terraform, Pulumi, Jenkins, FinOps, Azure, AWS.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
Le moderne organizzazioni necessitano di strumenti che sintetizzino informazioni e processi formalizzati all'interno di diversi sistemi documentali. La tesi propone un framework intelligente per la modellazione e la rappresentazione dei processi a partire da knowledge base di riferimento, combinando graph database e generative AI.
Obiettivi
L’obiettivo principale è prototipare un sistema capace di generare autonomamente una rappresentazione funzionale, mappata su un database a grafo. Il sistema sarà in grado di:
- Estrarre business entities rilevanti dalle knowledge base di riferimento.
- Correlare le entità attraverso rappresentazione grafica all'interno di graph database.
- Fornire navigazione intuitiva tramite interfacce grafiche e linguaggio naturale.
Tecnologie
Neo4j, LLM (large language model), Python.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
Le moderne organizzazioni gestiscono ecosistemi di dati sempre più complessi, dove la comprensione del significato funzionale risulta spesso frammentata. La tesi propone un framework intelligente per l'estrazione automatica e la modellazione semantica di entità funzionali, combinando graph database e generative AI.
Obiettivi
L'obiettivo principale è prototipare un sistema capace di generare autonomamente un modello dati funzionale, mappato su un database a grafo. Il sistema sarà in grado di:
- Tradurre schemi SQL complessi in grafi relazionali intuitivi.
- Arricchire i grafi con definizioni di business generate da AI.
- Fornire navigazione intuitiva tramite interfacce grafiche e linguaggio naturale.
Tecnologie
Neo4j, LLM (large language model), Python.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
Nel panorama digitale contemporaneo, la complessità degli applicativi web è in costante crescita, rendendo sempre più difficile per utenti non tecnici comprenderne il funzionamento. Molte aziende investono risorse significative nella formazione del personale o nella creazione di documentazione dettagliata per i propri strumenti digitali. Tuttavia, questo processo è spesso costoso, time-consuming e soggetto a rapida obsolescenza a causa degli aggiornamenti continui delle interfacce. La necessità di un sistema automatizzato che possa analizzare in tempo reale un applicativo web e generare documentazione comprensibile anche ai non esperti è diventata cruciale per migliorare l'adozione degli strumenti digitali, ridurre i costi di formazione e aumentare la produttività aziendale.
Obiettivi
- Comprendere il funzionamento degli applicativi: sviluppare algoritmi che permettano di analizzare e interpretare l'interfaccia e le funzionalità di un applicativo web, generando un documento che ne sintetizzi il comportamento.
- Creare un documento informativo: produrre un output testuale utile per gli utenti, in modo che possano comprendere rapidamente come utilizzare l'applicativo e quali funzioni sono disponibili.
- Sviluppare un plug-in per il browser: realizzare un'estensione del browser che, interagendo con l'applicativo, possa guidare l'utente nell'esecuzione di compiti specifici. Questa estensione potrebbe evidenziare i pulsanti e le funzionalità pertinenti, migliorando l'esperienza utente e fornendo assistenza in tempo reale.
- Valutare l'usabilità: testare e valutare l'efficacia del tool e del plug-in sviluppati, raccogliendo feedback dagli utenti e analizzando come queste soluzioni possano migliorare la loro interazione con gli applicativi web.
Tecnologie
Gen AI, Python, JavaScript, Browser extension.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
L'adozione di architetture cloud native e serverless è in rapida crescita grazie ai vantaggi di scalabilità, flessibilità e riduzione dei costi operativi. Tuttavia, un problema critico che le aziende affrontano è il rischio di dipendere eccessivamente da specifici cloud provider (vendor lock-in), limitando la loro agilità strategica e potenzialmente aumentando i costi nel lungo periodo. Questa tesi nasce dalla necessità di sviluppare un'applicazione funzionale ad uso interno dell'azienda, ma l'interesse principale è di definire un approccio metodologico che permetta alle organizzazioni di sfruttare i vantaggi del cloud preservando la libertà di migrare tra diversi provider secondo le proprie esigenze evolutive.
Obiettivi
- Analisi comparativa delle principali soluzioni serverless offerte dai cloud provider.
- Valutazione di framework e tecnologie open source per lo sviluppo cloud native.
- Definizione di best practices per lo sviluppo di applicazioni cloud-agnostic.
- Implementazione di una applicazione prototipo utilizzando la metodologia sviluppata.
- Valutazione critica dei risultati ottenuti in termini di portabilità e prestazioni.
Tecnologie
Servlerlss framework (https://github.com/serverless/serverless), AWS.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
Nel panorama in rapida evoluzione dell'intelligenza artificiale generativa (GenAI), le architetture multiagent rappresentano una frontiera innovativa che consente di orchestrare più agenti intelligenti in grado di collaborare, pianificare e risolvere compiti complessi in modo autonomo. LangChain è un framework progettato per semplificare l'integrazione e la gestione dei Large Language Models (LLM) in applicazioni reali, offrendo strumenti avanzati per la progettazione e l'esecuzione di sistemi multi-agente coordinati. Come alternativa open source recentemente introdotta, il protocollo A2A rappresenta un'opzione valida per l'implementazione di sistemi multi-agente.
Obiettivi
- Progettare e sviluppare un’architettura multiagente con LangChain.
- Analizzare prestazioni, scalabilità, e coordinamento tra agenti LLM.
- Costruire un caso di studio reale basato su task suddivisi tra agenti.
- Valutare metriche come latenza, robustezza e capacità di adattamento.
Tecnologie
LangChain, OpenAI GPT-4, LangGraph, Agent2Agent (A2A) Protocol, Python, LlamaIndex, FireCrawl.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
La tesi si focalizza sull'integrazione tra Knowledge Graph e GenAI, esaminando architetture che combinano KG con modelli di linguaggio per interrogazione, costruzione, e memoria conversazionale. Verranno analizzati vari pattern di costruzione, integrazione e utilizzo di Knowledge Graph combinati con il potere della GenAI.
RDF e Property Graph saranno messi a confronto in modo approfondito come tecnologie alternative per l’implementazione di un Knowledge Graph.
Obiettivi
- Implementare GraphQA Chain per tradurre query in linguaggio naturale.
- Realizzare un KG-Enhanced RAG per combinare interrogazioni semantiche e strutturate.
- Sviluppare un LLM-assisted KG construction per l'automazione della creazione dei KG.
- Creare un KG-Agent capace di gestire query e strumenti.
- Usare un KG come memoria conversazionale persistente.
Tecnologie
Neo4j Community Edition, Apache Jena Fuseki, LangChain, Chroma (vector DB), SPARQL e Cypher, Neo4j Bloom, Grafana.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
La rapida diffusione dell’intelligenza artificiale generativa e delle tecnologie di comprensione del linguaggio naturale sta aprendo scenari inediti per l’interazione uomo-macchina: oggi è possibile sviluppare strumenti capaci di dialogare con l’utente, comprendere il contesto e trasformare dati grezzi in conoscenza utile e fruibile.
Questa tesi si inserisce nel punto d’incontro tra Intelligenza Artificiale, business analytics e user experience, con l’obiettivo di progettare un sistema intelligente in grado di semplificare l’interazione con il dato e valorizzarne pienamente il contenuto informativo.
Obiettivi
L’obiettivo è la progettazione e realizzazione di un assistente conversazionale intelligente basato su Generative AI, in grado di dialogare con gli utenti in linguaggio naturale e fornire informazioni dettagliate e personalizzate a partire da dati aziendali strutturati.
L’agente non si limiterà a cercare dati o fornire risposte testuali, ma sarà in grado di:
- Comprendere le domande anche quando formulate in modo impreciso o informale.
- Ragionare sui dati, con un focus particolare sull’analisi di KPI (Key Performance Indicator).
- Navigare tra diverse tabelle categorizzate per dominio (vendite, risorse umane, assistenza, ecc.), interpretandone il contenuto in modo flessibile.
- Generare insight, confronti temporali, grafici e report su richiesta.
L’obiettivo è quindi abbattere la complessità nell’accesso ai dati, permettendo anche a chi non ha competenze tecniche di ottenere risposte, analisi e spiegazioni attraverso una semplice conversazione, in termini di:
- Accessibilità: consultazione dei KPI anche da parte di utenti non esperti, mediante semplici richieste in linguaggio naturale.
- Efficienza: riduzione del tempo necessario per ottenere statistiche, grafici e report rilevanti.
- Flessibilità: possibilità di utilizzare formati condivisi per l’inserimento dei dati, semplificando l’integrazione in vari contesti aziendali.
- Automazione: generazione autonoma di risposte, analisi e documentazione a partire da dati grezzi.
- Personalizzazione: il sistema potrà apprendere il contesto aziendale e adattarsi ai KPI più rilevanti per l’utente o per il settore.
- Scalabilità: la soluzione è progettata per essere espandibile e adattabile a nuove fonti dati o formati di input/output.
Tecnologie
Python, LangChain, OpenAI GPT-4 (o successivi), Database relazionale o documentale, Meccanismi di ingestione dati, Reportistica (PDF generation).
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
Il progetto propone lo sviluppo di un'applicazione innovativa a supporto degli sviluppatori per migliorare le interfacce utente esistenti. L'applicazione sfrutta le HCI Heuristic Evaluations per identificare e raccomandare miglioramenti in termini di usabilità e funzionalità. Il sistema guiderà l’utente finale nell’individuazione di potenziali violazioni, generando un report dettagliato per gli sviluppatori che includa suggerimenti di miglioramento sia dal punto di vista funzionale che del codice.
Obiettivi
L’obiettivo di questa tesi è sviluppare un’applicazione che consenta agli sviluppatori di selezionare elementi o funzioni dell’interfaccia da valutare, guidando utenti non esperti nella compilazione di un questionario per identificare potenziali violazioni di usabilità. I risultati del questionario saranno elaborati per generare un report dettagliato che includa un elenco delle violazioni rilevate insieme a suggerimenti concreti per il loro miglioramento funzionale. Una caratteristica chiave dell’applicazione è il meccanismo automatico di proposta, in cui un agente intelligente analizza i problemi identificati e genera suggerimenti di modifica su misura, collegati direttamente agli elementi problematici nel codice. Agli sviluppatori verrà presentato un report interattivo che mostrerà le violazioni, le sezioni di codice rilevanti e le modifiche proposte dall’agente. Questa automazione mira a ridurre significativamente il lavoro manuale, permettendo agli sviluppatori di accettare, personalizzare o ignorare facilmente i suggerimenti, accelerando così e semplificando il processo di ottimizzazione dell’interfaccia utente.
Tecnologie
React.JS, Node.js, TypeScript, PostgreSQL, Python, Langchain.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
L'interazione con i sistemi basati sull'Intelligenza Artificiale (AI) è destinata a evolversi. Questa tesi propone un modello avanzato per la generazione dinamica di interfacce utente (UI), in cui il motore LLM seleziona componenti orientati all'azione, ovvero elementi scelti in base alla loro capacità di facilitare un flusso di lavoro chiaro e funzionale. Questi componenti non sono selezionati in base alle preferenze esplicite dell'utente, ma su esigenze generiche dedotte in tempo reale tramite inferenza contestuale.
Obiettivi
L'obiettivo è sviluppare un sistema che utilizza Large Language Models (LLMs) per analizzare l'input dell'utente e fornire un'interfaccia utente efficace volta a migliorarne l'usabilità. Per raggiungere questo scopo, il sistema determina le esigenze contestuali basandosi sulle richieste dell'utente e configura di conseguenza un'interfaccia di interazione. In particolare, gli obiettivi sono:
- Sviluppare e descrivere un insieme di componenti orientati all'azione per affrontare casi d'uso comuni di un assistente virtuale.
- Applicare inferenze semantiche per comprendere le intenzioni dell'utente.
- Trasformare dinamicamente l'interfaccia selezionando i componenti UI più adatti tra quelli precedentemente sviluppati. Questa selezione dovrebbe avvenire attraverso un processo di corrispondenza semantica tra le intenzioni identificate e le descrizioni dei componenti.
Tecnologie
LangChain, Python, Typescript, React.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
La rapida evoluzione degli agenti conversazionali intelligenti ha registrato una crescita senza precedenti, guidata dai progressi nei framework di Retrieval-Augmented Generation (RAG), che combinano i punti di forza del recupero di informazioni e dell'AI generativa per fornire risposte contestualmente ricche e accurate. Questi progressi aprono la strada a sistemi più sofisticati, in grado di affrontare interrogazioni complesse da parte degli utenti con maggiore precisione e adattabilità.
Obiettivi
L’Agentic Retrieval-Augmented Generation (RAG) introduce un nuovo paradigma nell’AI generativa, consentendo ai sistemi di integrare autonomamente processi di recupero, ragionamento e presa di decisioni. A differenza dei sistemi RAG statici, l’agentic RAG determina dinamicamente la sequenza dei recuperi, valuta i risultati intermedi e decide quale base di conoscenza sia più appropriata per reperire le informazioni. Questa flessibilità consente di affrontare interrogazioni complesse e articolate con maggiore precisione e adattabilità.Consentendo ai sistemi di gestire flussi di lavoro che richiedono comprensione contestuale e risoluzione dei problemi in tempo reale, l’agentic RAG apre nuove possibilità in settori come il customer service, l’educazione e la sanità. Questa tesi esplora lo sviluppo e le sfide di tali sistemi, con l'obiettivo di promuoverne l'applicazione nella risoluzione di problemi complessi del mondo reale
Tecnologie
Python, TypeScript, Neo4j, LangChain.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
Nel campo in evoluzione della Generative AI, rispondere a domande complesse richiede spesso diversi passaggi di ragionamento su fonti di dati eterogenee. Questa tesi si concentra sulla progettazione e implementazione di un sistema Multi-hop Retrieval-Augmented Generation (RAG).
Obiettivi
La ricerca mira a permettere al modello di attraversare e sintetizzare informazioni da più basi di conoscenza, utilizzando tecniche di recupero all'avanguardia, ragionamento basato su grafi e chain-of-thought prompting. Sfruttando database a grafo per unificare dati strutturati e non strutturati, il sistema acquisisce la capacità di mappare relazioni complesse e garantire un'integrazione fluida di fonti informative diverse. Incorporando meccanismi avanzati di routing e strategie di concatenamento contestuale, il sistema proposto affronta sfide come la disambiguazione della conoscenza e la gestione di contesti lunghi. Valutazioni approfondite vengono effettuate per analizzare la capacità del sistema di rispondere a query multi-hop in scenari reali, tra cui ricerca legale, esplorazione scientifica e business intelligence. I risultati contribuiscono all'avanzamento di un ragionamento multi-hop scalabile e interpretabile nei sistemi GenAI.
Tecnologie
Python, TypeScript, Neo4j, LangChain.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Contesto
La rapida adozione dei Large Language Models (LLMs) ha rivoluzionato attività come la comprensione del linguaggio naturale, la generazione di contenuti e l'automazione. Tuttavia, le richieste computazionali di questi modelli comportano spesso costi significativi, creando sfide nella gestione e ottimizzazione efficace delle risorse. Poiché le organizzazioni integrano sempre più i LLM nei propri flussi di lavoro, comprendere e controllare le implicazioni finanziarie del loro utilizzo è diventato fondamentale. Ciò introduce la necessità di sistemi intelligenti in grado di monitorare e ottimizzare i costi garantendo al contempo alte prestazioni e scalabilità.
Obiettivi
Questa tesi si concentra sullo sviluppo di tecniche FinOps per agenti GenAI, progettate per monitorare, analizzare e ottimizzare i costi associati all'utilizzo dei LLM. La ricerca esplora tecniche per tracciare le spese a un livello granulare, come i costi per utente o per applicazione, e strategie per ottimizzare il consumo di token. Il sistema proposto integra strumenti avanzati di monitoraggio, algoritmi di ottimizzazione dei costi e politiche intelligenti di utilizzo per bilanciare accessibilità ed efficienza. Attraverso l'implementazione e la valutazione di queste soluzioni in diversi casi d'uso, lo studio mira a fornire indicazioni pratiche e framework per un utilizzo sostenibile ed economicamente efficiente dei LLM.
Tecnologie
Python, Langfuse, LangChain.
Prima di inviare il tuo CV ti preghiamo di prendere visione dell'Informativa Privacy.
Non c'è la tesi che fa per te?
Possiamo provare a costruire insieme un nuovo titolo di tesi. Avrai il supporto dei nostri esperti per scegliere le tecnologie più adeguate.