TESI e TIROCINI

Proposte per laureandi triennali e magistrali, delle facoltà legate al mondo dell'informatica.

Sei alla ricerca di una tesi o di un tirocinio e, al tempo stesso, vuoi iniziare a conoscere meglio il mondo del lavoro?

Ti proponiamo i seguenti ambiti sperimentali (non per tesi compilative) dove potrai metterti alla prova lavorando su casi reali utilizzando le tecnologie più innovative, ed avere il supporto dei nostri esperti.
Questa lista di proposte è in costante aggiornamento, qualora non riuscissi a trovare un titolo d'interesse, o la proposta non rispecchiasse a pieno la tua aspettativa, nessun problema, e cercheremo di trovare la soluzione più adeguata a te.


LA GENERATIVE AI NEI PROCESSI DI GESTIONE DEL SOFTWARE, STUDIO DI UN CASO REALE

Sede: Milano/Torino e/o Smart working | Durata 6 mesi | Scade il 31/12/2024

Contesto: Questo studio di tesi mira ad esplorare e misurare come l'applicazione di modelli di intelligenza artificiale generativa possano supportare nel processo di gestione del software, affrontando aspetti specifici mediante lo studio e la prototipazione di un caso reale.

Un contesto in continua e rapida evoluzione, che può portare a diversi vantaggi e impatti positivi, contribuendo a migliorare l'efficienza, la produttività e la qualità dello sviluppo del software.

Obiettivi: Lo studio di tesi si pone l’obiettivo di esplorare e misurare come l'applicazione di modelli di intelligenza artificiale generativa possano supportare nell’interpretazione dei documenti di specifiche funzionali e nelle successive fasi di disegno e generazione del codice.
Lo studio sarà applicato ad un caso concreto che preveda l’addestramento di modelli su documenti multiformato, come word ed excel, per la generazione modelli concettuali coerenti e alla generazione del codice software.

Tecnologie: LLM, Gaph DB.

INNOVAZIONE NELLO SVILUPPO: UN'INDAGINE SULL'IMPATTO DELLA GENERATIVE AI

Sede: Torino e/o Smart Working | Durata 3-6 mesi | Scade il 31/12/2024

Contesto: Questa tesi si propone di esplorare il ruolo rivoluzionario della Generative Artificial Intelligence (Generative AI) nell'ambito dello sviluppo di applicazioni Angular. Concentrandosi sull'integrazione di tale tecnologia innovativa, l'obiettivo è migliorare l'efficienza, la coerenza e la produttività complessiva durante il ciclo di sviluppo.

Obiettivo: L'indagine inizia con un'esplorazione approfondita delle basi dei framework di sviluppo e dei loro requisiti di sviluppo, per poi introdurre la Generative AI come supporto chiave. Quest'ultima, attraverso la generazione automatica di codice e componenti, mira a semplificare il processo di sviluppo, riducendo i tempi e mitigando potenziali errori umani.

L'analisi pratica si basa su studi di casi specifici, dimostrazioni di implementazione e misurazioni quantitative delle prestazioni.

La tesi conclude con linee guida pratiche per gli sviluppatori che desiderano integrare la Generative AI nei loro progetti di sviluppo, evidenziando le potenzialità di questa tecnologia nel migliorare la qualità del codice, la velocità di sviluppo e la sostenibilità a lungo termine delle applicazioni.

Tecnologie: Java, Angular, React, Spring.

AI-POWERED ROBOT FRAMEWORK CODE GENERATOR:
LA RIVOLUZIONE NELLA TEST AUTOMATION E NELLA CREAZIONE DI BOT RPA

Sede: Milano/Torino | Durata 3-6 mesi | Scade il 31/12/2024

Contesto: La ricerca sottolinea l’importanza della generazione di codice basata sull’intelligenza artificiale come principale acceleratore per raggiungere la massima agilità nei progetti IT. Offre una soluzione pratica per team di test, sviluppatori e in generale per tutti coloro che cercano di migliorare la velocità, l'affidabilità e la scalabilità delle loro iniziative di automazione, siano esse relative alla test automation o al mondo della RPA. Il potenziale dello strumento è dimostrato attraverso casi di studio reali e valutazioni empiriche, che dimostrano la sua capacità di accelerare la creazione del codice mantenendo elevati livelli di copertura dei test e precisione di automazione dei processi.

Obiettivo: L’obiettivo di questo percorso di tesi è disegnare e realizzare un tool che automatizzi la generazione di codice sfruttando l'intelligenza artificiale per create dei bot su Robot Framework che svolgano attività di automazione di test e processi robotici (RPA). Robot Framework è uno strumento di automazione versatile, che funge da base per questa ricerca. Il nostro obiettivo è consentire a tester, sviluppatori e professionisti RPA di progettare e generare rapidamente codice su Robot Framework, eliminando la necessità di codifica manuale e accelerando significativamente il processo di automazione.

Lo sviluppo di questo strumento ruota attorno all'integrazione di algoritmi di intelligenza artificiale avanzati, consentendo allo strumento di interpretare input, requisiti e scenari di test o automazione forniti dagli utenti. Attraverso l’intelligenza artificiale, il processo di generazione del codice è automatizzato, consentendo agli utenti di esprimere i propri requisiti in linguaggio naturale e ottenere in risposta del codice che soddisfi determinate soglie di qualità.

Tecnologie: Robot Framework, RPA, AI, LLM.

STRATEGIE E SFIDE NELL'IMPLEMENTAZIONE E NELLA DISTRIBUZIONE DI LARGE LANGUAGE MODEL (LLM) COME AGENTI INTERATTIVI

Sede: Milano/Torino | Durata 3-6 mesi | Scade il 31/12/2024

Contesto: Questa tesi approfondisce le molteplici strategie, sfide e risultati ottenibili grazie all’utilizzo di Large Language Model (LLM) per l’implementazione di agenti interattivi a supporto della nostra operatività quotidiana. Oggi gli LLM giocano un ruolo centrale nel rimodellare il panorama dell'elaborazione del linguaggio naturale e delle interazioni guidate dall'intelligenza artificiale, pertanto risulta necessario comprendere a fondo le complessità nella loro implementazione per poterne sfruttare al meglio le potenzialità.

Obiettivo: In particolare, lo studio è focalizzato sull'implementazione di un agente interattivo basato su LLM. Questo agente è progettato per interpretare le istruzioni umane con un elevato grado di precisione e successivamente interrogare lo strumento appropriato per soddisfare tali richieste, sia esso un tool aziendale, un documento o una risorsa web. L’agente dovrà essere in grado di assolvere compiti diversi, come la generazione di testi sofisticati, la generazione di immagini dinamiche, la segmentazione precisa delle immagini e altre funzionalità avanzate.

In sintesi, la tesi indaga le strategie, le sfide e i risultati nell'implementazione dei Large Language Model (LLM) come agenti intelligenti in grado di elaborare istruzioni umane e svolgere compiti articolati che prevedono di manipolare diverse tipologie di informazioni, come testo ed immagini.

Tecnologie: AI, LLM, Langchain.

L'INTELLIGENZA ARTIFICIALE COME ACCELERATORE NELL'UTILIZZO DI TOOL LOW CODE

Sede: Milano/Torino | Durata 3-6 mesi | Scade il 31/12/2024

Contesto: Nel contesto dell'evoluzione delle pratiche di sviluppo software, l'approccio low code è emerso come una soluzione innovativa per accelerare il processo di creazione di applicazioni grazie all'adozione di interfacce grafiche intuitive che riducono la necessità di scrivere manualmente grandi quantità di codice. Questo studio si concentra sull'integrazione di tecnologie di Intelligenza Artificiale come acceleratore chiave all'interno di piattaforme con approccio low code, quali IBM Business Automation Workflow (BAW) e PEGA.

Obiettivi: La ricerca esplora come l'AI può essere implementata per ottimizzare il ciclo di vita dello sviluppo delle applicazioni, migliorando la produttività degli sviluppatori, riducendo i tempi di sviluppo e garantendo una maggiore qualità del software risultante. Vengono analizzate le funzionalità specifiche di IBM BAW e PEGA che sfruttano l'AI, evidenziando casi di studio, best practice e sfide riscontrate durante l'implementazione di progetti.

Attraverso un approccio metodologico che include la revisione della letteratura, lo studio di progetti concreti e l'analisi comparativa delle performance, la tesi mira a fornire una panoramica completa sull'impatto dell'AI nell'ecosistema low code. I risultati ottenuti contribuiscono a delineare le prospettive future di questa sinergia, offrendo insight utili per gli sviluppatori e per le aziende che cercano di massimizzare l'efficienza e la qualità nello sviluppo di applicazioni attraverso l'uso di strumenti low code potenziati dall'AI.

Tecnologie: Low code, AI, LLM, PEGA, IBM BAW.

AI-Powered Code Generation: Pioneering the Future of Software Development

Sede: Torino/Padova/Silea e/o Smart Working | Durata 3-6 mesi | Scade il 30/06/2024

Contesto: L’introduzione di nuovi strumenti quali GitHub Copilot e Amazon CodeWhisperer che sfruttano le potenzialità offerte dall’Intelligenza Artificiale per la generazione automatizzata del codice sta aprendo nuovi scenari nella realizzazione di progetti software complessi.

L’esperienza di tesi proposta è volta ad esplorare questa nuova frontiera, valutando la reale efficacia nell’adozione di questo approccio.

Obiettivi: L’analisi dello stato dell’arte di questi nuovi strumenti (comparazione delle funzionalità offerte, identificazione dei punti di forza, dei margini di miglioramento etc.) costituirà lo spunto per avviare esperimenti basati su casi reali, con l’obiettivo di valutarne l’efficacia e permettendo un continuo raffronto rispetto all’approccio tradizionale alla scrittura del software. I criteri di valutazione adottati riguarderanno principalmente la velocità di sviluppo, la qualità del codice prodotto e la facilità di integrazione con le metodologie di produzione del software esistenti.

La sperimentazione sarà particolarmente focalizzata su architetture a microservizi (Java, Spring Boot) progettate per gestire processi di business complessi in ambito Insurtech: il banco di prova riguarderà l’automatizzazione di alcune fasi degli sviluppi e della quality assurance, in maniera da velocizzare il time-to-market garantendo comunque alti standard qualitativi del prodotto finale.

Sarà inoltre possibile esplorare altri aspetti riguardanti l’adozione di tali strumenti, quali le implicazioni relative alla sicurezza e alla proprietà intellettuale del codice, nonché i rischi dovuti alla possibile riduzione delle competenze tecniche e capacità creative nel processo di sviluppo del software da parte dei membri più giovani del team.

I risultati di questa ricerca potranno contribuire ad una maggiore comprensione dell’impatto dell’automazione nella generazione del codice, fornendo una solida base per l’adozione e l’integrazione di tali strumenti in contesti progettuali mission critical e caratterizzati da un alto grado di complessità ed ingegnerizzazione.

Tecnologie: GitHub Copilot, Amazon CodeWhisperer, Java, Spring Boot.

OTTIMIZZAZIONE DELLA SUPPLY CHAIN TRAMITE AI

Sede: Bari | Durata 6 mesi | Scade il 31/12/2024

Contesto: Con l’espressione Supply Chain, o catena di approvvigionamento, si indica il processo che parte dal recupero delle materie prime e termina con la consegna del prodotto finito al cliente seguendo i flussi e stoccaggio delle merci. Ottimizzare questo processo vuol dire ridurre i costi, i tempi di consegna e di trasferimento, aumentare le vendite, i profitti di ogni vendita e migliorare la brand image.

Obiettivi:

  • Realizzare un algoritmo di sourcing basato su AI
  • Studiare e apprendere le dinamiche e-commerce
  • Analizzare i risultati ottenuti dall’applicazione di questo algoritmo e indicare possibili evoluzioni future

Tecnologie:
  • Deep learning
  • Librerie per analisi dei dati e machine learning (es. SciPy per Python, Apache Spark per JAVA)

Serverless is the new Microservices: a DevOps perspective

Sede: Torino/Silea/Padova e/o Smart Working | Durata 3-6 mesi | Scade il 30/06/2024

Contesto: Ti sei mai chiesto il significato del termine Serverless? Qual è la vera accezione di questo modello e perché è il trend del momento? L’approccio Serverless consente, tra le varie cose, di ridurre i costi del business e aumentare la velocity di delivery, tuttavia richiede una gestione accorta del rilascio del codice e delle risorse fornite dal Cloud Provider. In questo scenario risulta fondamentale la realizzazione di una architettura per la gestione del Software Development Life Cycle.

Obiettivi: Lo scopo di questa tesi è di realizzare un progetto DevOps su Cloud AWS, in grado di gestire un applicativo Serverless integrato con le risorse del Cloud provider.

  • Progetterai, realizzerai e configurerai una infrastruttura Cloud adottando il paradigma Infrastructure as Code
  • Costruirai delle pipeline CI/CD per le differenti componenti dell’applicazione, integrando strumenti di Validation e Test Automation
  • Gestirai il rilascio dell’applicazione su diversi ambienti (sviluppo, test e produzione), i criteri di promozione, la strategia di rilascio (Blue Green, Canary, A/B Test, Rolling) ed eventuale rollback.

Poiché le componenti da gestire sono svariate e interconnesse tra di loro è necessario che questi singoli aspetti siano automatizzati il più possibile.
Sei curioso di approfondire gli aspetti più tecnici di un’applicazione enterprise, entrando nel dettaglio dei singoli componenti e capire come questi interagiscono fra di loro? Se sì, questa tesi è quello che stai cercando!

Tecnologie: AWS, Terraform, Jenkins

SVILUPPO AGILE DI APPLICAZIONI TRAMITE PIATTAFORME LOW-CODE

Sede: Torino/Silea/Padova e/o Smart Working | Durata 3-6 mesi | Scade il 30/06/2024

Contesto: Il cosiddetto time-to-market, ovvero il tempo che intercorre tra l’ideazione di un nuovo prodotto o servizio, la sua realizzazione e distribuzione sul mercato è un fattore di importanza vitale per le imprese. È inoltre strategico e ormai imprescindibile essere in grado di pensare e realizzare in tempi rapidi i sistemi IT in grado di veicolare e supportare queste innovazioni. La sfida è ancor più ardua per le grosse compagnie, che spesso gestiscono processi di business complicati ed hanno sistemi IT molto complessi e che, soprattutto se non hanno assimilato metodologie di lavoro di tipo agile, rischiano di essere drammaticamente frenate nella loro spinta all’innovazione.

Obiettivi: Le piattaforme low-code si pongono come risposta a questo problema, poiché offrono una visione semplificata dei sistemi e rappresentano un fattore chiave per gestire in maniera dinamica, veloce ed efficace nuovi requisiti di business. Per questo motivo tali piattaforme suscitano sempre maggior interesse e aprono nuove prospettive di innovazione in molti ambiti, in primis quello dei servizi finanziari (banche ed assicurazioni). Lo scopo di questa tesi è quello di analizzare lo stato dell’arte delle piattaforme low-code disponibili sul mercato e di sviluppare un progetto utilizzando la piattaforma PEGA (www.pega.com). Il candidato avrà l’opportunità di lavorare su alcuni casi reali provenienti dal mondo assicurativo e di acquisire esperienza con le piattaforme low-code, oltre che con i servizi RESTful, con il linguaggio di programmazione Java applicato in un contesto di tipo enterprise, con gli application server Tomcat e Wildfly.

Tecnologie: Java, Spring, PEGA, servizi RESTful, Tomcat, Wildfly

Sviluppo di un’architettura per l’integrazione di sistemi e servizi utilizzando la piattaforma Google Cloud

Sede: Torino | Durata 3-6 mesi | Scade il 30/06/2024

Contesto: Lo sviluppo di soluzioni in ambiente Cloud è diventato sempre più popolare tra le aziende negli ultimi anni. Il Cloud offre flessibilità, scalabilità, sicurezza e facilità di implementazione, fattori che lo rendono un’ottima scelta per lo sviluppo di sistemi. A tal proposito, la piattaforma Google Cloud permette di creare un’architettura di integrazione in grado di connettere diversi sistemi e servizi distribuiti, agevolando lo sviluppo di sistemi in modo rapido, efficiente, sicuro ed economico.

Obiettivi: Questa proposta di tirocinio ti permetterà di:

  • analizzare il concetto generale di API come strumento di integrazione di sistemi e servizi
  • studiare diversi prodotti presenti sulla piattaforma Google Cloud, fra cui APIGEE
  • sviluppare un caso d’uso (definizione dell’architettura ed implementazione della stessa) utilizzando le tecnologie di Google Cloud
  • analizzare le alternative Cloud di integrazione di sistemi disponibili sul mercato

Tecnologie: Tecnologie di Google Cloud

PROGRESSIVE WEB APPS

Sede: Smart Working e/o Torino | Durata 6 mesi | Scade il 30/06/2024

Contesto: Le innovazioni nella tecnologia e in particolare nella Web User Experience stanno portando alle seguenti esigenze: prestazioni, affidabilità e siti web accattivanti. Queste funzionalità sono il cuore delle soluzioni offerte dalle Progressive Web Apps (PWA). Una Progressive Web App può caricarsi istantaneamente e nascondere i problemi di rete, risponde rapidamente e senza ritardi, sembrare un’app naturale sul dispositivo ed focalizzarsi sull’esperienza dell’utente. Aiutaci a scoprire il perché le PWA sono state scelte da grandi aziende, da Instagram a Google, da Twitter a Pinterest!

Obiettivi: Lavorando con noi avrai l’occasione di:

  • Studiare un caso d’uso reale di uno dei nostri clienti in ambito assicurativo
  • Analizzare i vantaggi e gli svantaggi di questa tecnologia
  • Sviluppare un’agenda virtuale per un agente assicurativo per programmare e gestire i suoi appuntamenti. Ci aiuterai ad arricchirla di funzionalità orientate all’esperienza.

Tecnologie: Ionic, Angular, JavaScript, TypeScript

REALIZZAZIONE APP GESTIONALE FULL STACK IN AWS AMPLIFY

Sede: Smart Working e/o Torino/Silea/Padova | Durata 3-6 mesi | Scade il 30/06/2024

Contesto: L’adozione del cloud da parte di molte organizzazioni è ormai un dato di fatto. Molti sono i vantaggi che offre questa soluzione: dalla riduzione dei costi, alla sicurezza, alla scalabilità all’aumento di collaborazione tra i team. Sviluppare web-application in cloud è quindi un’abilità molto richiesta nel mondo lavorativo.

Obiettivi: L’obiettivo del lavoro di tesi è quello di realizzare un una web-application per la gestione interna dell’azienda e delle business-unit. L’app dovrà essere sviluppata in modalità full-stack mediante l’utilizzo di AWS Amplify e sarà composta da una base dati in cloud, un back-end con tecnologia serverless e un front-end web con tecnologia client oriented. La prima parte della tesi prevede uno studio delle tecnologie offerte da AWS e una progettazione dell’intera infrastruttura cloud. In particolare sarà necessario individuare il database più adatto (relazionale/NoSQL), individuare il framework di front-end più adatto (Vue, React, Angular etc.), progettare le API di back-end e definire lo stack tecnologico da usare per realizzarle. La seconda parte della tesi prevede la realizzazione dell’applicazione e il relativo rilascio su AWS. Il lavoro verrà organizzato in modalità agile e sarà possibile opzionalmente integrare il lavoro con adozione di Aplify Prediction per inserire funzionalità ML/AI, adozione di Amplify Analitics per il monitoraggio real time e realizzazione di App per Android/iOS.

Tecnologie: Cloud AWS. Libera scelta sul linguaggio/framework/db da utilizzare

Prima di candidarti prendi visione della nostra informativa sulla privacy.

Non c'è la tesi che fa per te?

Possiamo provare a costruire insieme un nuovo titolo di tesi. Avrai il supporto dei nostri esperti per scegliere le tecnologie più adeguate.