TESI E TIROCINI
IN LIQUID REPLY

Proposte per laureandi triennali e magistrali,
delle facoltà legate al mondo dell'informatica.

STAI CERCANDO UNA POSSIBILITÀ DI TESI O TIROCINIO E VORRESTI ACQUISIRE UNA CONOSCENZA PIÙ APPROFONDITA DEL MONDO LAVORATIVO?


Maximizing IT Efficiency: Leveraging Generative AI for Process Automation in a Multicloud Environment

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 31/12/2024
CANDIDATI ORA

Nel complesso panorama dell'IT, gestire processi su più piattaforme cloud rappresenta una sfida. L'automazione gioca un ruolo fondamentale nell'ottimizzazione dell'utilizzo delle risorse, garantendo scalabilità e mantenendo operazioni senza interruzioni nel contesto dinamico degli ambienti multicloud. L'IA generativa introduce un cambiamento di paradigma trasformativo nell'automazione multicloud. A differenza dei metodi tradizionali, l'IA generativa si adatta dinamicamente agli ambienti mutevoli, migliorando l'adattabilità e l'intelligenza nel processo decisionale. Rivoluziona l'automazione apprendendo autonomamente dai dati, prevedendo schemi e ottimizzando i processi multicloud.

OBIETTIVO

Il tirocinio si concentra sull'implementazione pratica dell'IA generativa nell'automazione multicloud. Gli obiettivi includono la valutazione della sua efficacia nell'allocazione delle risorse, l'analisi della sua adattabilità in diversi scenari multicloud e la fornitura di informazioni utili per i professionisti IT per migliorare l'efficienza e la resilienza nelle operazioni multicloud.

TECNOLOGIE

Modelli GPT, Red Hat OpenShift, Red Hat Ansible, Red Hat Ansible Lightspeed, Terraform

COSA CERCHIAMO

Sono gradite conoscenze sul sistema operativo Linux, linguaggi di programmazione moderni, architetture cloud e docker.

COSA IMPARERAI

Architetture di infrastruttura cloud-native, automazione dell'infrastruttura, utilizzo dell'IA generativa nel panorama IT

Optimizing the Software Development Lifecycle with a GENERATIVE AI

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 31/12/2024
CANDIDATI ORA

Il ciclo di vita dello sviluppo software (SDLC) è una metodologia strutturata che guida l'intero processo di creazione del software, dalla concezione alla distribuzione e manutenzione. Comprende fasi come pianificazione, progettazione, implementazione, testing e manutenzione, garantendo un approccio sistematico ed efficiente allo sviluppo del software.

Adattare l'SDLC per agenti intelligenti comporta affrontare le sfide uniche presentate dai sistemi guidati dall'IA. Questo approccio specializzato considera fattori come lo sviluppo iterativo per algoritmi in evoluzione, l'integrazione continua dei modelli di machine learning e l'incorporazione di cicli di feedback per migliorare l'adattabilità degli agenti intelligenti.

OBIETTIVO

Questo tirocinio si concentra sull'ottimizzazione del ciclo di vita dello sviluppo software (SDLC) per agenti intelligenti in un contesto multicloud. L'obiettivo è sviluppare un framework completo che si integri perfettamente con più piattaforme cloud. Inoltre, lo stage mira a sfruttare l'automazione per migliorare le varie fasi del SDLC, inclusi l'integrazione continua, il deployment e il testing.

TECNOLOGIE

Modelli GPT, Docker, Jenkins, Red Hat Ansible, GitLab

COSA CERCHIAMO

Sono gradite conoscenze sul sistema operativo Linux, linguaggi di programmazione moderni, architetture cloud e docker.

COSA IMPARERAI

Architetture di infrastruttura cloud-native, automazione dell'infrastruttura, utilizzo dell'IA generativa nel panorama IT, DevOps and CI/CD Automation

Platform Engineering Strategies for the Success of Digital Services in multicloud

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 31/12/2024
CANDIDATI ORA

L'ingegneria delle piattaforme è una disciplina che si occupa della progettazione, sviluppo e gestione di infrastrutture tecnologiche complesse, note come piattaforme, sulle quali vengono forniti servizi digitali. Queste piattaforme fungono da fondamenta per la creazione e il deployment di applicazioni software, garantendo scalabilità, sicurezza, disponibilità e gestione efficiente delle risorse digitali. L'ingegneria delle piattaforme si concentra sull'ottimizzazione delle architetture e dei processi per fornire servizi digitali affidabili e ad alte prestazioni, adattabili alle mutevoli esigenze del mercato e degli utenti.

La tesi si concentrerà sull'analisi e lo sviluppo di strategie di ingegneria delle piattaforme in un contesto multicloud, con l'obiettivo di ottimizzare l'efficacia dei servizi digitali. Esaminerà come progettare e implementare un'infrastruttura tecnologica che promuova la scalabilità e la resilienza dei servizi offerti attraverso piattaforme digitali distribuite su più cloud. La tesi esplorerà le migliori pratiche e metodologie specifiche per gestire in modo efficiente le sfide e le opportunità in un ambiente multicloud, con particolare attenzione alla soddisfazione del cliente e alla competitività sul mercato.

OBIETTIVO

L'obiettivo di questa tesi è proporre strategie di ingegneria delle piattaforme efficienti per ottimizzare i servizi digitali in un ambiente multicloud. Questo comporta la progettazione e l'implementazione di infrastrutture che migliorino la scalabilità e la resilienza su più piattaforme cloud, esplorando al contempo le migliori pratiche per gestire sfide e opportunità in questo contesto

TECNOLOGIE

Kubernetes, terraform, Jenkins,ArgoCD

COSA CERCHIAMO

Sono gradite conoscenze sul sistema operativo Linux, linguaggi di programmazione moderni, architetture cloud e docker.

COSA IMPARERAI

Architetture di infrastruttura cloud-native, DevOps and CI/CD Automation

AI BASED MODERNIZATION

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 31/12/2024
Candidati ora

Secondo i recenti trend di mercato, la maggior parte delle organizzazioni ha già delineato una strategia di migrazione in cloud, prevedendo che il 70% dei workloads saranno in Cloud entro il 2024, per migliorare la scalabilità dei servizi ed ottimizzarne i costi di gestione, cogliendo i benefici derivanti da modelli architetturali ed infrastrutturali agili.
Ciò nonostante, uno dei maggiori ostacoli della cloud-journey è modernizzare complesse applicazioni monolitiche, spesso denominate “New Legacy”: si tratta di applicazioni mediamente recenti (es. Java EE Monolitiche, realizzate nei passati 3-5-10 anni) che tipicamente presentano limiti in termini di reattività al cambiamento: flessibilità, scalabilità e time-to-market.
Tuttavia, quando si parla di modernizzazione, la maggior parte dei team di sviluppo non ha idea di dove partire. In aggiunta, una recente analisi di mercato ha rivelato che il 79% dei progetti di modernizzazione falliscono, con un costo di 1.5 milioni e 16 mesi di lavoro. Esistono piattaforme che guidano e supportano la modernizzazione attraverso l’analisi statica, analisi dinamica e algoritmi di IA, trasformando automaticamente complesse applicazioni monolitiche in microservizi.
Inoltre, la recente popolarità acquisita da modelli di linguaggio molto grandi (Large Language Models, o LLM) ha aperto nuove prospettive per l'applicazione di intelligenza artificiale nell'ambito enterprise. I modelli LLM, come GPT-3 e successivi, hanno dimostrato la loro capacità di comprendere e generare testo in modo coerente e semantico, offrendo opportunità uniche per automatizzare e migliorare il processo di modernizzazione del software.

OBIETTIVO

L’obiettivo della tesi è quello di sviluppare una pipeline di strumenti basati su intelligenza artificiale, con particolare enfasi sui modelli LLM, per accelerare la modernizzazione delle applicazioni legacy e migliorare la qualità del codice risultante.

TECNOLOGIE

Questa pipeline sarà progettata per affrontare diverse sfide chiave:

  • Scalabilità a livello enterprise: Sarà fondamentale creare un sistema che possa essere adattato alle esigenze specifiche di grandi organizzazioni, garantendo la gestione efficiente di un gran numero di applicazioni legacy e la scalabilità delle risorse computazionali necessarie per l’analisi e la generazione automatica di codice.
  • Vincoli relativi alla privacy e alla sicurezza dei dati: L’impiego di modelli di intelligenza artificiale potrebbe comportare la manipolazione di dati sensibili. Sarà cruciale sviluppare meccanismi di protezione dei dati e garantire la conformità alle normative sulla privacy.
  • Performance dei modelli LLM: La scelta dei modelli LLM appropriati e l'ottimizzazione delle loro prestazioni per il contesto specifico dell'analisi e della generazione di codice sarà una sfida importante. Sarà necessario valutare attentamente le prestazioni e l'efficacia dei modelli LLM disponibili e adottare strategie per migliorare la loro efficienza.

COSA CERCHIAMO

Ci piacerebbe molto averti a bordo se:

  • Sei appassionato di tematiche AI e innovative;
  • Ti interessano nuovi pattern infrastrutturali, come sistemi ibridi ed architetture a microservizi;
  • Sei curioso di approfondire come gestire, in scenari reali, le necessità di rimodernizzazione relative all’adozione di una strategia multi-cloud.

ATTACK A DEEP NEURAL NETWORK

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2024

Le Deep Neural Network (DNN) hanno avuto in questi ultimi anni una crescita esponenziale. Casi reali di applicazione delle DNN sono: Automatic Speech Recognition, Image Recognition, Natural Language Processing, Recommendation System e Financial Fraud Detection.

Un problema ancora irrisolto e di cruciale importanza per l’affermazione definitiva delle DNN sono gli Adversarial Attack. Si tratta di attacchi che cercano di alterare la capacità predittiva del modello attaccato tramite delle piccole modifiche, molto spesso impercettibili all’occhio umano, sull’input orginale.

Sfruttando queste vulnerabilità un’attaccante può effettuare una serie di attacchi come: Model Extraction Attack, Privacy Attack, Adversarial Reprogramming, Evasion e Poisoning Attack.

A supporto per l’analisi, l’attacco e la difesa di una DNN ci sono e delle librerie Open Source, come ART e CleverHans (rispettivamente di IBM e Google).

Obiettivo

L’obiettivo di questa tesi è, a partire da un caso d’uso reale, approfondire le conoscenze sull’utilizzo dei vari tool e librerie Open Source per analizzare, attaccare e difendere una Deep Neural Network (DNN), condurre un’analisi comparativa tra i vari tool ed infine trarre delle conclusioni sullo stato attuale della sicurezza sui modelli di DNN.

Tecnologie

Programming Tool: Jupyter

Librerie specifiche: ART (IBM), CleverHans (Google), FoolBox.

Tools per AML: https://comsec.diee.unica.it/adversarialib/, http://pralab.diee.unica.it/en/AdversariaLib, https://github.com/vu-aml/adlib

SECURITY AS A CODE

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2024

Le infrastrutture a container insieme all’utilizzo del cloud rappresentano un nuovo paradigma di sviluppo e rilascio applicativo che è andato diffondendosi negli ultimi anni. Sebbene da un lato tali infrastrutture apportino benefici su scalabilità, gestione e compatibilità applicative, dall'altro non sono da considerarsi «secure-by-default».  L’enforcement della sicurezza su questi ambienti che tendono a variare di molto nel tempo è molto impegnativo se affrontato cono le «vecchie» metodologie. La Security as a Code (SaC) permette di implementare le regole di sicurezza di un’infrastruttura cloud tramite la scrittura di policy di sicurezza e compliance. Le regole verranno applicate ad ogni richiesta sottomessa sull’infrastruttura, anticipando il momento in cui verranno applicati i controlli. Sarà necessario analizzare lo stato dell'arte della tematica e studiare le diverse soluzioni proposte sul mercato valutandone l’efficacia.

Obiettivo

La tesi ha l’obiettivo di approfondire le tematiche di sicurezza legate alla Security as a Code, in particolar modo su AWS e su Azure, analizzando i tool più promettenti sul mercato e implementando, come obiettivo finale, un caso d’uso reale di applicazione della Security As Code.

Tecnologie

Docker, Kubernetes, Python, Bash, Falco, Sysdig, Google cloud.

LOW-CODE APPROACH FOR MULTI-CHANNEL ACCESS MANAGEMENT

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2024

La sempre maggiore attenzione riservata alle tematiche di tutela della privacy e gestione dell’ identità digitale ha contribuito a rendere centrali, per molte organizzazioni, gli strumenti di Identity and Access Management (IAM). Per anni, la gestione delle tematiche IAM si è rivelata critica per la stabilità dei servizi, ogni piccola modifica alle policy di sicurezza tendeva a causare un enorme impatto sul Front End di tutte le applicazioni integrate. Una risposta a questa problematica viene offerta dall’ utilizzo di strumenti di Orchestrazione No-Code. L’ approccio no-code permette di minimizzare la complessità di design dei flussi volti alla gestione dell’identità, permettendo di utilizzare un’interfaccia drag-and-drop, introducendo sostanziali vantaggi nella fluidità dell’ esperienza utente e nella sicurezza delle logiche di business.

OBIETTIVO

L’ obiettivo del progetto di tesi è quello di approfondire l’ approccio no-code e studiarne l’ efficacia in scenari multicanale tramite l ’ utilizzo del prodotto Ping DaVinci. A questo proposito, è richiesta l’ implementazione di un ambiente di laboratorio al quale si affiancherà l’ utilizzo di strumenti di analisi, rappresentazione dati e testing. Al termine del progetto sarà possibile valutare le principali criticità delle piattaform di Access Management e come questo vengono indirizzate, con Ping DaVinci, grazie all’ approccio no-code.

TECNOLOGIE

  • Ping Identity platform
  • Postman, SSH
  • Linux
  • Strumenti di analisi e rappresentazione dati
  • HTTP, TCP/IP, Access Security in ambito multicanale.

CLOUD NATIVE MODERNIZATION

Sede: Torino/smatworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2024

La sempre maggiore attenzione riservata alle tematiche di tutela della privacy e gestione dell’identità digitale ha contribuito a rendere centrali, per molte organizzazioni, gli strumenti di Identity and Access Management (IAM). Per anni, la gestione delle tematiche IAM si à rivelata critica per la stabilità dei servizi: ogni piccola modifica alle policy di sicurezza tendeva a causare un enorme impatto sul Front End di tutte le applicazioni integrate. Una risposta a questa problematica viene offerta dall’utilizzo di strumenti di Orchestrazione No-Code. L’approccio no-code permette di minimizzare la complessità di design dei flussi volti alla gestione dell’identità, permettendo di utilizzare un’interfaccia drag-and-drop, introducendo sostanziali vantaggi nella fluidità dell’esperienza utente e nella sicurezza delle logiche di business.

OBIETTIVO

L’obiettivo del progetto di tesi è quello di approfondire l’approccio no-code e studiarne l’efficacia in scenari multicanale tramite l’utilizzo del prodotto Ping DaVinci. A questo proposito, è richiesta l’implementazione di un ambiente di laboratorio al quale si affiancherà l’utilizzo di strumenti di analisi, rappresentazione dati e testing. Al termine del progetto sarà possibile valutare le principali criticità delle piattaform di Access Management e come questo vengono indirizzate, con Ping DaVinci, grazie all’approccio no-code.

TECNOLOGIE

  • Ping Identity platform
  • Postman
  • SSH
  • Linux
  • Strumenti di analisi e rappresentazione dati
  • HTTP, TCP/IP, Access Security in ambito multicanale.

ACCESS MANAGEMENT – CLOUD PROVIDER COMPARISON

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2024

L’ introduzione del GDPR ha aumentato la rilevanza dei sistemi di Identity and Access Management (IAM), fondamentali per garantire la conformità alle normative sulla tutela della privacy. Questi strumenti sono ormai parte della nostra vita quotidiana, li utilizziamo: per accedere allo streaming video, al nostro account bancario o aziendale, e così via. Essendo a conoscenza dei vantaggi dell’adozione di soluzioni Cloud in ambito IAM, e a fronte di un mercato che si sposta verso questa innovazione, si apre un interrogativo relativo alla scelta tra le svariate soluzioni presenti sul mercato. Al fine di poter scegliere lo strumento maggiormente in linea con le soluzioni tecniche e le esigenze del cliente, è necessario analizzare e confrontare in modo sistematico le possibilità messe a disposizione dai vari cloud provider in termini di IAM.

OBIETTIVO

Gli obiettivi di questo lavoro di tesi sono lo studio e analisi dei vantaggi dell’access management in ambiente cloud, l’estrazione di pattern di confronto di questi strumenti, sulla base di casi d’uso reali, il confronto e documentazione delle principali tecnologie di mercato e la valutazione e possibile implementazione, relativa alla creazione di un tool automatizzato di comparison.

TECNOLOGIE

  • Cloud IAM
  • Postman
  • DB

Predisposizione per le tematiche IAM, cloud e sicurezza;

Utilizzo di IAM cloud e analisi critica dei vari prodotti utilizzati durante il lavoro di tesi.