Tesi e Tirocini

Proposte per laureandi triennali e magistrali, delle facoltà legate al mondo dell'informatica.

Stai cercando una possibilità di tesi o tirocinio e vorresti acquisire una conoscenza più approfondita del mondo lavorativo?

SEDE: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Framework Enterprise per Agenti AI

L'integrazione rapida degli agenti di Intelligenza Artificiale Generativa (GenAI) nelle operazioni aziendali richiede un framework avanzato che soddisfi requisiti critici. Questa tesi propone la progettazione e l'implementazione di un'infrastruttura per supportare gli agenti GenAI in contesti aziendali, focalizzandosi su gestione delle API, rate limiting, monitoraggio delle prestazioni, controllo degli accessi, logging e feedback degli utenti.

Obiettivo

Progettare e implementare un'infrastruttura che supporti gli agenti GenAI nelle imprese, focalizzandosi sulla gestione delle API, il rate limiting, il monitoraggio delle prestazioni, il controllo degli accessi, il logging e i meccanismi di feedback. Valutare l'efficacia delle strategie adottate attraverso test pratici e analisi delle prestazioni, al fine di garantire un'integrazione ottimale degli agenti GenAI negli ambienti aziendali.

Tecnologie Utilizzate

Generative AI, Rate Limiting, Performance Monitoring, Logging, Feedback Mechanisms, Python, Strumenti di Monitoraggio.

Cosa Cerchiamo

Candidati con forte interesse per l'Intelligenza Artificiale Generativa e l'implementazione di framework aziendali.

Cosa Imparerai

Progettazione e implementazione di framework per agenti GenAI, monitoraggio e ottimizzazione delle prestazioni, pratiche di logging e creazione di meccanismi di feedback per il miglioramento continuo.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!

SEDE: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

LLM e Graph-Based Reasoning per Correlazione e Analizzare Dati di Monitoraggi

L’osservabilità dei sistemi cloud-native genera una grande quantità di dati provenienti da log, metriche e tracce distribuite. Tuttavia, correlare queste informazioni in modo efficace per identificare problemi e rispondere a domande complesse rimane una sfida.

Questa tesi esplora l’uso di Large Language Models (LLM) e tecniche di Graph-Based Reasoning tramite framework come LangGraph e LangChain per automatizzare l’analisi dei dati di monitoraggio. Verranno sviluppati e testati metodi per interrogare in modo intelligente le fonti di osservabilità, correlare eventi e fornire insight utili alla risoluzione dei problemi. Un caso studio dimostrerà l’efficacia dell’approccio nel migliorare il troubleshooting e l’ottimizzazione operativa nei sistemi distribuiti.

Obiettivo

L'obiettivo è di creare un agente GEN AI in grado di correlare i dati di telemetria.

Tecnologie Utilizzate

LangGraph, LangChain, openLLMetry.

Cosa Cerchiamo

Conoscenza di GEN AI, LLM.

Cosa Imparerai

L’osservabilità e come declina in contesti enterprise.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!

SEDE: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Integrazione di Profiling Continuo e Tracing Distribuito in Architetture Cloud-Native con OpenTelemetry e Parca

OpenTelemetry è lo standard emergente per tracing, metriche e logging nelle applicazioni cloud-native, mentre Parca offre profilazione continua basata su eBPF. Tuttavia, allo stato dell'arte, OpenTelemetry non supporta nativamente il profiling, creando un divario nell’osservabilità completa dei sistemi distribuiti.

Questa tesi esplora come integrare OpenTelemetry e Parca per correlare tracing e continuous profiling dei sistemi, migliorando l’analisi delle prestazioni e il debugging delle applicazioni. Verranno analizzate le sfide tecniche di questa integrazione, le sinergie tra i due strumenti e i benefici pratici attraverso un caso studio.

Obiettivo

L'obiettivo è dimostrare come l'uso combinato di OpenTelemetry e Parca possa ridurre i tempi di risoluzione dei problemi e ottimizzare le risorse nei sistemi cloud-native.

Tecnologie Utilizzate

OpenTelemetry, Parca.

Cosa Cerchiamo

Conoscenze sistemistiche.

Cosa Imparerai

Architetture e prodotti enterprise come Parca, Opentelemetry ed altri. Cosa vuol dire lavorare in una azienda innovativa.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!

SEDE: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Sviluppo di applicazione a microservizi multi-tecnologia secondo paradigmi di Observability-by-Design

L'adozione dello standard OpenTelemetry facilita la raccolta e l'elaborazione dei dati di telemetria, permettendo una gestione centralizzata delle informazioni, attraverso l'impiego di tecnologie e framework open per la raccolta dei dati e la loro successiva elaborazione e consultazione.

Questo approccio mira a integrare strumenti di monitoraggio e tracciamento direttamente nella progettazione dei microservizi, garantendo una visibilità approfondita delle performance e del comportamento del sistema fin dalle prime fasi di sviluppo.

Obiettivo

L'obiettivo della tesi è sviluppare un'applicazione a microservizi multi-tecnologia seguendo il paradigma di Observability-by-Design, utilizzando OpenTelemetry come framework di riferimento.

Tecnologie Utilizzate

OpenTelemetry, Dynatrace, IDE di sviluppo.

Cosa Cerchiamo

Saper sviluppare in un linguaggio di programmazione a scelta.

Conoscenza basilare di architettura a microservizi.

Cosa Imparerai

Architetture e prodotti enterprise come Dynatrace, Opentelemetry ed altri. Cosa vuol dire lavorare in una azienda innovativa.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!

SEDE: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Toolchain DevOps per applicazioni AI based: ottimizzazione del ciclo di vita su Kubernetes

Le applicazioni basate su Large Language Models (LLM) come LangChain e LangGraph stanno rivoluzionando l’interazione uomo-macchina, ma il loro ciclo di vita richiede un'infrastruttura DevOps solida per garantire scalabilità, sicurezza e qualità. Questa tesi esplorerà la toolchain DevOps per il rilascio, la gestione e il monitoraggio di applicazioni AI conversazionali, con particolare attenzione a CI/CD, testing, osservabilità, gestione delle dipendenze e sicurezza.

Obiettivo

Il tirocinio si concentrerà sulla progettazione e implementazione di un flusso DevOps completo per applicazioni basate su LangChain e LangGraph. Verranno approfonditi aspetti chiave come automazione dei rilasci, testing continuo, gestione delle API LLM, logging e sicurezza. Saranno valutate le migliori pratiche per il monitoraggio delle prestazioni, la gestione delle dipendenze e la sicurezza dei modelli, garantendo un rilascio affidabile su ambienti containerizzati e cloud-native.

Tecnologie Utilizzate

Kubernetes, Tekton, ArgoCD, LangChain, LangGraph, Pytest, Prometheus, Grafana, Trivy

Cosa Cerchiamo

Sono gradite conoscenze su DevOps, Kubernetes, CI/CD e testing di applicazioni AI. Familiarità con Python e framework AI è un plus.

Cosa Imparerai

Gestione DevOps per applicazioni AI, CI/CD per LangChain e LangGraph, monitoraggio delle prestazioni degli LLM, sicurezza e quality assurance per applicazioni AI, best practice per il deployment su Kubernetes.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!

SEDE: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

MLOps con OpenShift AI: Automazione e gestione del ciclo di vita dei modelli ML

L’adozione di MLOps è fondamentale per automatizzare e scalare il ciclo di vita dei modelli di machine learning, migliorando la riproducibilità, il monitoraggio e la governance. OpenShift AI fornisce un ambiente cloud-native per gestire pipeline ML su Kubernetes, semplificando il deployment e l’orchestrazione di modelli AI in produzione. Questa tesi esplorerà come implementare un processo completo di MLOps utilizzando OpenShift AI, dall’addestramento al deployment, integrando strumenti DevOps per garantire automazione ed efficienza operativa.

Obiettivo

Il tirocinio si concentrerà sull’integrazione di OpenShift AI in un flusso MLOps completo, includendo addestramento, validazione, deployment e monitoraggio di modelli ML in ambienti di produzione. Verranno valutate le migliori pratiche per il versionamento dei modelli, l’automazione del retraining, l’integrazione con pipeline CI/CD e l’uso di GPU per l’accelerazione. L’obiettivo è fornire una guida pratica per adottare MLOps su Kubernetes, garantendo scalabilità e governance dei modelli AI.

Tecnologie Utilizzate

OpenShift AI, OpenShift Pipelines (Tekton), MLflow, KServe (ex KFServing), Red Hat OpenShift, Python (TensorFlow, PyTorch, Scikit-learn)

Cosa Cerchiamo

Sono gradite conoscenze di Kubernetes, machine learning, DevOps e CI/CD. Esperienza con Python e framework ML (TensorFlow, PyTorch, Scikit-learn) è un plus.

Cosa Imparerai

Implementazione di MLOps su Kubernetes, orchestrazione di pipeline AI con OpenShift AI, versionamento e monitoraggio dei modelli ML, deployment scalabile con CI/CD, gestione delle risorse per AI in produzione.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!

SEDE: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Platform Engineering e Service Mesh: automazione dei rilasci con Istio e Gloo Mesh

L’adozione di un service mesh è un elemento chiave nelle architetture cloud-native, consentendo di migliorare sicurezza, gestione del traffico e resilienza delle applicazioni distribuite. Istio offre un potente strumento per la gestione dei microservizi, mentre Gloo Mesh ne estende le funzionalità, fornendo una soluzione enterprise per la gestione multi-cluster e multi-cloud. Questa tesi esplora le differenze tra Istio e Gloo Mesh, analizzando come possano essere utilizzati per migliorare l’automazione delle reti applicative in un contesto DevOps e Platform Engineering.

Obiettivo

Il tirocinio si concentra sull'implementazione di Istio e Gloo Mesh in un ambiente Kubernetes con un approccio DevOps, valutando le migliori pratiche per la gestione del traffico, la sicurezza e l'integrazione con pipeline CI/CD. Verranno analizzate le differenze tra le due soluzioni, con particolare attenzione alle strategie di Canary Deployment, Blue-Green Deployment e Progressive Delivery. L’obiettivo è fornire una guida pratica per scegliere e adottare un service mesh nelle piattaforme cloud-native, migliorando l'automazione, la scalabilità e la resilienza delle applicazioni.

Tecnologie Utilizzate

Istio, Gloo Mesh, Kubernetes, Envoy, Red Hat OpenShift, ArgoCD, Tekton, Helm, Terraform

Cosa Cerchiamo

Sono gradite conoscenze di Kubernetes, networking applicativo, automazione con CI/CD e gestione delle infrastrutture cloud-native.

Cosa Imparerai

Implementazione e configurazione di service mesh, gestione avanzata del traffico su Kubernetes, strategie di rilascio (Canary, Blue-Green, Progressive Delivery), sicurezza e governance nelle architetture cloud-native.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Maximizing IT Efficiency: Leveraging Generative AI for Process Automation in a Multicloud Environment

Nel complesso panorama dell'IT, gestire processi su più piattaforme cloud rappresenta una sfida. L'automazione gioca un ruolo fondamentale nell'ottimizzazione dell'utilizzo delle risorse, garantendo scalabilità e mantenendo operazioni senza interruzioni nel contesto dinamico degli ambienti multicloud. L'IA generativa introduce un cambiamento di paradigma trasformativo nell'automazione multicloud. A differenza dei metodi tradizionali, l'IA generativa si adatta dinamicamente agli ambienti mutevoli, migliorando l'adattabilità e l'intelligenza nel processo decisionale. Rivoluziona l'automazione apprendendo autonomamente dai dati, prevedendo schemi e ottimizzando i processi multicloud.

Obiettivo

Il tirocinio si concentra sull'implementazione pratica dell'IA generativa nell'automazione multicloud. Gli obiettivi includono la valutazione della sua efficacia nell'allocazione delle risorse, l'analisi della sua adattabilità in diversi scenari multicloud e la fornitura di informazioni utili per i professionisti IT per migliorare l'efficienza e la resilienza nelle operazioni multicloud.

Tecnologie

Modelli GPT, Red Hat OpenShift, Red Hat Ansible, Red Hat Ansible Lightspeed, Terraform

Cosa cerchiamo

Sono gradite conoscenze sul sistema operativo Linux, linguaggi di programmazione moderni, architetture cloud e docker.

Cosa imparerai

Architetture di infrastruttura cloud-native, automazione dell'infrastruttura, utilizzo dell'IA generativa nel panorama IT.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Optimizing the Software Development Lifecycle with a Generative AI

Il ciclo di vita dello sviluppo software (SDLC) è una metodologia strutturata che guida l'intero processo di creazione del software, dalla concezione alla distribuzione e manutenzione. Comprende fasi come pianificazione, progettazione, implementazione, testing e manutenzione, garantendo un approccio sistematico ed efficiente allo sviluppo del software.

Adattare l'SDLC per agenti intelligenti comporta affrontare le sfide uniche presentate dai sistemi guidati dall'IA. Questo approccio specializzato considera fattori come lo sviluppo iterativo per algoritmi in evoluzione, l'integrazione continua dei modelli di machine learning e l'incorporazione di cicli di feedback per migliorare l'adattabilità degli agenti intelligenti.

Obiettivo

Questo tirocinio si concentra sull'ottimizzazione del ciclo di vita dello sviluppo software (SDLC) per agenti intelligenti in un contesto multicloud. L'obiettivo è sviluppare un framework completo che si integri perfettamente con più piattaforme cloud. Inoltre, lo stage mira a sfruttare l'automazione per migliorare le varie fasi del SDLC, inclusi l'integrazione continua, il deployment e il testing.

Tecnologie

Modelli GPT, Docker, Jenkins, Red Hat Ansible, GitLab.

Cosa cerchiamo

Sono gradite conoscenze sul sistema operativo Linux, linguaggi di programmazione moderni, architetture cloud e docker.

Cosa imparerai

Architetture di infrastruttura cloud-native, automazione dell'infrastruttura, utilizzo dell'IA generativa nel panorama IT, DevOps and CI/CD Automation.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Platform Engineering Strategies for the Success of Digital Services in Multicloud

L'ingegneria delle piattaforme è una disciplina che si occupa della progettazione, sviluppo e gestione di infrastrutture tecnologiche complesse, note come piattaforme, sulle quali vengono forniti servizi digitali. Queste piattaforme fungono da fondamenta per la creazione e il deployment di applicazioni software, garantendo scalabilità, sicurezza, disponibilità e gestione efficiente delle risorse digitali. L'ingegneria delle piattaforme si concentra sull'ottimizzazione delle architetture e dei processi per fornire servizi digitali affidabili e ad alte prestazioni, adattabili alle mutevoli esigenze del mercato e degli utenti.

La tesi si concentrerà sull'analisi e lo sviluppo di strategie di ingegneria delle piattaforme in un contesto multicloud, con l'obiettivo di ottimizzare l'efficacia dei servizi digitali. Esaminerà come progettare e implementare un'infrastruttura tecnologica che promuova la scalabilità e la resilienza dei servizi offerti attraverso piattaforme digitali distribuite su più cloud. La tesi esplorerà le migliori pratiche e metodologie specifiche per gestire in modo efficiente le sfide e le opportunità in un ambiente multicloud, con particolare attenzione alla soddisfazione del cliente e alla competitività sul mercato.

Obiettivo

L'obiettivo di questa tesi è proporre strategie di ingegneria delle piattaforme efficienti per ottimizzare i servizi digitali in un ambiente multicloud. Questo comporta la progettazione e l'implementazione di infrastrutture che migliorino la scalabilità e la resilienza su più piattaforme cloud, esplorando al contempo le migliori pratiche per gestire sfide e opportunità in questo contesto

Tecnologie

Kubernetes, terraform, Jenkins,ArgoCD.

Cosa cerchiamo

Sono gradite conoscenze sul sistema operativo Linux, linguaggi di programmazione moderni, architetture cloud e docker.

Cosa imparerai

Architetture di infrastruttura cloud-native, DevOps and CI/CD Automation.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!

Sede: Torino/Milano e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Multicloud network traffic orchestration - Multicloud route AI optimization

Si parla di multi-cloud quando un'organizzazione utilizza e orchestra più di una piattaforma cloud per fornire servizi applicativi. La gestione dei DNS e dei percorsi può essere difficile in un ambiente multi-cloud senza l'integrazione di uno strumento di terze parti.

Obiettivo

Durante lo stage il candidato lavorerà all'implementazione di un'infrastruttura multi-cloud con una soluzione DNS multi-cloud e network traffic route orchestrator che integra l'AI per l'ottimizzazione della rete in tempo reale sia sul carico di rete che sul costo della rete cloud. La sfida principale consiste nello sviluppare un orchestratore AI di rete multi-cloud ad alte prestazioni che utilizzi gli strumenti nativi del CSP e i feedback di monitoraggio per ottimizzare il traffico di rete attraverso la gestione delle tabelle di routing VPC/Vnet. L'obiettivo è creare una solida infrastruttura multi-cloud con l'integrazione dell'intelligenza artificiale per l'ottimizzazione dei percorsi, con conseguente riduzione della latenza, miglioramento delle capacità di failover e ottimizzazione dei costi. Il progetto misurerà il successo attraverso indicatori di performance chiave come la riduzione dei tempi di risposta, il risparmio sui costi e il miglioramento dell'affidabilità della rete.

Cosa cerchiamo

Sistema operativo Linux, linguaggi di programmazione moderni, cloud computing

Cosa imparerai

Architetture infrastrutturali multi-cloud e strategie di fornitura multi-cloud.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!

Sede: Torino/Milano e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Cost Optimization strategies for Cloud Infrastructure using Generative AI

L'adozione diffusa dei servizi cloud ha trasformato il modo in cui le organizzazioni gestiscono la propria infrastruttura IT. I principali fornitori di servizi cloud (CSP) come AWS, Azure e Google Cloud offrono soluzioni scalabili e flessibili, ma i costi associati possono aumentare rapidamente. L'AI generativa (GenAI) è emersa come un potente strumento con il potenziale di analizzare e ottimizzare questi costi attraverso analisi predittive e raccomandazioni automatizzate.

Obiettivo

L'obiettivo di questa tesi è utilizzare modelli GenAI per ottimizzare i costi dell'infrastruttura cloud per le organizzazioni che utilizzano i principali CSP. La ricerca mira a fornire un quadro completo che le organizzazioni possono adottare per migliorare la gestione dell'infrastruttura cloud minimizzando i costi.
Sfide:

  • Integrare i modelli GenAI con i sistemi di gestione del cloud esistenti.

  • Garantire l'accuratezza e l'affidabilità delle previsioni e delle raccomandazioni GenAI.

  • Bilanciare l'ottimizzazione dei costi con i requisiti di performance e scalabilità.

  • Affrontare le questioni di sicurezza e conformità relative ai dati e ai modelli di IA nel cloud.

    Il candidato condurrà un'indagine dettagliata su come l'IA generativa possa essere utilizzata per ottimizzare i costi dell'infrastruttura cloud. Ciò comporterà la progettazione di una soluzione di GenAI, integrandola con gli strumenti di gestione del cloud e convalidandone l'efficacia attraverso casi di studio. Il candidato dovrà inoltre fornire approfondimenti e raccomandazioni per le aziende sull'implementazione di queste misure di risparmio.

Tecnologie

Piattaforme cloud (AWS, Azure, Google Cloud), framework di intelligenza artificiale generativa, strumenti di analisi dei dati.

Cosa cerchiamo

Competenze di programmazione (Python), Cloud Computing, Analisi dei dati.

Cosa imparerai

Ottimizzazione dei costi del cloud, Data Analytics, competenze avanzate di GenAI applicate alle infrastrutture del cloud

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!

Sede: Torino/Milano e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Automated IAC coverage using Gen AI

L'adozione diffusa dei servizi cloud ha trasformato il modo in cui le organizzazioni gestiscono la propria infrastruttura IT. I principali fornitori di servizi cloud (CSP), come AWS, Azure e Google Cloud, offrono servizi scalabili e flessibili.
AWS, Azure e Google Cloud offrono servizi scalabili e flessibili, ma la complessità di gestione associata può aumentare rapidamente. L'IA generativa (GenAI) è emersa come un potente strumento in grado di analizzare e ottimizzare l'implementazione e la gestione degli ambienti IT.

Obiettivo

L'obiettivo di questa tesi è utilizzare i modelli GenAI per ottimizzare la fornitura e la gestione dell'infrastruttura cloud per le organizzazioni che utilizzano i principali CSP. La ricerca mira a fornire un quadro completo che le organizzazioni possono adottare per automatizzare l'adozione dell'infrastruttura come codice (IaC).
Sfide:

  • Integrare i modelli GenAI con i sistemi di gestione del cloud esistenti.

  • Garantire l'accuratezza e l'affidabilità delle previsioni e delle raccomandazioni di GenAI.

  • Creare un framework per automatizzare la copertura IaC per i servizi CSP.


Il candidato condurrà un'indagine dettagliata su come l'IA generativa possa essere utilizzata per ottimizzare la gestione dell'infrastruttura cloud. Ciò comporterà la progettazione di una soluzione GenAI, la sua integrazione con gli strumenti di gestione del cloud e la convalida dell'efficacia attraverso casi di studio. Il candidato fornirà inoltre approfondimenti e raccomandazioni praticabili per le aziende sull'implementazione della soluzione.

Tecnologie

Piattaforme cloud (AWS, Azure, Google Cloud), strutture AI generative.

Cosa cerchiamo

Competenze di programmazione (Python), Cloud Computing

Cosa imparerai

IaC, Cloud Computing, competenze avanzate di GenAI applicate alle infrastrutture cloud.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!

Sede: Torino e/o smartworking | Durata 3-6 mesi | Termine iscrizioni il 30/06/2025

Business Continuity using AI

L'adozione diffusa dei servizi cloud ha cambiato il modo in cui le organizzazioni gestiscono la propria infrastruttura IT. I principali fornitori di servizi cloud (CSP), come AWS, Azure e Google Cloud offrono servizi scalabili e flessibili, ma la disponibilità delle applicazioni associate può essere lasciata al cliente finale. IA generativa (GenAI) è emersa come un potente strumento con il potenziale per analizzare e ottimizzare la resilienza e la disponibilità degli ambienti IT.

Obiettivo

L'obiettivo di questa tesi è utilizzare i modelli GenAI per ottimizzare la disponibilità e la gestione dell'infrastruttura cloud per le organizzazioni che utilizzano i principali CSP. Si procederà alla creazione di un agente che utilizza i dati acquisiti, a runtime, a livello infrastrutturale ed applicativo per generare in output azioni da intraprendere in modo preventivo, quali creazione di nuove risorse, bilanciamento del carico, ecc., per garantire la disponibilità dei servizi.
Sfide:

  • Integrare i modelli GenAI con i sistemi di gestione del cloud esistenti.

  • Garantire l'accuratezza e l'affidabilità delle previsioni e delle raccomandazioni di GenAI.

  • Creare un framework per automatizzare la copertura IaC per i servizi CSP.


Il candidato condurrà un'indagine dettagliata su come l'IA generativa possa essere utilizzata per ottimizzare la disponibilità dell'infrastruttura cloud. Ciò comporterà la progettazione di una soluzione GenAI, la sua integrazione con gli strumenti di gestione del cloud e la convalida dell'efficacia attraverso casi di studio. Il candidato fornirà inoltre approfondimenti e raccomandazioni praticabili per le aziende sull'implementazione della soluzione.

Tecnologie

Piattaforme cloud (AWS, Azure, Google Cloud), strutture AI generative.

Cosa cerchiamo

Competenze di programmazione (Python), Cloud Computing

Cosa imparerai

IaC, Cloud Computing, competenze avanzate di GenAI applicate alle infrastrutture cloud.

Prima di inviare il tuo CV ti preghiamo di prendere visione dell’Informativa Privacy. Invia il tuo CV!