Reply presenta Atena Reply
Insieme allo special guest LangChain, sarà un'occasione di confronto su come trasformare conoscenza di dominio, training di LLM specializzati e harness engineering in un vantaggio competitivo concreto, attraverso la visione e l’approccio di Atena Reply.
AI custom, training e deployment per il business
In uno scenario in cui affidarsi a modelli generalisti non è più sufficiente, il tema non è solo adottare l'AI, ma gestirne il ciclo di vita nel tempo. La conoscenza distintiva dell'organizzazione e il modo in cui l'AI generativa viene usata al suo interno diventano così la leva più concreta per costruire modelli AI custom, dagli LLM di dominio agli SLM specializzati per specifici flussi operativi e agentici: modelli più economici e controllabili.
Con competenze nella cura e generazione di dataset sintetici, nel training di LLM su larga scala, nella distillazione di SLM, in AI product Ops, evals, distillazione di conoscenza vincolata, deployment e serving con configurazioni ottimali su HPC e cluster di calcolo, Atena Reply supporta le organizzazioni nello sviluppo di modelli generativi custom tramite un processo di triage strutturato. Questo approccio consente di valutare la maturità dell’ecosistema in cui l’organizzazione opera, confrontare in modo puntuale i modelli da impiegare nei casi d’uso reali tra nuove varianti e deprecazioni di LLM, e creare ambienti RL verificabili a partire da conoscenza esperta non strutturata.
Panoramica dell’evento
L’evento di lancio di Atena Reply, “Own the AI Lifecycle, Don’t Rent It: Why Domain Knowledge Is the Real Competitive Advantage”, si terrà il 29 aprile dalle 17:00 alle 19:30 presso la sede Reply di Milano, in via Robert Koch 1/4.
Durante l’incontro presenteremo il posizionamento di Atena Reply, le sue aree di specializzazione e il suo approccio distintivo, approfondendo le principali sfide che oggi le organizzazioni si trovano ad affrontare nell’utilizzo di SLM e LLM, open-weight o proprietari, in modo governabile, valutabile e sostenibile nel tempo.
Attraverso esempi concreti illustreremo come questi modelli possano abilitare un approccio più solido all’AI generativa e come le piattaforme di LLM engineering possano giocare un ruolo centrale nei percorsi di LLM Ops.
Interverrà inoltre Marco Perini, First FDE in Europe di LangChain, che presenterà la piattaforma LangSmith attraverso un caso d'uso in ambito enterprise.
LangChain è un framework open source per lo sviluppo di applicazioni e agenti AI basati su LLM, pensato per integrare i modelli con dati, database e strumenti esterni e per supportare attività di testing, evaluation e deployment in produzione.
Agenda
17:00
Accredito & Welcome Coffee
17:30
Presentazione di Atena Reply
17:45
Visione, casi concreti e ambiti applicativi
18:45
Networking Cocktail
Cosa approfondiremo
AI factory sovrana
Come ridurre la dipendenza dai grandi vendor in US e Cina, costruendo soluzioni AI sotto il pieno controllo dell'organizzazione, mantenibili e sostenibili nel tempo.
La conoscenza di dominio come asset strategico
Come trasformare metodologie, processi e conoscenza distintiva dell'impresa nel principale asset per creare ambienti RL verificabili e modelli specializzati, costruendo un vantaggio competitivo nell’uso della AI rispetto ai modelli fondazionali generalisti.
LLM custom: training, post-training e distillation
Quando e perché sviluppare modelli specializzati per domini, task e workflow specifici, con un approccio orientato a performance, efficienza e scalabilità.
AI product Ops, evaluation e deployment
Come confrontare modelli su use case reali, pianificare cambi di LLM e gestire deprecazioni, portando in produzione soluzioni AI misurabili e pronte all'operatività.
Vuoi approfondire come sviluppare soluzioni AI più sostenibili, governabili e integrate con il tuo contesto di business?
Atena Reply
Atena Reply è la nuova società del Gruppo Reply dedicata alla gestione dell'intero ciclo di vita della AI generativa: dalla dataset curation al training, fino a serving, evaluation, ambienti RL e AI product Ops. Atena Reply supporta le aziende nell'addestrare LLM custom con vincoli su dominio, processi e contesto tecnologico, trasformando il know-how interno in una AI proprietaria con minore dipendenza dalle roadmap dei provider di modelli generalisti.