Per gestire efficacemente il flusso dei dati, è essenziale implementare pipeline di ingestion robuste. Queste pipeline devono essere in grado di gestire sia il caricamento dei dati in tempo reale sia quello batch. Le pipeline di ingestion assicurano che i dati arrivino in modo tempestivo e ordinato, pronti per essere elaborati ulteriormente. Una volta raccolti, i dati grezzi vengono immessi nel primo livello di storage, noto come Standard Layer. Questo livello funge da deposito temporaneo dove i dati sono organizzati secondo le strutture definite negli YAML file. Le pipeline di ingestion, guidato dagli YAML file, gestiscono sia il caricamento in tempo reale sia i carichi batch, garantendo che i dati siano disponibili tempestivamente per le successive fasi di elaborazione.