Non appena è disponibile una quantità di dati sufficiente, un trigger automatico crea un cluster e subito dopo ha inizio l’elaborazione, anch’essa automatica. All’elaborazione fa seguito l’arresto del cluster, ottenendo così un elevato risparmio economico. Infatti, sebbene con Spark la soluzione sia attuabile come streaming job 24/7, è preferibile la variante “on demand batch job”, poiché si tratta di un cluster con una memoria principale di circa 2 TB che, in questo modo, può essere attivato per sole due o tre ore al giorno.