Come ridurre la latenza: i fattori fondamentali
È possibile identificare diversi fattori tecnologici necessari per velocizzare il processo di comunicazione. Prima di tutto, lo standard 5G consente prestazioni eccezionali in termini di latenza sul collegamento di accesso radio, fornendo un contesto flessibile in grado di supportare diversi servizi e requisiti relativi alla qualità del servizio (QoS), quali durata scalabile degli slot di trasmissione, aggregazione di slot e mini-slot, struttura di slot "self-contained" (ossia slot di trasmissione che contengono sia dati in downlink che in uplink), controllo del traffico e molto altro. In sintesi, in base al servizio è possibile configurare uno schema di trasmissione diverso.
Un'altra funzione importante consiste nella realizzazione di sistemi di backhaul basati sulla fibra. Tradizionalmente, le reti mobili 2G e 3G utilizzavano principalmente circuiti in rame per collegare i siti di celle alla rete mobile backhaul (MBH). Questa architettura MBH tradizionale si è rapidamente dimostrata obsoleta già con la comparsa del 4G. Gli aggiornamenti della rete MBH vengono effettuati in tutto il mondo, convertendo i siti di celle collegate ai tradizionali circuiti MBH in un sistema di trasporto a pacchetti su fibra, il che consente capacità molto più elevate per le migliori reti MBH altamente innovative. Questi aggiornamenti tecnologici saranno utilizzati dalle future reti 5G, data la larghezza di banda quasi illimitata offerta dalle reti in fibra ottica.
Tuttavia, sebbene il tipo di connessione sia un elemento fondamentale da tenere in considerazione, ad esempio, i cavi in fibra ottica consentono una trasmissione dei dati molto più veloce, la distanza rimane un fattore chiave nella determinazione della latenza: maggiore è la distanza che i dati devono percorrere fisicamente, maggiore sarà il ritardo nella comunicazione, indipendentemente dalla velocità della connessione. È per tale motivo che il vero regista di questa rivoluzione tecnologica è l'edge computing, cioè la possibilità di spostare il maggior numero possibile di risorse ai margini della rete, vicino all'utente finale.