Retelit -

Fog computing e IoT

di Giorgio Lembo, IP Strategy Manager - Retelit
17 settembre 2018News & Eventi
Retelit -

Stiamo assistendo a una veloce trasformazione delle architetture di Data Center: da un approccio classico a tre livelli (architetture con switch TOR, Top-Of-Rack, distribuzione e aggregazione, di solito sovradimensionati rispetto al traffico effettivo) a infrastrutture più eleganti e scalabili.

Prendendo spunto da quanto imparato dalle architetture di High Performance Computing (HPC) i “nuovi” Data Center rispondono a requisiti di alta qualità di interconnessione tra i nodi e trasferimenti di alta capacità dei dati, anche per risolvere problemi legati alla ricerca scientifica. Sono stati costruiti sostanzialmente intorno a due principi: la cross-section bandwidth della rete di interconnessione e la sua latenza.
I Data Center più all’avanguardia oggi devono, infatti, essere in grado di far scalare in alto e in basso capacità e infrastruttura in modo agevole (elastico). Un esempio di architettura modulare che scala facilmente è per esempio l’ipercubo di Facebook, di fatto oggi questo OTT (Over The Top) può “scalare” in qualunque direzione senza troppi compromessi. 

Il fatto di avere Data Center scalabili, ad alta capacità e bassa latenza però non risolve il problema della prossimità all’utente che richiede i servizi di Data Center. Necessario è calibrare bene la localizzazione degli utenti da servire cercando di portare quanto più vicini agli utenti i servizi. Più lontani, infatti, avvertiranno maggiore latenza e minore reattività. Una possibile soluzione è creare una gerarchia di Data Center per permettere che il contenuto statico possa essere immediatamente servito, con il fine di migliorare la customer experience. Questo implica la pianificazione accurata di sistemi altamente distribuiti e l’adozione in toto di nuove tecnologie (per esempio Apache Spark e Elastic Search…). Se il software permette di aumentare le performance a sua volta questo impone vincoli sull’hardware (per esempio le performance migliori di database si hanno con la ricerca nella memoria RAM della macchina), anche quando parliamo del mantenimento a lungo tempo delle informazioni. In poche parole: adottare un’unica architettura o pretendere che una sola architettura risolva qualunque problema è un approccio miope e non efficiente per risolvere un dato problema (per esempio, Netflix non ha una struttura adatta a raccogliere il Telemetering dell’energia elettrica se un distributore introducesse IoT nei propri contatori bensì altamente efficiente nel distribuire i contenuti). 

Espandersi verso l’Edge della rete per gestire densità di utenti e dispositivi sempre maggiore fa nascere una domanda: come trarre profitto dal traffico IoT? I sensori possono generare un flusso continuo di informazioni a banda relativamente bassa o picchi periodici di informazioni in modo cadenzato, una rete non può dimensionarsi sugli spike ma c’è modo di tenerne conto a livello di disegno architetturale. Quello dell’IoT è un traffico diverso da reti come quelle hub&spoke, per esempio architetture SaaS quali Adobe Cloud Suite sono destinate a qualunque persona sul pianeta. Tirando le somme, ci aspettiamo che emergeranno modelli specifici di fatturazione per l’IoT e addirittura architetture (il network slicing del 5G per esempio) e verranno tariffati in modo diverso non perché su architetture diverse ma perché la garanzia di servizio sarà necessariamente diversa per servizi mission critical e non mission critical.
  • gen
  • feb
  • mar
  • apr
  • mag
  • giu
  • lug
  • ago
  • set
  • ott
  • nov
  • dic