Google: l’evoluzione del suo networking system

19 Agosto 20158 commenti

Oggi Google ha annunciato che vuole migliorare le performance nelle vostre reti Wi-Fi domestiche, ma ha a lungo lavorato su questioni di networking ben più complesse. Per connettere migliaia di dispositivi atti alla creazione di un Google Data Center non si possono usare router e switch comuni. Ecco come il colosso di Mountain View si è evoluto nel tempo sotto questo punto di vista.

Per gestire tutti i dati in transito attraverso i suoi server, Big G ha iniziato a sviluppare e a costruire personalmente i suoi software e hardware, ed oggi è pronto a calare il sipario per farci scoprire i dettagli dei frutti del suo lavoro.

L’attuale setup Google, la cosiddetta network Jupiter, ha 100 volte la capacità della sua rete di prima generazione, e può offrire una spaventosa velocità di 1 Petabit/sec sulla bisection bandwidth totale. Secondo i dati offerti dalla compagnia, questo tipo di velocità è sufficiente – ad esempio – a permettere a 100000 server di leggere tutti i dati scansionati della Libreria del Congresso in meno di un decimo di secondo.

“Such network performance has been tremendously empowering for Google services.Engineers were liberated from optimizing their code for various levels of bandwidth hierarchy. For example, initially there were painful tradeoffs with careful data locality and placement of servers connected to the same top of rack switch versus correlated failures caused by a single switch failure.
– Amin Vahdat, Google.

image02

Tuttavia 10 anni fa la capacità di Google era notevolmente inferiore; questo prima che acquisisse YouTube, e poco dopo il lancio di Gmail, Google Earth e Google Maps: c’erano tutte le premesse per un cambiamento radicale nella struttura di rete.

Ecco come apparivano i macchinari del “lontano” 2005:

Come Big G ha recentemente scritto in un documento, la compagnia del 2004 si basava ancora sui vecchi cluster server standard, e quest’apparecchiatura del 2005 è il primo esempio di networking basato sull’architettura Data Center chiamata Firehose 1.0.

La massima aspirazione per l’epoca era ottenere 1 Gbps di bisection bandwidth tra 10000 server. Per raggiungere tale risultato, Google ha cercato di integrare la struttura di switching direttamente nei suoi server, ma si è giunti alla conclusione che i tempi di funzionamento di tali server erano tutt’altro che ideali.

Con Firehose 1.1, il colosso di Mountain View iniziò a schierare la sua prima struttura Data Center personalizzata.

We had learned from FH1.0 to not use regular servers to house switch chips.

– Ingegneri Google coinvolti nel progetto di networking.

Invece di impiegare server standard, gli ingegneri della compagnia hanno optato per una migrazione alla cosiddetta “Closarchitecture“, basata su enclosures di rete personalizzate.

Nel 2008 Firehose 1.1 si evolse in WatchTower, che permise il transito di 10G di fibra al posto dei tradizionali cavi di rete. Google si premurò di effettuare l’upgrade in tutti i suoi data center del mondo, ed ecco come apparivano all’esterno questi rack:

wt2

Solo un anno dopo, da WatchTower si passò a Saturn: mentre il primo supportava un massimo di 87 Tbps, Saturn riusciva a raggiungere i 207 Tbps.

Quest’ultimo deve essere stato davvero apprezzato, poiché non è stato cambiato fino a tre anni dopo, quando evidentemente le capacità di Saturn erano già state dichiarate “superate”.

“As bandwidth requirements per server continued to grow, so did the need for uniform bandwidth across all clusters in the data center. With the advent of dense 40G capable merchant silicon, we could consider expanding our Clos fabric across the entire data center subsuming the inter-cluster networking layer.

– Ingegnere Google.

È grazie a questo tipo di architettura se ora Big G è in grado di trattare un singolo data center come un unico, enorme computer, anche per mezzo di un software in grado di manipolare la distribuzione delle risorse disponibili su tutti i diversi server della rete.

L’hardware di Jupiter è senz’altro molto diverso dai primissimi tentativi di Google di costruire la propria strumentazione di networking, ma ciò si è reso possibile anche grazie all’adozione della filosofia Software Defined Networking, in grado di permettere un’innovazione più rapida ed efficace.

Oggi Google ha postato sul suo blog alcuni dettagli a riguardi di numerosi aspetti del suo setup di rete. È risaputo che la compagnia tenda a superare i limiti dell’hardware tradizionale e delle architetture software ben prima delle altre aziende, e il rilascio di simili documenti non può non far sperare che una nuova ondata di innovazione – dal punto di vista del networking – possa colpire anche noi comuni mortali.

Nella vita di tutti i giorni è assai raro che una startup abbia la necessità di costruire i propri data center, ma altri operatori del settore sicuramente si dedicheranno allo studio di questi documenti nel dettaglio, e magari implementeranno soluzioni simili a tempo debito, con ovvio beneficio di performance per gli utenti.

jupiter-superblock3

Cosa ne pensate? Fatecelo sapere nei commenti.

Loading...
WP Facebook Auto Publish Powered By : XYZScripts.com