EMC2 - Isilon, massima scalabilità ed evoluzione dei percorsi verso il cloud
Con semplicità ed efficienza ecco le soluzioni EMC2 dedicate alla gestione dei cosiddetti Big Data.
[dic 2012. Articolo in uscita su Millecanali, ilsole24ore, tutti i diritti sono riservati.]
Il mondo del business si sposta sempre di più verso architetture completamente IT oriented e, per soddisfare i requisiti di scalabilità di un’infrastruttura Big Data, in pratica tutte le organizzazioni necessitano oggi di una piattaforma di storage scalare, automatizzata, che consenta di aumentare la capacità di storage ma sempre con costi operativi aggiuntivi minimi. Il fine ultimo è ottenere livelli elevati di scalabilità, prestazioni e alto throughput.
In una recente presentazione a Milano, Roberto Sortino, Mid Tier Business Director di EMC ha affermato che “Le soluzioni EMC2 di NAS scale out rappresentano la migliore strategia per le aziende che desiderano gestire i dati e non semplicemente lo storage.”
L'idea di fondo era introdurre il tema Big Data e presentare i vantaggi della soluzione EMC Isilon passando attraverso alcuni scenari di mercato e varie case history di aziende dal taglio misto, non solo A/V e broadcast.
Si parte dal dato comune che qualsiasi discorso è legato alla quantità dei dati che si devono gestire, ossia il volume che non cresce in modo lineare. Poi l'importanza degli stessi dati che è sempre indipendente dalla quantità. Tipicamente ogni azienda oggi dispone di un insieme di dati, non database relazionale, che hanno all'interno un valore aggiuntivo per l'azienda e aggregando questi dati è possibile costruire una vista d'insieme diversa del business stesso e dei clienti. I dati non strutturati crescono molto, perché le aziende si interconnettono coi social media, col web e sono sempre più inclusi file audio, video, foto, ci si relaziona sempre più coi clienti e tutto questo cresce in modo esponenziale. Il cloud è il fenomeno che sta arrivando per varie aziende e consente di risolvere molte problematiche. Il fine è poter disporre di una maggiore efficienza della infrastruttura. Assistiamo dunque su larga scala alla trasformazione del tipico data centre in data cloud.
L'altro elemento è l'interazione con il sociale come elemento di comunicazione che le aziende stanno esplorando perché sono dati sullo status dei clienti, “quello essi che dicono e quello che non dicono”. Il terzo elemento è avere fruibilità ed accessibilità a questi dati in modo molto agile, che non si creino problemi di accesso.
Mentre nelle attività tradizionali e i database sappiamo di quanto crescono i dati, entrando nei nuovi scenari ci è impossibile prevederlo, per nuovi prodotti o situazioni ci sono quindi picchi di crescita poco pianificabili. Su questa architettura alcuni parametri tipici del data center tradizionale devono essere modificati.
Mentre una volta era l'applicazione il centro di gravità delle info, oggi la difficoltà è nella massa di dati che si danno in pasto all'applicazione, quindi è proprio l'applicazione che si sta evolvendo e va gestita in modo differente, in modalità cloud. Una volta il vero centro del processo informativo era il server, poi lo è stato il sistema di infrastruttura, poi ancora l'area applicativa e oggi si parla di importanza delle informazioni e del loro volume.
I dischi, anche quelli più veloci, si sono dimostrati lenti se comparati alla crescita che stanno avendo i processori e i sistemi di comunicazione, le linee di interconnessione tra i server e le infrastrutture. Gli SSD stanno aumentando moltissimo presso i data center, unico problema è il costo.
La risposta di Isilon è stata utilizzare un software full automated che vede le diverse tipologie di memoria come un unico streaming continuo e sposta i dati in base alla frequenza di accesso. I dati ad accesso più frequente vengono mantenuti su quella porzione di infrastruttura dotata di sistemi costosi ma velocissimi che sono in grado di smaltire il volume più alto di interazioni.
In una soluzione tradizionale le performance non seguono il numero dei dischi, all'aumento di questi non aumentano di proporzione le performance, mentre nelle architetture “scale out” -come quella di Isilon- è molto diverso: man mano che crescono i dischi le prestazioni sono mantenute in quanto aumentano le componenti di meccanica, di connettività e di potenza lavorativa.
L'architettura Isilon nasce in ambienti molto specifici, dai media all'entertainment alle ricerche genomiche, alla protezione di grandi masse di dati; oggi è comune a tutto il mondo IT ed è diffusa in tutti i segmenti merceologici e tutte le realtà, come supporto ai sistemi di business.
In questa direzione si ampliano le attività finalizzate a una migliore conoscenza dei clienti spendendo il meno possibile per il massimo ritorno.
Raccogliere tutti i dati che “girano” attorno all'azienda è indispensabile oggi per poter disporre di informazioni più pesate e mirate indispensabili persino nel budget planning.
In pratica, per il marketing, si va a correlare tutte le informazioni analytics che riguardano un cliente per profilarlo e servirlo al meglio, gestendo grandi volumi di dati in un tempo molto ridotto per prendere decisioni in tempo reale rispetto a come si comporta il mercato. Molto spesso oggi si coniugano dati di security che integrano addirittura situazioni atmosferiche e info in arrivo dalle news e dai giornali.
Insomma, oggi i dati sono cresciuti in modo esponenziale e la tipica infrastruttura IT non regge, quindi Isilon risponde con una architettura diversa.
L'architettura oggi necessaria deve essere in grado di scalare a petabyte di dati quando serve; oggi Isilon propone fino a 15 PB in un solo file system anche se sono in crescita -al momento- i nodi che possono arrivare al massimo di 144. Si parte da una settantina di TB come entry point e si può crescere, mantenendo le prestazioni senza dover ricreare dati. Isilon è alla quinta generazione di nodi e la macchina è in grado di svuotare il nodo vecchio e riversare tutto sul quello nuovo appena installato, senza preoccuparsi di migrazioni. I nodi possono avere capacità diverse e prestazioni diverse, per garantire il rapporto costo-prestazioni migliore; nella connessione con un nuovo elemento, il sistema è in grado di ribilanciarsi da solo, grazie all'ultima versione del sistema operativo, evitando problematiche infrastrutturali.
Le informazioni sono distribuite sui nodi al punto che potremmo arrivare a perdere due nodi da 140 dischi e continuare a lavorare senza problemi, o anche di più: un dato che dipende dal livello di protezione scelto.
Si tratta di una architettura autoconsistent, di fatti è impossibile pensare di prevedere un restore da back up per l'enorme quantità di dati.
Man mano che il sistema cresce, possiamo inserire un nuovo nodo e immediatamente la macchina ribilancia il carico su tutti i nodi e in soli sessanta secondi dalla pressione del bottone di “start”, senza alcun intervento manuale. Questo si traduce in un risparmio di scala che è evidente in molti settori, dalla NASA, a NBC Sport, all'Associated Press, alla Legend 3D, azienda che lavora più film in contemporanea, addirittura in 2D e 3D dimezzando costi e tempi.
didascalia
In pratica alla richiesta di gestire i big data Isilon ha risposto con il data storage scalabile, la fusione di piattaforme di analytics per aumentare i vantaggi e le prestazioni, con un del flusso di lavoro collaborativo grazie a un singolo file system che rende molto agile la gestione.
Didascalia
Oggi è necessario cambiare l'approccio architetturale su come affrontiamo i big data, dato che influenzano direttamente il business ma anche la nostra vita e il lavoro.
didascalia
EMC propone la virtualizzazione, la scelta e la flessibilità basate sulla convergenza delle infrastrutture, un data center “software centrico” che consenta una gestione più dinamica dei dati, a sua volta tesa verso nuove applicazioni cloud oriented.