Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

Intel: Big Data più performanti con Apache Hadoop

Link copiato negli appunti

Intel nel futuro più o meno prossimo si ritroverà insediata da ARM anche nel settore enterprise, a detta di molti analisti. In quest´ottica non sorprende così tanto l´annuncio martedì scorso, da parte del gigante dei processori, di una propria distribuzione di Apache Hadoop, una libreria open source (patrocinata dalla omonima foundation Apache) che mette a disposizione degli sviluppatori modelli di programmazione per il calcolo distribuito di semplice implementazione e che è particolarmente popolare nell´ambito "Big Data", ovvero l´elaborazione distribuita di sterminate basi di dati di classe enterprise.

Il focus di questa distribuzione è appunto l´ultra-ottimizzazione verso l´hardware Intel, in grado nelle speranze del colosso del silicio di portare il pubblico verso l´adozione di una soluzione basata su processori Intel Xeon, e SSD e Ethernet a 10Gigabit sempre griffati Intel. Questa combinazione, spinta dai nuovi tool scritti da Intel che configurano Hadoop per estrarre il massimo delle performance dall´hardware, è in grado di processare 1 terabyte di dati in meno di 7 minuti e di riuscirci pur con l´overhead dovuto alla crittografia completa del dataset. Uno dei punti di forza è infatti il supporto per le istruzioni crittografiche AES-NI native degli Xeon, in grado di aumentare la velocità delle elaborazioni relative alla crittografia di svariati ordini di grandezza e senza dunque pesare sul filesystem distribuito HDFS.

Il progetto è formato da molti tool scritti da Intel, che non saranno rilasciati sotto licenza open source. Al contempo però Intel ha pubblicato su GitHub un nuovo framework, Project Rhino, in grado di estendere le funzionalità di sicurezza di Hadoop dotandolo di strutture estendibili per la gestione di chiavi e metodi crittografici, oltre di meccanismi di single-sign-on.

Ti consigliamo anche