Percorso:ANSA > Scienza&Tecnica > Tecnologie > L'analisi dei Big Data mette il turbo

L'analisi dei Big Data mette il turbo

Una nuova tecnica può renderla fino a 10 volte più rapida

29 dicembre, 12:46
L'analisi dei big data (fonte: Mopic / Alamy Stock Photo DTFTEM) L'analisi dei big data (fonte: Mopic / Alamy Stock Photo DTFTEM)

L'analisi dei Big Data, dai social network alla biologia, può diventare fino a 10 volte più veloce grazie al metodo sviluppato dai ricercatori della King Abdullah University of science dell'Arabia Saudita, guidati da Panagiotis Kalnis. Il sistema, presentato alla Conferenza internazionale sulle alte performance di elaborazione dati, è basato sull'uso di tecniche diverse, come quelle tipiche degli studi sociali, della bioinformatica, analisi delle immagini e strategie anti-frode.

Un nuovo metodo
Cercare schemi ricorrenti nei sistemi di rete è ormai una parte fondamentale della ricerca nei diversi campi di studio, dalla biologia ai social media. In questo caso i ricercatori si sono concentrati sulle banche dati a grafo, che non utilizzano tabelle o colonne per rappresentare e archiviare le informazioni, ma nodi e archi. ''Un grafo è una struttura di dati che modella le complesse relazioni tra oggetti. E' usato in molte applicazioni, tra cui i social network, le interazioni biologiche e internet'', precisa Kalnis. In queste applicazioni una delle operazioni più importanti è trovare gli schemi ricorrenti che mostrano come gli oggetti tendono a connettersi l'uno all'altro. 

Sviluppato un sistema fino a 10 volte più veloce
Il processo su cui hanno lavorato i ricercatori è, chiamato frequent subgraph mining (FSM), ''consiste nel cercare le forme più frequenti di grafo, cioè dei sottoinsiemi che si somigliano'', spiega all'ANSA Walter Quattrociocchi, direttore del laboratorio di sociologia computazionale dell'Istituto Imt Alti Studi di Lucca. I grafi possono contenere centinaia di migliaia di dati e miliardi di legami. Il che significa che per trovare degli schemi ricorrenti possono servire molte risorse. ''La tecnica è già stata utilizzata nel 2013, ora è stata migliorata e ottimizzata, abbassando i tempi di analisi dei dati fino ad una certa soglia'', aggiunge Quattrociocchi. ''Abbiamo migliorato l'algoritmo, per avere un'analisi più profonda su più dati'', continua Kalnis, sviluppando un sistema chiamato ScaleMine, che consente di fare l'analisi fino a 10 volte più veloce rispetto ai metodi attuali.

RIPRODUZIONE RISERVATA © Copyright ANSA