Un supercomputer per calcolare al ritmo del supertelescopio SKA

supercomputer

Il codice per il trattamento dei dati di quello che sarà il più grande radiotelescopio di sempre – lo Square Kilometre Array – è stato collaudato sul supercomputer cinese Tianhe-2, fino allo scorso giugno il più potente del pianeta scalzato dalla prima posizione da un altro mostro in silicio Sunway TaihuLight, grosso modo tre volte più veloce.

Se il sorpasso non fosse avvenuto sarebbe stata proprio una notizia da doppio primato: il campione dei telescopi – scrive Media Inaf, il notiziario online dell’Istituto nazionale di astrofisica – insieme al campione dei computer. Ska, destinato a diventare – con quel chilometro quadrato d’area di raccolta che lo contraddistingue già dal nome – il più grande radiotelescopio di sempre, seppur sparpagliato su decine di migliaia di antenne piazzate qua e là fra Australia e Sudafrica e Tianhe-2, o TH-2, una “bestia da 16 mila nodi con 88 GB di memoria ciascuno”, installato presso il National Supercomputer Center di Guangzhou, in Cina e fino a 2 mesi fa in testa alla mitica TOP500, la superclassifica dei supercomputer più veloci del pianeta.

Il risultato raggiunto dai ricercatori del team guidato da Tao An, dell’Osservatorio astronomico di Shanghai, e da Andreas Wicenec dell’ICRAR, in Australia Occidentale, è però un traguardo ragguardevole. I ricercatori sono infatti riusciti a sviluppare e collaudare su TH-2 il prototipo del software di trattamento dei dati grezzi provenienti dalle antenne di SKA. Nome in gergo “SKA Science Data Processor”, è un po’ il sistema nervoso centrale del telescopio, il cervello al quale tocca il compito di raccogliere tutti i dati in arrivo, interpretarli e confezionarli in un formato che li renda utilizzabili dagli astronomi di tutto il pianeta. Compito che va svolto a velocità ai limiti dell’immaginabile.

Per riuscirci – prosegue Media Inaf – occorrono muscoli e strategia. I muscoli sono, appunto, quelli di TH-2 (la cui architettura è basata sul sistema operativo Linux). Per il primo e secondo test sono stati utilizzati, rispettivamente, solo 500 e 1.000 dei suoi 16 mila nodi. “Il passo successivo sarà quello di aumentare il numero di items messi in campo”, dice An, riferendosi ai pacchetti di dati trattati dal sistema, “e di incrementare il numero di nodi fino alla quantità prevista per il computer di SKA, vale a dire circa 8.500”. Quanto alla strategia, quello adottato dagli scienziati è un sistema data activated: ogni singolo pacchetto dati viene incapsulato in una porzione di codice così da poter attivare in autonomia le applicazioni necessarie a elaborarlo. In questo modo, spiega Wicenec, “non appena un pacchetto di dati è pronto, lui stesso avvia l’esecuzione del programma (il task), senza dunque che i programmi debbano girare a vuoto (running idle) in attesa che ci sia qualcosa da fare”.

Post correlati

Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.