Il CERN e il World Wide Web di domani

Andare in basso

Il CERN e il World Wide Web di domani

Messaggio Da zigo82 il Lun Apr 14, 2008 7:40 pm

Correva l'ormai lontano 1989 quando nei laboratori del CERN di Ginevra due ricercatori, Tim Berners-Lee e Robert Cailliau, iniziarono a gettare le basi di un ambizioso progetto: la stesura di regole, linguaggi e protocolli per un sistema in grado di condividere informazioni in formato elettronico indipendentemente dal tipo di piattaforma utilizzata. Berners-Lee e Cailliau stavano ideando il World Wide Web. Due anni più tardi, nel 1991, lo stesso Berners-Lee pubblicò il primo sito web della storia nella rete interna del CERN e nel 1993, precisamente il 30 aprile, il World Wide Web fu "sdoganato" e portato dinnanzi al grande pubblico, per diventare nel giro di poco più di 10 anni ciò che conosciamo ora, rivoluzionando il mondo.
Il CERN potrebbe essere ora fautore di una nuova rivoluzione, sempre nello stesso ambito, con la progettazione e creazione di una nuova rete di comunicazione ad elevata velocità, che rientra nel cappello del progetto LHC Computing Grid (LCG). Si tratta di un progetto completamente nuovo, che non si basa su nessuna delle strutture di rete già esistenti e che permette, almeno in linea teorica, una velocità di comunicazione di circa 10 mila volte superiore rispetto alle più comuni connessioni a banda larga.
Tra i responsabili del progetto vi è David Britton, professore di Fisica presso l'università di Glasgow, che spiega: "Con questo genere di potenza computazionale le future generazioni avranno la possibilità di collaborare e comunicare in modi che le persone più vecchie come me non possono neanche immaginare". La rete di LCG permetterebbe la trasmissione di immagini olografiche, offrirebbe la possibilità di realizzare conferenze videotelefoniche in alta definizione, darebbe modo di scaricare intere discografie di artisti in pochi secondi e consentirebbe esperienze videoludiche online con centinaia di migliaia di giocatori connessi contemporaneamente.
Le motivazioni alla base del progetto sono ovviamente meno frivole: il CERN è infatti in procinto di avviare un nuovo acceleratore di particelle, conosciuto con il nome di Large Hadron Collider (LHC), che facendo scontrare tra loro sia protoni, sia ioni pesanti, avrà lo scopo di identificare tracce dell'esistenza del Bosone di Higgs, una particella elementare la cui esistenza è stata teorizzata dal fisico Peter Higgs ma che ancora non è stato possibile osservare direttamente, sebbe esistano alcune prove della sua esistenza.
Per poter verificare direttamente l'esistenza di questa particella elementare, dal momento che nella migliore delle ipotesi se ne potranno generare solamente poche migliaia all'anno dagli scontri tra protoni e tra ioni pesanti, sarà necessario dover analizzare una mole di dati incredibilmente elevata, stimata nell'ordine dei 56 petabyte all'anno.
Installare in loco, al CERN, un supercomputer o sistema di supercomputer in grado di fornire tutta la potenza computazionale necessaria comporterebbe enormi problemi logistici, soprattutto in termini di risorse (energia elettrica, acqua). Per tale motivo è necessario, per questo progetto, affidarsi ad un sistema di calcolo distribuito, inviando i dati a diversi centri di elaborazione sparsi per il globo.
Tuttavia l'enorme mole di dati non può essere trasferita tramite la normale rete attualmente esistente, pena il collasso irrimediabile dell'intero network mondiale: la struttura attuale della rete, infatti, comprende apparati, seppur funzionanti, sono da considerarsi ormai obsoleti e non adatti alle trasmissioni dati ad alta velocità, essendo stati originariamente pensati per chiamate vocali. Come detto in apertura, invece, la rete di LCG è basata su apparati completamente nuovi e connessioni in fibra ottica che permettono al CERN di comunicare con undici diversi centri di elaborazione sparsi tra Stati Uniti, Canada, estremo oriente ed Europa.
Tra i centri di elaborazione che forniscono risorse per LCG si possono citare l'europeo EGEE - Enabling Grids for E-SciencE, lo statunitense OSG - Open Science Grid, ma anche realtà nazionali come GridPP nel Regno Unito, NorduGrid nei paesi Nordici e INFN Grid in Italia.
Attualmente la rete LCG dispone di ben 55 mila server (8 mila dei quali solamente nel Regno Unito) che nel giro dei prossimi due anni saliranno fino a quota 200 mila. Da ogni centro di elaborazione vi saranno poi connessioni verso altri atenei o enti di ricerca che intercomunicheranno tra loro per mezzo delle attuali reti universitarie ad alta velocità. E' possibile che già dalla fine dell'anno molti studenti e ricercatori possano già accedere a questa sorta di "Internet parallela" e superveloce.
Non è possibile prevedere se la struttura di rete di LCG sarà presto o tardi messa a disposizione anche del grande pubblico, come successe per il World Wide Web, anche se alcuni operatori di rete stanno già provvedendo ad implementare nei propri network una delle più importanti tecnologie alla base della rete LCG, denominata "Dynamic Switching" e che consentirebbe l'assegnazione temporanea di canali preferenziali ad elevata velocità agli utenti che si trovano a scaricare elevate moli di dati, consentendo così l'instaurarsi di trasferimenti rapidissimi.
Tony Doyle, responsabile tecnico del progetto, ha dichiarato: "Progetti come questo porteranno cambiamenti enormi nella società, nella scienza e negli affari. La videoconferenza olografica non è più così lontana, il social networking potrebbe diventare il principale mezzo di comunicazione e centinaia di migliaia di persone potranno giocare ed interagire contemporaneamente. La storia di internet è una prova di come non si possa prevedere quale sia il reale impatto ma già sappiamo che, qualunque esso sia, sarà enorme".
Fonte: Times Online

zigo82

Numero di messaggi : 13
Età : 35
Località : Verbania
Data d'iscrizione : 13.04.08

Visualizza il profilo

Torna in alto Andare in basso

Torna in alto

- Argomenti simili

 
Permessi di questa sezione del forum:
Non puoi rispondere agli argomenti in questo forum