Sistemi ad alte prestazioni

HPC FacilitiesIl CRS4 offre supporto alle attività di ricerca della comunità scientifica tramite il Calcolo ad alte prestazioni e le sue applicazioni, grazie a un centro di calcolo allo stato dell'arte. Il suo personale specializzato è altamente qualificato e affianca i ricercatori nell'utilizzo dell'infrastruttura tecnologica. La potenza di calcolo del CRS4 è di circa 190 TFlops, così suddivisi:

  • Huawei cluster 14,5 TFlops
  • Intel Phi cluster 10 TFlops
  • GPU Nvidia Kepler K40 34 Tflops
  • GPU NVidia Kepler 90 TFlops
  • HP Cluster 34,6 TFlops (low & medium latency)
  • IBM Cell 2,7 TFlops
  • Sun Cluster 3 TFlops
  • Tesla cluster
  • GPU NVidia cluster
  • FPGA Maxeler
  • IBM Cluster and other resources 3 TFlops

Le più recenti acquisizioni del CRS4 nel settore del calcolo ad alte prestazioni sono:

  1. Cluster Huawei general purpouse di tipo beowulf, basato su architettura Intel Ivy Bridge, da 33 nodi (32 di host di calcolo e 1 fat-node) con le seguenti caratteristiche
    • Dual CPU ten-core Intel E5-2680V2, 2600Mhz
    • 128 GB RAM DDR3 ECC
    • due GB Ethernet port Broadcom BCM5720
    • HD 600 GB 10000 rpm
    • interfaccia Infiniband Mellanox MT27500 ConnectX-3
  2. Cluster Intel PHI di piccole dimensioni per studiare la migrazione delle applicazioni nel nuovo processore
  3. un’installazione di piccole dimensione, composto da 14 nodi con 28 acceleratori di ultima generazione GPU Kepler. Questo cluster ha connessioni ha bassissima latenza (Infiniband QDR) ed ogni nodo monta 64 GB di RAM per una potenza di calcolo totale teorica di 124TFlop.

Il centro ospita diversi cluster di calcolo tra cui un'istallazione di medie dimensioni, composta da 400 nodi dual cpu quadcore, per un totale di 3200 unità di calcolo.
Questo cluster è suddiviso in due sottosistemi caratterizzati dal tipo di connessione di rete presente. Il sottosistema più importante ha connessioni di rete a bassa latenza/larga banda, l'altro sottosistema ha connessione a media latenza. Una piccola parte dei nodi è infine dedicata alla fornitura di servizi per i due cluster. Questi nodi di servizio hanno connessioni di rete sia a bassa che a media latenza.
Nel dettaglio, il cluster è così suddiviso:

  • 256 nodi di calcolo con connessioni Infiniband/Ethernet - Cluster a bassa latenza
  • 128 nodi di calcolo con connessioni Ethernet- Cluster a media latenza
  • 16 nodi di servizio con connessione FibreChannel/Infiniband/Ethernet - Cluster nodi di servizio.

Tutti i nodi di calcolo, sia infiniband che ethernet, sono blade HP BL460c. I nodi di servizio sono sempre blade HP ma di tipo BL480c.

Questo sito utilizza cookie tecnici e assimilati. Possono essere presenti anche cookie profilazione di terze parti. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie leggi l'informativa completa. Proseguendo nella navigazione (anche con il semplice scrolling) acconsenti all'uso dei cookie. This site uses technical and anonymized analytics cookies only. There may also be profiling third-party cookies. Please read the cookie information page to learn more about how we use cookies or blocking them. more information

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close