HPC per la Fisica teorica

Il nostro gruppo si occupa dello sviluppo di strategie numeriche in grado di beneficiare dei recenti progressi nei sistemi di calcolo HPC, con un'enfasi sulle architetture a molti core. Nello specifico ci siamo focalizzati sullo sviluppo di un nuova strategia multi-level, basata sulla decomposizione in domini dell'algoritmo Hybrid Monte Carlo. Le nostre prospettive includono l'integrazione di questo algoritmo con le simulazioni di tipo master-field e lo studio ad alta precisione della rottura di stringa in QCD.

Progetto APE

Il gruppo di Fisica Computazionale ha una lunga esperienza nello studio delle architetture di calcolo più efficienti per i problemi “computing intensive” quali le simulazioni numeriche delle interazioni forti. Oltre ad essere stati tra i pionieri della nascita delle simulazioni numeriche non perturbative della Cromodinamica Quantistica (QCD), agli inizi degli anni ’80 del Novecento, alcuni membri del gruppo hanno contribuito al progetto e alla realizzazione di quattro generazioni di computer la cui architettura era dedicata alle strutture di calcolo tipiche della simulazione della QCD su reticolo. Dalla prima macchina APE (1985), dotata di una potenza di calcolo di 1 GFlops, si è arrivati ad apeNEXT (2002) con una potenza di calcolo di circa 800 GFlops passando per altri due progetti di potenze intermedie.

Questi computer hanno permesso alla comunità italiana di QCD su reticolo di essere tra i gruppi di punta in questo campo di ricerca ottenendo risultati che, per affidabilità statistica e sistematica, erano tra i migliori disponibili al momento e sarebbero stati irraggiungibili con risorse di calcolo ordinarie. 

Il progetto APE è stato costantemente finanziato dall’INFN diventando ben presto una grande collaborazione internazionale con installazioni nei principali centri di ricerca europei. Una descrizione del progetto con le referenze utili per approfondirne l’evoluzione è in:

Software

Il nostro gruppo si occupa dello sviluppo di codici altamente parallelizzabili, ottimizzati per le ultime generazioni di architetture e altamente scalabili. Abbiamo contribuito a svariati pacchetti software, pubblici e open-source, come openQCD, DDHMC, Grid e gpt. Infine siamo gli autori ed editor principali del pacchetto di analisi pyobs, anch'esso pubblico e open-source.

Local resources

Image
knuth

Ricerca e sviluppo: cluster KNUTH

  • 12 nodes with Intel Xeon Silver, 20 nodes with AMD Epyc 7302
  • 1 node with 2x AMD Epyc 7302 and 4x Nvidia A100 SXM4
  • 4.5 TB total RAM
  • Infiniband EDR 100 Gbit/s
  • Master node with 2x Intel Xeon 4208 and 192 GB RAM
  • Storage 16 TB SSD

 

Insegnamento: cluster WILSON

  • 20 nodes with 2x Intel Xeon E5-2630
  • 1.3 TB total RAM
  • Infiniband 40 Gbit/s
  • Master node 2x Intel Xeon E5-2603, 32GB RAM
  • Storage 6 TB
  • 30 Raspberry Pi 3B+ workstations remotely connected to the cluster (Laboratorio Fisica Computazionale “Marco Comi”)

Relevant links