Top-level heading

HPC Lagrange

banner-hpc-1310x355

PAGINA IN COSTRUZIONE VERS. 20250530.1318

Il Dipartimento di Matematica "G.C." dispone di un server HPC (High-Performance Computing) dedicato al supercalcolo general-purpose.
Questo sistema è fondamentale per la risoluzione di complessi modelli matematici e statistici, in particolare su Big Data 
e supporta lo sviluppo e l'addestramento di modelli di Intelligenza Artificiale e Machine Learning.

V1 -Sul server lagrangectl è installato SLURM, Simple Linux Utility for Resource Management.
Tramite SLURM gli utenti possono accedere al server lagrange dedicato al calcolo intensivo.

Configurazione server lagrange

dispone di 48 Threads ( 2 cpu AMD EPYC 9224 da 24 Core) 768 GB RAM,  4 GPU H100 NVIDIA da 80G, 14TB

Chi può utilizzare lagrange

  • Professori e ricercatori afferenti al Dipartimento;
  • Personale del Dipartimento;
  • Assegnisti presso il Dipartimento;
  • Dottorandi in Matematica presso il Dipartimento;
  • Studenti della magistrale del Dipartimento;
  • Studenti e personale esterni al dipartimento.                                 NOTA: (Vedi regolamento Link punto 4)

Richiesta account

L'apertura di un nuovo account può essere richiesta compilando la form. Per gli assegnisti, dottorandi, studenti e personale esterno, la richiesta dell’account deve essere effettuata da un docente del Dipartimento di Matematica. In quest’ultimo caso, nella form si deve indicare nome, cognome e qualifica dell'utente per il quale si richiede il nuovo account. Per gli account temporanei è necessario specificare anche la data di scadenza.

Risorse disponibili

 

Ogni utente potrà lanciare 1 o più job che non superino i seguenti parametri:

  • 12 core per CPU
  • 1 GPU
  • 150GB di RAM
  • DA DEFINIRE UNA QUOTA DISCO per utente???
  • Tempo di esecuzione dei job 1g

Prime informazioni per utilizzare lagrange

Per mandare in esecuzione programmi sul server:

  1. collegarsi al server lagrangectl.mat.uniroma1.it

  2. la cartella di lavoro dove si trovano i file da eseguire, ed i file in input, deve essere sotto la home dell’utente (/home/username)

  3. mandare in esecuzione il programma utilizzando i comandi messi a disposizione da SLURM.

    Per avere l'elenco completo dei comandi, consultare l'help in linea alla voce slurm (digitare man slurm).
    Alcuni dei comandi disponibili sono:

       srun          per inviare jobs sul cluster per il calcolo
       sbatch      per sottomettere un batch script sul cluster per il calcolo
       squeue     per visualizzare la coda dei jobs sul cluster per il calcolo
                        (ogni utente può visualizzare solo i propri job)
       scancel    per interrompere un jobs sul cluster per il calcolo
       sinfo         per visualizzare informazioni relative al cluster per il calcolo

Per ulteriori informazioni si consiglia di consultare la documentazione disponibile sul sito Slurm.

 

Qualche esempio

 

  • Per inviare un programma sulle code di esecuzione del cluster 

     1. Scrivere uno shell script, ad esempio my_application.sh, contenente le seguenti righe:

#!/bin/bash
#SBATCH --job-name=my_job		# Job name
#SBATCH --output=output_%j.txt	# Standard output and error log
#SBATCH --ntasks=1				# Number of tasks (1 task = 1 MPI rank usually)
#SBATCH --cpus-per-task=2		# Number of CPU cores per task
#SBATCH --mem=10G				# Total memory requested (RAM)
#SBATCH --gpus=0				# Request 2 GPUs 				

     2. lanciare l'esecuzione, inviando il comando

./my_application				# Tour command goes here

 

Contatti

Contatti