Past events

Nuova configurazione del servizio HPC

Gentili utenti,
a partire dal 31/10/2018 il servizio HPC attivo sul cluster è stato configurato con alcuni nuovi parametri, allo scopo di ottimizzare la gestione delle risorse di calcolo.

 

Risorse consumabili: cpu e ram
La gestione delle cpu e della ram come risorse consumabili consente di eseguire più job sullo stesso nodo di calcolo, fino alla saturazione delle risorse del nodo. Ad esempio, un nodo con 16 cpu può ospitare 8 job che richiedono 2 cpu ciascuno; similmente per la ram. L’utente può indicare la quantità di cpu e di ram per cpu al momento di lanciare il job, evitando così che gli vengano assegnati i valori di default. Il termine cpu indica i processori logici, quindi i thread per i nodi fisici ed i core per i vnodes.

Attualmente il cluster mette a disposizione per il servizio hpc 3 nodi fisici e 3 vnodes:

  • node005 (fisico): 48 threads a 2.2 GHz e 512 GB di ram
  • node006 (fisico): 16 threads a 3.5 GHz e 128 GB di ram
  • gpunode001 (fisico): 24 threads a 2.2 GHz e 192 GB di ram + scheda GPU Nvidia Tesla K80
  • vnode001, vnode002, vnode003 (virtuali): 24 core e 25 GB di ram

I principali parametri da utilizzare per richiedere le risorse sono:

  • –c numero_di_cpu per task per nodo
  • ––mem–per–cpu=… (in MB)

I valori di default sono:

  • 1 cpu
  • 512 MB di ram per cpu

Il limite massimo di risorse che possono essere richieste è di:

  • 10702 MB di ram per cpu
  • 3 nodi di calcolo

Per i dettagli, consultare le pagine di documentazione (per la nostra versione di Slurm) dei comandi sbatch ed srun.

 

Code dei job
Rispetto alla configurazione precedente, è stata eliminata la coda “medium”.

Da oggi sono quindi disponibili tre code (o partizioni):

  • low: nessun limite di durata del job, massimo 3 nodi per job, include tutti i nodi di calcolo
  • high: limite di 2 ore di durata del job, massimo 1 nodo per job, include tutti i nodi escluso gpunode001
  • gpuq: nessun limite di durata del job, include solo il nodo gpunode001

Le code gpuq e high hanno priorità rispetto alla low e possono sospendere temporaneamente i job in esecuzione sulla coda low.

 

Siamo a vostra disposizione all’indirizo email computing.cpt@ateneo.univr.it.
Il team della piattaforma computazionale
×