Glossario

B

Modalità di esecuzione di un programma senza che vi sia interazione con l'utente. Wikipedia

Cluster di PC basato su Linux e realizzato utilizzando hardware commodity e software open source. Wikipedia

Distribuzione uniforme di un carico di lavoro computazionale tra un insieme di processori paralleli. I programmi paralleli raggiungono la massima efficienza quando il carico di lavoro è perfettamente bilanciato, ossia quando ogni processore ha la stessa quantità di lavoro da svolgere.

C

Il calcolo parallelo consente di suddividere un programma in più processi che lavorano in cooperazione su processori differenti al fine di ridurre i tempi complessivi di elaborazione. Wikipedia

Paradigma di calcolo distribuito in cui le risorse ICT necessarie ad un computer vengono fornite dalla rete sotto forma di "servizi". Il cloud computing mette a disposizione degli utenti una potenza elaborativa scalabile a richiesta (on demand). Wikipedia

Un cluster di computer è un supercomputer realizzato connettendo in rete un gruppo di PC, server o workstation che, tramite opportuni software, collaborano fra loro per suddividersi il carico di lavoro. Dal punto di vista hardware questi sistemi possono essere realizzati come semplici reti di computer (generalmente server compatti alloggiati in armadi rack), e solo a livello software avviene la "fusione" che permette ai vari computer di cooperare come nodi di un unico elaboratore multiprocessore. Wikipedia

Utilizzo di sistemi di tipo cluster per applicazioni di calcolo ad alte prestazioni, alta affidabilità e bilanciamenti di carico.

Cluster in cui la disponibilità di più computer indipendenti viene sfruttata per ridondare servizi di rete di tipo mission critical, in modo da ridurre al minimo i "single point of failure" e massimizzare la disponibilità. Wikipedia

Cluster in cui la potenza di calcolo costituita dall'insieme dei processori disponibili viene utilizzata per ridurre (o rendere accessibili) i tempi di calcolo di complesse elaborazioni grazie all'impiego di tecniche di calcolo parallelo.

Cluster in cui le richieste indirizzate ad un server (es. web-server, database-server...) vengono smistate ai vari computer del cluster secondo algoritmi di bilanciamento del carico che consentono di ottenere elevati livelli di prestazioni, pari quasi alla somma delle capacità elaborative dei singoli computer. Wikipedia

Un gestore di code di esecuzione è un software che gestisce il carico di lavoro di un sistema HPC. Gli utenti sottomettono programmi in batch alle code, in modo che vengano mandati in esecuzione non appena le risorse richieste si rendono disponibili.

Computer che dispone di più processori per l'esecuzione contemporanea di istruzioni. Tramite la programmazione parallela è possibile sfruttare le capacità di calcolo di questi computer. Wikipedia

Unità elaborativa di un microprocessore. Le CPU moderne ospitano al loro interno più core, che dal punto di vista del sistema operativo e degli applicativi software vengono visti come effettivi processori indipendenti. Wikipedia

CUDA (acronimo di Compute Unified Device Architecture) è un'architettura di elaborazione in parallelo che permette ai programmatori di scrivere applicazioni capaci di eseguire calcoli in parallelo sulle GPU NVIDIA utilizzando i linguaggi di programmazione più diffusi in ambito scientifico (C, Fortran, Python, Java).

F

In un filesystem distribuito (o network filesystem) i file vengono memorizzati su dispositivi in rete (server, PC, storage...), e vengono gestiti secondo una modalità client/server. Fra i più comuni filesystem di questo tipo ci sono NFS e CIFS. Wikipedia

E' un tipo di filesystem con supporto per applicazioni parallele, nel quale tutti i nodi possono accedere contemporaneamente agli stessi file, sia in lettura che in scrittura. I dati vengono scritti sulle unità disco di diversi nodi (striping), in modo tale da avere elevate prestazioni di I/O e scalabilità. Fra i più comuni filesystem di questo tipo ci sono Lustre, PVFS, GPFS, Panasas ActiveScale. Wikipedia

Acronimo di Floating Point Operations per Second, è usato come unità di misura della velocità di calcolo dei sistemi, in quanto esprime il numero di operazioni matematiche tra numeri in virgola mobile effettuate in un secondo. Wikipedia

E' il nodo di un cluster deputato all'interfacciamento con il mondo esterno, ospita i software e i servizi di rete necessari al funzionamento del cluster, gli account e i dati degli utenti, gli applicativi software; rimane escluso dal carico di lavoro computazionale del cluster, che viene ripartito solo tra gli altri nodi.

G

E' una versione dello standard Ethernet definita nel 1998 e relativa a connessioni di rete caratterizzate da larghezza di banda di 1 Gigabit/s. E' il sistema di interconnessione di base presente su tutti i cluster moderni. Wikipedia

Paradigma di calcolo distribuito che prevede l'interconnessione e la condivisione di risorse di calcolo decentrate (computer, workstation, cluster...) in un'unica infrastruttura scalabile e che offre elevata potenza elaborativa e di storage. Wikipedia

I

E' l'insieme di dispositivi fisici utilizzati per lo scambio di informazioni tra i nodi di un cluster. La tecnologia di riferimento è Gigabit Ethernet, disponibile di base su tutti i cluster moderni. Poiché la velocità di interconnessione può limitare le prestazioni complessive per certi tipi di applicazioni o quando il numero di nodi del cluster cresce, si possono impiegare tecnologie dedicate alternative, prevalentemente basate sulla fibra ottica e capaci di aumentare la larghezza di banda e ridurre la latenza (es. Infiniband).

L

Esprime la velocità massima di trasmissione delle informazioni all'interno di un dato canale di comunicazione. Si misura tipicamente in bit al secondo (Kbit/s, Mbit/s, Gbit/s). Assieme alla latenza, esprime le prestazioni di componenti importanti dei sistemi HPC, quali la memoria, l'I/O e l'interconnessione. Wikipedia

Esprime il tempo impiegato per iniziare e concludere un'operazione. In un'ottica di trasmissione dati, è riferito al tempo impiegato da un dato per arrivare a destinazione. Si misura tipicamente in microsecondi (ms) o nanosecondi (ns). Assieme alla larghezza di banda, esprime le prestazioni di componenti importanti dei sistemi HPC, quali la memoria, l'I/O e l'interconnessione. Wikipedia

Descrive il miglioramento teorico di prestazioni nell'esecuzione di un programma al variare del numero di processori utilizzati. Wikipedia

M

Nei computer paralleli a memoria condivisa, esiste un unico spazio di indirizzamento della memoria accessibile a più processori. Wikipedia

Nei computer paralleli a memoria distribuita, ogni processore ha una memoria principale fisicamente separata. Wikipedia

E' uno standard software che descrive un sistema di comunicazione per applicazioni parallele basato sullo scambio di messaggi. Lo standard definisce una libreria di funzioni attraverso le quali i processi paralleli comunicano fra loro. Wikipedia

Un computer con più processori operanti in parallelo e con un'unica memoria condivisa. Wikipedia

Esecuzione di più processi su un unico processore, generalmente ottenuta ripartendo il tempo del processore sui vari processi, sotto il controllo del sistema operativo. Wikipedia

N

E' il termine comunemente usato per indicare un generico computer appartenente ad un cluster. Generalmente un nodo può ospitare più processori e/o core.

E' un generico nodo utilizzato per assolvere al carico di lavoro computazionale di un cluster.

E' il termine usato per indicare un nodo che svolge contemporaneamente i ruoli di nodo di calcolo e di front-end di un cluster.

Termine utilizzato per indicare genericamente il front-end o il nodo master.

O

OpenACC è uno standard di programmazione per il calcol parallelo sviluppato da Cray, CAPS, Nvidia e PGI, pensato per semplificare la programmazione parallela su sistemi CPU/GPU eterogenei.

OpenCL (Open Computing Language) è una libreria basata sul linguaggio di programmazione C99, che può esser eseguito su una molteplicità di piattaforme CPU, GPU e altri tipi di processori.

E' uno standard software che descrive un sistema di programmazione parallela per computer a memoria condivisa. A differenza di MPI, OpenMP opera ad "alto livello" e semplifica la stesura di programmi paralleli, anche se offre meno controllo. Wikipedia

P

Vedi "calcolo parallelo"...

S

Lo scheduler si occupa di distribuire il carico di lavoro su un sistema HPC in modo bilanciato e ottimizzato, a seconda delle risorse richieste e di quelle disponibili. Wikipedia

Acronimo di Symmetric MultiProcessor, indica un computer dotato di più processori e con un'unica memoria condivisa. Wikipedia

Esprime il guadagno di prestazioni che si ha nell'esecuzione di un programma in parallelo rispetto al caso di esecuzione su un solo processore. Wikipedia

Indica genericamente un computer progettato per ottenere prestazioni molto elevate. Storicamente rappresenta una tipologia di sistemi per calcolo ad alte prestazioni caratterizzati da architetture hardware dedicate e molto costose, utilizzati in modo prevalente prima dell'avvento dei cluster. Wikipedia

T

E' la classifica mondiale dei computer più veloci. Wikipedia

W

E' un computer con prestazioni elevate utilizzato in ambito professionale per attività che richiedono performance e affidabilità. Wikipedia

Newsletter

Iscriviti alla newsletter di Aethia per rimanere sempre informato sulle novità HPC.

Iscrivendoti accetti l'informativa sulla privacy

Ultimo Tweet

Contattaci

  • Aethia Srl

  • Indirizzo: Via Ribes, 5 - 10010 Colleretto Giacosa (TO)

  • Telefono: +39 0125 538824

  • Email: contatti@aethia.com

Seguici

Privacy Policy