Risolvere l'enigma della conoscenza con HPC e AI

Pubblicato: 2021-12-15



Il supercalcolo ha fatto molta strada considerando che i suoi inizi negli anni '60. Inizialmente, molti supercomputer sono finiti incentrati sui mainframe, anche se il loro prezzo e la loro complessità erano limiti significativi all'ingresso per numerosi stabilimenti. L'idea di utilizzare un certo numero di PC a bassissimo costo in una comunità per presentare un tipo di calcolo parallelo conveniente in termini di prezzo ha portato le istituzioni di esplorazione lungo il percorso di cluster HPC (Higher-Efficacia Computing) che si sono creati con cluster "Beowulf" negli anni '90 .

I cluster Beowulf sono in gran parte i predecessori degli odierni cluster HPC. I fondamenti dell'architettura Beowulf sono ancora applicabili alle odierne implementazioni HPC, tuttavia, numerosi PC desktop sono stati modificati con piattaforme server a densità significativa create appositamente. Il networking è notevolmente migliorato, con InfiniBand a larghezza di banda più elevata/latenza ridotta (o, come un cenno al passato, sempre più Ethernet) e filesystem paralleli ad alte prestazioni generali, come SpectrumScale, Lustre e BeeGFS sono stati progettati per consentire allo storage di continuare a mantenere al passo con il calcolo. Anche il miglioramento di apparecchiature eccellenti, spesso open source, per il controllo dell'elaborazione dispersa di efficienza superiore ha reso l'adozione molto meno complicata.