Résoudre l'énigme des connaissances avec le HPC et l'IA

Publié: 2021-12-15



Le supercalcul a parcouru un long chemin depuis ses débuts dans les années 1960. Au départ, de nombreux supercalculateurs étaient centrés sur les ordinateurs centraux, même si leur prix et leur complexité constituaient des barrières importantes à l'entrée pour de nombreux établissements. L'idée d'utiliser un certain nombre de PC à très faible coût autour d'une communauté pour présenter un type de calcul parallèle rentable a conduit les institutions d'exploration sur la voie de la mise en place de clusters de calcul à efficacité supérieure (HPC) avec des clusters "Beowulf" dans les années 90. .

Les clusters Beowulf sont en grande partie les prédécesseurs des clusters HPC actuels. Les principes fondamentaux de l'architecture Beowulf sont toujours applicables aux déploiements HPC quotidiens actuels. Néanmoins, un certain nombre d'ordinateurs de bureau ont été modifiés avec des plates-formes de serveur à densité élevée spécialement créées. La mise en réseau s'est sensiblement améliorée, avec une bande passante plus élevée / une latence réduite InfiniBand (ou, comme un clin d'œil au passé, de plus en plus Ethernet) et des systèmes de fichiers parallèles à haute performance générale tels que SpectrumScale, Lustre et BeeGFS ont été conçus pour permettre au stockage de continuer à garder avec le calcul. L'amélioration d'excellents équipements, souvent open source, pour contrôler l'informatique dispersée à haut rendement a également rendu l'adoption beaucoup plus simple.