Corrigindo o enigma do conhecimento com HPC e IA

Publicados: 2021-12-15



A supercomputação tem ocorrido um longo caminho desde o seu início na década de 1960. Inicialmente, muitos supercomputadores acabaram centrados em mainframes, mas seu preço e complexidade estavam sendo limites significativos para a entrada de vários estabelecimentos. A ideia de utilizar um número de PCs de custo muito baixo em uma comunidade para apresentar um tipo de computação paralela econômica levou as instituições de exploração ao longo do caminho de clusters de computação de eficácia superior (HPC) configurando-se com clusters “Beowulf” nos anos 90 .

Os clusters Beowulf são muito os predecessores dos clusters HPC atuais. Os fundamentos da arquitetura Beowulf ainda são aplicáveis ​​às atuais implantações de HPC no dia-a-dia, no entanto, vários PCs de mesa foram alterados com plataformas de servidor de densidade significativa criadas para fins específicos. A rede foi visivelmente aprimorada, com InfiniBand de maior largura de banda/latência reduzida (ou, como um aceno ao passado, cada vez mais Ethernet) e sistemas de arquivos paralelos de alto desempenho geral, como SpectrumScale, Luster e BeeGFS, foram projetados para permitir que o armazenamento continue a manter com a computação. O aprimoramento de equipamentos excelentes, geralmente de código aberto, para controlar a computação dispersa de eficiência superior também tornou a adoção muito menos complicada.