Hoje, a CoreWeave se tornou um dos primeiros provedores de nuvem a trazer on-line os sistemas NVIDIA GB200 NVL72 para clientes em escala, e as empresas de fronteira de IA co-lutam, a IBM e a AI Mistral já os estão usando para treinar e implantar modelos e aplicações de IA da próxima geração.
CoreWeave, o primeiro provedor de nuvem a fazer Nvidia Grace Blackwell geralmente disponíveljá mostrou resultados incríveis em benchmarks MLPerf com NVIDIA GB200 NVL72 -Uma poderosa plataforma de computação acelerada em escala de rack projetada para raciocínio e agentes de IA. Agora, os clientes da CoreWeave estão ganhando acesso a milhares de GPUS NVIDIA BLACKWELL.
“Trabalhamos em estreita colaboração com a Nvidia para entregar rapidamente aos clientes as soluções mais recentes e mais poderosas para treinar modelos de IA e servir inferência”, disse Mike Intrator, CEO da CoreWeave. “Com os novos sistemas Grace Blackwell em escala de rack em mãos, muitos de nossos clientes serão os primeiros a ver os benefícios e o desempenho dos inovadores de IA que operam em escala”.

A aceleração para clientes de provedores de nuvem como a CoreWeave está em andamento. Os sistemas construídos na Nvidia Grace Blackwell estão em plena produção, transformando os data centers em nuvem em Fábricas da AI que fabricam inteligência em escala e convertem dados brutos em insights em tempo real com velocidadeprecisão e eficiência.
As principais empresas de IA em todo o mundo estão colocando os recursos da GB200 NVL72 para trabalhar para aplicativos de IA, Ai agêntico e desenvolvimento de modelos de ponta.
Agentes de IA personalizados
Coere está usando suas superchips Grace Blackwell para ajudar a desenvolver aplicativos de IA corporativos seguros, alimentados por técnicas de pesquisa e desenvolvimento de modelos. Sua plataforma de IA corporativa, Nortepermite que as equipes construam agentes de IA personalizados para automatizar os fluxos de trabalho corporativos com segurança, insights em tempo real da superfície e muito mais.
Com o NVIDIA GB200 NVL72 no CoreWeave, a Cohere já está experimentando até 3x mais desempenho em treinamento para modelos de 100 bilhões de parâmetros em comparação com as GPUs de Hopper NVIDIA de geração anterior-mesmo sem otimizações específicas de Blackwell.
Com otimizações adicionais aproveitando a grande memória unificada do GB200 NVL72, a precisão do FP4 e um domínio nvidia nvlink de 72-gpu-onde toda GPU está conectada para operar em conjunto-Cohere está obtendo dramaticamente maior taxa de transferência com tempo mais curto para os tokens mais curtos e subsequentes, para mais performentes, a referência econômica.
“Com o acesso a alguns dos primeiros sistemas NVIDIA GB200 NVL72 na nuvem, estamos satisfeitos com a facilidade com que nossa porta de cargas de trabalho da Nvidia Grace Blackwell Architecture”, disse Autumn Moulder, vice -presidente de engenharia da Coere. “Isso desbloqueia uma incrível eficiência de desempenho em nossa pilha – desde o nosso aplicativo norte verticalmente integrado, em uma única GPU de Blackwell até a escala de trabalhos de treinamento em milhares deles. Estamos ansiosos para alcançar um desempenho ainda maior com otimizações adicionais em breve”.
Modelos de IA para Enterprise
A IBM está usando uma das primeiras implantações dos sistemas NVIDIA GB200 NVL72, escalando milhares de GPUs Blackwell no CoreWeave, para treinar sua próxima geração Modelos de granitouma série de modelos de IA de código aberto e pronto para a empresa. Os modelos de granito oferecem desempenho de última geração, maximizando a segurança, a velocidade e a eficiência de custos. A família de modelos de granito é suportada por um ecossistema de parceiros robustos que inclui as principais empresas de software que incorporam grandes modelos de idiomas em suas tecnologias.
Os modelos de granito fornecem a base para soluções como IBM Watsonx orquestraque permite que as empresas construam e implantem agentes poderosos de IA que automatizam e acelerem fluxos de trabalho em toda a empresa.
NVIDIA GB200 NVL72 da CoreWeaves para IBM também aproveita o Sistema de Escala de Armazenamento IBMque oferece armazenamento excepcional de alto desempenho para a IA. Os clientes da CoreWeave podem acessar a plataforma de armazenamento IBM nos ambientes dedicados da CoreWeave e a plataforma em nuvem de AI.
“Estamos empolgados em ver a aceleração que a NVIDIA GB200 NVL72 pode trazer para treinar nossa família de modelos de granito”, disse Sriram Raghavan, vice -presidente de IA da IBM Research. “Essa colaboração com a CoreWeave aumentará as capacidades da IBM para ajudar a criar modelos avançados, de alto desempenho e econômicos para alimentar aplicativos de IA corporativos e agênticos com a IBM Watsonx”.
Calcule recursos em escala
A IA Mistral agora está recebendo suas primeiras mil GPUs da Blackwell a construir a próxima geração de modelos de IA de código aberto.
A IA Mistral, um líder baseado em Paris em IA de código aberto, está usando a infraestrutura da CoreWeave, agora equipada com GB200 NVL72, para acelerar o desenvolvimento de seus modelos de idiomas. Com modelos como o Mistral Grande, oferecendo fortes recursos de raciocínio, a Mistral precisa de recursos rápidos de computação em escala.
Para treinar e implantar esses modelos de maneira eficaz, a IA MISTRAL exige um provedor de nuvem que ofereça clusters de GPU de alto desempenho com NVIDIA Quantum Infiniband Networking e gerenciamento confiável de infraestrutura. Experiência da CoreWeaver em Sump Up Nvidia GPUs em escala com confiabilidade e resiliência líder do setor por meio de ferramentas como Controle da missão CoreWeave atendeu a esses requisitos.
“Logo de fora e sem outras otimizações, vimos uma melhoria 2x no desempenho para treinamento densamente de modelos”, disse Thimothee Lacroix, co -fundador e diretor de tecnologia da Mistral AI. “O que é emocionante no NVIDIA GB200 NVL72 é as novas possibilidades que ele abre para o desenvolvimento e a inferência do modelo”.
Um número crescente de instâncias de Blackwell
Além das soluções de clientes de longo prazo, o CoreWeave oferece instâncias com NVIDIA NVLINK em escala de rack em 72 NVIDIA Blackwell GPUS e 36 NVIDIA GRACE CPUS, dimensionando até 110.000 GPUs com a rede Nvidia Quantum-2 Infiniband.
Essas instâncias, aceleradas pela plataforma de computação acelerada em escala de rack NVIDIA GB200 NVL72, fornece a escala e o desempenho necessários para construir e implantar a próxima geração de modelos e agentes de raciocínio de IA.
Leave a Reply