De acordo com uma publicação do WCCFTech da última terça-feira (02), Elon Musk, empresário que comanda empresas como Tesla, SpaceX e X, revelou que vem utilizando 100 mil GPUs NVIDIA H100 para treinamento da terceira versão da inteligência artificial Grok.
A tecnologia será utilizada por usuários premium da rede social X, funcionando como um chatbot “bem humorado”, conforme descrito pela corporação.
O principal diferencial do recurso é a capacidade de responder perguntas mais controversas e rejeitadas por outros sistemas de IA, sendo caracterizado como “útil para pessoas de todas as origens e visões políticas”.
- NVIDIA É Alvo De Investigação E Tem Sede Invadida Pelo Governo Francês
- 100 Melhores Empresas Do Mundo: NVIDIA De Fora, Apple, Microsoft E Outras Na Lista
A revelação do executivo é surpreendente, haja vista que a segunda versão do Grok ainda nem foi lançada, estando prevista para agosto deste ano. Ainda assim, Elon já está pensando no futuro e desenvolvendo o próximo modelo com o hardware mais avançado disponível para a tarefa.
Grok 3 end of year after training on 100k H100s should be really something special
— Elon Musk (@elonmusk) July 1, 2024
A declaração do CEO da Tesla também dá a entender que a evolução entre as gerações do chatbot deve ser grande, uma vez que o Grok 3 é o único utilizando tamanha quantidade de GPUs NVIDIA H100, o que com certeza fará diferença na capacidade da tecnologia.
Para que se tenha ideia, o ChatGPT utilizou em seu treinamento cerca de 40 mil GPUs NVIDIA A100. Além da quantidade ser menor, a placa também é de um modelo inferior à que vem sendo usada pela IA de Elon Musk.
Investimentos não param por aí
No mais, foi revelado também que o empresário pretende investir cerca de US$9 bilhões, valor correspondente a R$ 50,6 bilhões na cotação atual, na compra de aceleradores B200 “Blackwell”para o Grok 3.