A Nvidia está a preparar um novo chip destinado a acelerar a fase de inference da inteligência artificial — o momento em que os modelos geram respostas a pedidos dos utilizadores — e deverá apresentar uma nova plataforma na conferência GTC do próximo mês, segundo o Wall Street Journal, citado pela Reuters.
De acordo com a mesma informação, a nova plataforma foi pensada para melhorar a velocidade e a eficiência com que sistemas de IA respondem a pedidos, num mercado em que a procura por capacidade de processamento continua a subir. A Reuters acrescenta que a solução deverá incluir também um chip desenvolvido pela startup Groq.
O movimento surge numa altura em que empresas como a OpenAI procuram formas de acelerar tarefas de inference, uma área cada vez mais crítica à medida que os serviços de IA passam a depender de respostas mais rápidas e custos operacionais mais controlados.
🗞️ Artigos Relacionados:
A Reuters recorda ainda que a OpenAI tem mostrado insatisfação com a velocidade de parte do hardware atualmente usado em algumas cargas de trabalho e que procurava novo equipamento capaz de cobrir uma parcela das suas necessidades nesta área.
Nem a Nvidia nem a OpenAI responderam de imediato aos pedidos de comentário, segundo a Reuters.
🤔 Faltou alguma coisa?
Ajude-nos a melhorar este conteúdo. Ser-lhe-á enviado um email de confirmação.