alv982
Lonchafinista
- Desde
- 10 Abr 2021
- Mensajes
- 104
- Reputación
- 389
DeepSeek está entrenado con tarjetas Nvidia H800, qué son tarjetas tope de gama. Es una versión capada de las H100 que usa OpenAI para poder exportarse a China (ancho de banda de transferencia entre chips reducida a la mitad). Ahora mismo no hay nada que sea más que Nvidia para entrenamiento de LLMs, además de por el hardware, por el "compilador" con lo que se desarrolla todo (CUDA), qué es de NVidia y sólo funciona con tarjetas de Nvida.Significa esto que las gpus de Nvidia ya pierden su utilidad? No sirven para correr Deepseek? O es que Deepseek corre igual de rápido en una gpu de Nvidia que en una gpu normal?
El tema parece que está en que han conseguido entrentar modelos usando menos tiempo de cálculo, lo que se traduce para un mismo tiempo de entrenamiento necesitan menos tarjetas, con lo que pueden hacer un modelo similar a otros más grandes a menos coste. Pero si tuvieran más podrían hacer modelos todavía más potentes. No creo que influya mucho en Nvidia quitando la noticia, las grandes del sector seguirán comprando el mismo número de tarjetas.