*Tema mítico* : Deepseek lo cambia todo: cisne zaino en ciernes

Significa esto que las gpus de Nvidia ya pierden su utilidad? No sirven para correr Deepseek? O es que Deepseek corre igual de rápido en una gpu de Nvidia que en una gpu normal?
 
Significa esto que las gpus de Nvidia ya pierden su utilidad? No sirven para correr Deepseek? O es que Deepseek corre igual de rápido en una gpu de Nvidia que en una gpu normal?

Significa que entrenar Deep Seek costo aproximadamente un 5-7% de lo que costo entrenar los modelos GPT mas avanzados. Con lo cual, cualquiera puede hacerlo. Hoy en dia son $5M, pero en 3-5 anos sera factible hacerlo en un cluster de GPUs pequeno.

Deep Seek uso un metodo de entrenamiento por refuerzo muy interesante que seguramente, ademas de ser mucho mas eficiente, abra la puerta a mas avances y modelos que usen mejor el razonmiento logico y la causalidad.

Evidentemente, en EEUU estan muy nerviosos porque esto significa que sus gigantes ya no tienen ninguna ventaja competitiva.
 
Significa que entrenar Deep Seek costo aproximadamente un 5-7% de lo que costo entrenar los modelos GPT mas avanzados. Con lo cual, cualquiera puede hacerlo. Hoy en dia son $5M, pero en 3-5 anos sera factible hacerlo en un cluster de GPUs pequeno.

Deep Seek uso un metodo de entrenamiento por refuerzo muy interesante que seguramente, ademas de ser mucho mas eficiente, abra la puerta a mas avances y modelos que usen mejor el razonmiento logico y la causalidad.

Evidentemente, en EEUU estan muy nerviosos porque esto significa que sus gigantes ya no tienen ninguna ventaja competitiva.

c6cac72184f2ab60cd428f7f3494bcff.jpg
 

Puede ser mentira, pero se sabra pronto porque hay muchos esfuerzos en clonar DeepSeek.

La arquitectura con MoE y el enfoque RL que usan es interesante, veo plausible que sea mas eficiente. Es un campo muy nuevo, habra muchas mas innovaciones asi. El problema es para OpenAI y Anthropic, no tanto para Nvidia.
 
Significa que entrenar Deep Seek costo aproximadamente un 5-7% de lo que costo entrenar los modelos GPT mas avanzados. Con lo cual, cualquiera puede hacerlo. Hoy en dia son $5M, pero en 3-5 anos sera factible hacerlo en un cluster de GPUs pequeno.

Deep Seek uso un metodo de entrenamiento por refuerzo muy interesante que seguramente, ademas de ser mucho mas eficiente, abra la puerta a mas avances y modelos que usen mejor el razonmiento logico y la causalidad.

Evidentemente, en EEUU estan muy nerviosos porque esto significa que sus gigantes ya no tienen ninguna ventaja competitiva.
Ok pero Deepseek y ChatGPT son software. El que Deepseek sea 20 veces más eficiente que ChatGPT quiere decir que ChatGPT está obsoleto pero no quiere decir que el hardware de Nvidia esté obsoleto. O si?
 
Significa esto que las gpus de Nvidia ya pierden su utilidad? No sirven para correr Deepseek? O es que Deepseek corre igual de rápido en una gpu de Nvidia que en una gpu normal?


no no, aun te hacen falta algo que procese

a mi solo me van las pequeñas de 7b y 4 gbs de VRAM ( tengo 8 de Video Ram en mi tarjeta)

pero son 300 billones de parametros las DEEPSEEK real

minimo 2 graficas con mucha VRAM para mover alguna version de mucho Billones de parametros
 
Ok pero Deepseek y ChatGPT son software. El que Deepseek sea 20 veces más eficiente que ChatGPT quiere decir que ChatGPT está obsoleto pero no quiere decir que el hardware de Nvidia esté obsoleto. O si?

No, nada que ver con Nvidia, excepto como afecte a la demanda de sus tarjetas. Si los modelos no pueden seguir escalando con mas y mas entrenamiento, se reducira la demanda, porque no se necesitaran mega-centros de GPUs.

Por otro lado, puede haber una situacion como con la paradoja de Jevons. Que aumente la demanda porque sea mas eficiente el entrenamiento de esos modelos. Siempre y cuando entrenar muchos modelos distintos tenga alguna utilidad. Y tambien porque el uso local sea interesante.

Las tarjetas que puedan ejecutar versiones grandes de DeepSeek localmente no estan tan lejos. Muchas versiones de Llama funcionan bien incluso en CPUs de Apple, que tienen un ancho de banda tremendo. Tambien en los nuevos PCs de Nvidia.

No obstante, yo veo a Nvidia sobrevalorada porque tanto Intel como AMD y demas competencia antes o despues sacaran tarjetas decentes a precio barato. Hoy en dia, la peor parte es que los drivers para DL que no son de Nvidia son un desastre.
 
no no, aun te hacen falta algo que procese

a mi solo me van las pequeñas de 7b y 4 gbs de VRAM ( tengo 8 de Video Ram en mi tarjeta)

pero son 300 billones de parametros las DEEPSEEK real

minimo 2 graficas con mucha VRAM para mover alguna version de mucho Billones de parametros
No, nada que ver con Nvidia, excepto como afecte a la demanda de sus tarjetas. Si los modelos no pueden seguir escalando con mas y mas entrenamiento, se reducira la demanda, porque no se necesitaran mega-centros de GPUs.

Por otro lado, puede haber una situacion como con la paradoja de Jevons. Que aumente la demanda porque sea mas eficiente el entrenamiento de esos modelos. Siempre y cuando entrenar muchos modelos distintos tenga alguna utilidad. Y tambien porque el uso local sea interesante.

Las tarjetas que puedan ejecutar versiones grandes de DeepSeek localmente no estan tan lejos. Muchas versiones de Llama funcionan bien incluso en CPUs de Apple, que tienen un ancho de banda tremendo. Tambien en los nuevos PCs de Nvidia.

No obstante, yo veo a Nvidia sobrevalorada porque tanto Intel como AMD y demas competencia antes o despues sacaran tarjetas decentes a precio barato. Hoy en dia, la peor parte es que los drivers para DL que no son de Nvidia son un desastre.
La consecuencia que yo veo es que Deepseek va a "democratizar" la IA. Los servicios de IA podrán ser prestados por pequeñas empresas. Y va a haber una competencia feroz. Ya no harán falta grandes empresas con mucho capital, funcionando como monopolios y con grandes beneficios. Las grandes empresas del Nasdaq que eran candidatas a dominar los servicios de IA serán las más perjudicadas.
 
Hasta ahora las tarjetas de Nvidia eran las mejores para correr IA. Sabéis si con Deepseek seguirá siendo así?
 
La bolsa china también está bajando, aunque mucho menos que la Usana.
 
Volver