*Tema mítico* : Deepseek lo cambia todo: cisne zaino en ciernes

Si ahora pueden correr DeepSeek localmente, será lo más seguro.
Añado: además es código abierto, con lo cual sabes que la IA no contiene sorpresas.

Conoces los costes computacionales de correr en un servidor local un LLM a nivel producción?

Ya pueden tener las empresas una nucelar al ladito de donde tengan los servidores (por no decir que los modelos se quedan obsoletos)
 
Conoces los costes computacionales de correr en un servidor local un LLM a nivel producción?

Ya pueden tener las empresas una nucelar al ladito de donde tengan los servidores (por no decir que los modelos se quedan obsoletos)
Soy un ignorante en el tema. Pero por lo que se está diciendo, se pueden deducir ciertas cosas.
 

Finalmente tuve la oportunidad de profundizar en el r1 de DeepSeek…Permítanme explicar por qué las innovaciones de inteligencia artificial de DeepSeek están sorprendiendo a la gente (y posiblemente amenazando la capitalización de mercado de 2 billones de dólares de Nvidia) en términos simples...

Primero, un poco de contexto: en este momento, entrenar a los mejores modelos de IA es increíblemente caro. OpenAI, Anthropic, etc. gastan más de 100 millones de dólares solo en computación. Necesitan centros de datos enormes con miles de GPU de 40 000 dólares. Es como necesitar una planta de energía completa para hacer funcionar una fábrica.

DeepSeek simplemente apareció y dijo: "LOL, ¿qué pasaría si hiciéramos esto por 5 millones de dólares?" Y no solo hablaron, realmente lo HICIERON. Sus modelos igualan o superan a GPT-4 y Claude en muchas tareas. El mundo de la IA está (como dicen mis hijos adolescentes) conmocionado.

¿Cómo? Repensaron todo desde cero. La IA tradicional es como escribir cada número con 32 decimales. DeepSeek pensó: "¿Qué pasaría si usáramos 8? ¡Sigue siendo lo suficientemente preciso!". ¡Bum! Se necesita un 75 % menos de memoria.

Luego está su sistema de "tokens múltiples". La IA normal lee como un alumno de primer grado: "El... gato... se sentó..." DeepSeek lee frases completas a la vez. Es dos veces más rápido y tiene un 90 % de precisión. Cuando se procesan miles de millones de palabras, esto IMPORTA.

Pero lo más ingenioso es que crearon un "sistema experto". En lugar de una IA masiva que intenta saberlo todo (como si una persona fuera médico, abogado e ingeniero), tienen expertos especializados que solo se activan cuando es necesario.

¿Modelos tradicionales? Los 1,8 billones de parámetros están activos TODO EL TIEMPO. ¿DeepSeek? 671 mil millones en total, pero solo 37 mil millones están activos a la vez. Es como tener un equipo enorme, pero solo llamar a los expertos que realmente necesitas para cada tarea.

Los resultados son alucinantes:
- Costo de capacitación: $100M → $5M
- GPU necesarias: 100 000 → 2000
- Costes API: 95% más baratos
- Puede ejecutarse en GPU para juegos en lugar de hardware de centro de datos

"Pero espera", podrías decir, "¡debe haber una trampa!". Esa es la parte más interesante: todo es de código abierto. Cualquiera puede comprobar su trabajo. El código es público. Los documentos técnicos lo explican todo. No es magia, solo ingeniería increíblemente inteligente.

¿Por qué es importante? Porque rompe con el modelo de que “sólo las grandes empresas tecnológicas pueden participar en la IA”. Ya no es necesario un centro de datos de mil millones de dólares. Unas cuantas GPU de calidad podrían ser suficientes.

Para Nvidia, esto es aterrador. Todo su modelo de negocio se basa en la venta de GPU supercaras con márgenes del 90 %. Si de repente todo el mundo puede hacer IA con GPU para juegos normales... bueno, ya ves el problema.

Y aquí está el truco: DeepSeek hizo esto con un equipo de < 200 personas. Mientras tanto, Meta tiene equipos donde la compensación por sí sola excede el presupuesto de capacitación total de DeepSeek... y sus modelos no son tan buenos.

Esta es una historia clásica de disrupción: los incumbentes optimizan los procesos existentes, mientras que los disruptores replantean el enfoque fundamental. DeepSeek se preguntó "¿qué pasaría si simplemente hiciéramos esto de manera más inteligente en lugar de agregarle más hardware?"

Las implicaciones son enormes:
- El desarrollo de IA se vuelve más accesible
- La competencia aumenta drásticamente
- Los "fosos" de las grandes empresas tecnológicas parecen más bien charcos
- Los requisitos de hardware (y los costos) se desploman

Por supuesto, gigantes como OpenAI y Anthropic no se quedarán de brazos cruzados. Probablemente ya estén implementando estas innovaciones. Pero el genio de la eficiencia ya salió de la botella: no hay vuelta atrás al enfoque de "simplemente agregarle más GPU"

Reflexión final: Parece que este es uno de esos momentos que recordaremos como un punto de inflexión, como cuando las PC hicieron que los mainframes perdieran relevancia o cuando la computación en la nube lo cambió todo.La IA está a punto de volverse mucho más accesible y mucho más barata. La pregunta no es si esto afectará a los actores actuales, sino con qué rapidez.
/fin

PD: Sí, todo esto está disponible en código abierto. Puedes probar sus modelos ahora mismo. ¡Vivimos tiempos locos!
 

Finalmente tuve la oportunidad de profundizar en el r1 de DeepSeek…Permítanme explicar por qué las innovaciones de inteligencia artificial de DeepSeek están sorprendiendo a la gente (y posiblemente amenazando la capitalización de mercado de 2 billones de dólares de Nvidia) en términos simples...

Una explicación corazonuda que cualquiera puede entender, gracias por el post!!!

De todos modos da que pensar que deepseek no se haya caido con el hype que está teniendo, creo que está claro que tienen más recursos de los que dicen tener. O quizá los extienden bajo demanda, que tambien puede ser...
 

Finalmente tuve la oportunidad de profundizar en el r1 de DeepSeek…Permítanme explicar por qué las innovaciones de inteligencia artificial de DeepSeek están sorprendiendo a la gente (y posiblemente amenazando la capitalización de mercado de 2 billones de dólares de Nvidia) en términos simples...

Primero, un poco de contexto: en este momento, entrenar a los mejores modelos de IA es increíblemente caro. OpenAI, Anthropic, etc. gastan más de 100 millones de dólares solo en computación. Necesitan centros de datos enormes con miles de GPU de 40 000 dólares. Es como necesitar una planta de energía completa para hacer funcionar una fábrica.

DeepSeek simplemente apareció y dijo: "LOL, ¿qué pasaría si hiciéramos esto por 5 millones de dólares?" Y no solo hablaron, realmente lo HICIERON. Sus modelos igualan o superan a GPT-4 y Claude en muchas tareas. El mundo de la IA está (como dicen mis hijos adolescentes) conmocionado.

¿Cómo? Repensaron todo desde cero. La IA tradicional es como escribir cada número con 32 decimales. DeepSeek pensó: "¿Qué pasaría si usáramos 8? ¡Sigue siendo lo suficientemente preciso!". ¡Bum! Se necesita un 75 % menos de memoria.

Luego está su sistema de "tokens múltiples". La IA normal lee como un alumno de primer grado: "El... gato... se sentó..." DeepSeek lee frases completas a la vez. Es dos veces más rápido y tiene un 90 % de precisión. Cuando se procesan miles de millones de palabras, esto IMPORTA.

Pero lo más ingenioso es que crearon un "sistema experto". En lugar de una IA masiva que intenta saberlo todo (como si una persona fuera médico, abogado e ingeniero), tienen expertos especializados que solo se activan cuando es necesario.

¿Modelos tradicionales? Los 1,8 billones de parámetros están activos TODO EL TIEMPO. ¿DeepSeek? 671 mil millones en total, pero solo 37 mil millones están activos a la vez. Es como tener un equipo enorme, pero solo llamar a los expertos que realmente necesitas para cada tarea.

Los resultados son alucinantes:
- Costo de capacitación: $100M → $5M
- GPU necesarias: 100 000 → 2000
- Costes API: 95% más baratos
- Puede ejecutarse en GPU para juegos en lugar de hardware de centro de datos

"Pero espera", podrías decir, "¡debe haber una trampa!". Esa es la parte más interesante: todo es de código abierto. Cualquiera puede comprobar su trabajo. El código es público. Los documentos técnicos lo explican todo. No es magia, solo ingeniería increíblemente inteligente.

¿Por qué es importante? Porque rompe con el modelo de que “sólo las grandes empresas tecnológicas pueden participar en la IA”. Ya no es necesario un centro de datos de mil millones de dólares. Unas cuantas GPU de calidad podrían ser suficientes.

Para Nvidia, esto es aterrador. Todo su modelo de negocio se basa en la venta de GPU supercaras con márgenes del 90 %. Si de repente todo el mundo puede hacer IA con GPU para juegos normales... bueno, ya ves el problema.

Y aquí está el truco: DeepSeek hizo esto con un equipo de < 200 personas. Mientras tanto, Meta tiene equipos donde la compensación por sí sola excede el presupuesto de capacitación total de DeepSeek... y sus modelos no son tan buenos.

Esta es una historia clásica de disrupción: los incumbentes optimizan los procesos existentes, mientras que los disruptores replantean el enfoque fundamental. DeepSeek se preguntó "¿qué pasaría si simplemente hiciéramos esto de manera más inteligente en lugar de agregarle más hardware?"

Las implicaciones son enormes:
- El desarrollo de IA se vuelve más accesible
- La competencia aumenta drásticamente
- Los "fosos" de las grandes empresas tecnológicas parecen más bien charcos
- Los requisitos de hardware (y los costos) se desploman

Por supuesto, gigantes como OpenAI y Anthropic no se quedarán de brazos cruzados. Probablemente ya estén implementando estas innovaciones. Pero el genio de la eficiencia ya salió de la botella: no hay vuelta atrás al enfoque de "simplemente agregarle más GPU"

Reflexión final: Parece que este es uno de esos momentos que recordaremos como un punto de inflexión, como cuando las PC hicieron que los mainframes perdieran relevancia o cuando la computación en la nube lo cambió todo.La IA está a punto de volverse mucho más accesible y mucho más barata. La pregunta no es si esto afectará a los actores actuales, sino con qué rapidez.
/fin

PD: Sí, todo esto está disponible en código abierto. Puedes probar sus modelos ahora mismo. ¡Vivimos tiempos locos!
Quizás los Americanos hicieron la IA más compleja de lo que debería ser, a posta, para montar un gran negocio. Y ahora los Chinos les han tumbado el chiringuito.
 
En todo caso Nvidia saldrá ganadora, pues le da igual que sea OpenAI o DeepSeek o PepitoAI. Ellos proporcionan el hardware para correr modelos de ia
Eso es lo que yo preguntaba más arriba. Pero la cuestión es si DeepSeek corre mejor con hardware Nvidia o bien corre igual con otro hardware. Porque las IAs usanas están optimizadas para correr mejor con el hardware de Nvidia pero puede que no sea el caso con Deepseek.
 
Última edición:
No me vale. Yo quiero lentillas y pinganillos con altas capacidades de procesamiento, conectividad y razonamiento para convertirme en un cyborg que todo lo ve, todo lo oye y todo lo sabe.

Y ya dejarte dejarte ir y que piense, actúe y hable por ti, porque a esas alturas ya hasta abrir la boca para hablar dará una pereza enorme.

Podremos generar ingresos pasivos alquilando nuestro propio cuerpo a la IA, dedicarnos a dormir en un estado de trance permanente mientras nuestro cuerpo físico va y viene haciendo cosas que sólo recordamos vagamente, como sueños difusos.

Hasta que los robots y drones controlados por la misma IA sean más eficientes que nuestro cuerpo obsoleto y decida descartarnos. Hileras de personas esperando con paciencia su turno para tirarse plácidamente a una trituradora de carne, y por el extremo opuesto saliendo la biomasa ya procesada, lista para ser usada como combustible.
Quitáis las ganas respirar...
 
Señores, esto se hunde sin remisión.
SP cae un 2% y Nasdaq 3.5%. Esto sólo es el aperitivo.
Creo que Nasdaq caerá hoy un 10%.
 
Hoy me como la ostra si o si, me pilla dentro, Microsoft, esto va a evolucionar muy rapidamente la IA a nivel global, los americanos se sentian solos y ahora resulta que hay modelos mas eficientes para todes, esto se parece mucho a una carrera de armamentos pero a nivel tecnologia loco ivan, al final crearan un monstruo que se les ira de las manos, en fin.

Tambien tengo claro que chatgpt que manejamos no es ni de coña el que open ia tiene, lo mismo sacan la version potente.

Estoy de acuerdo que han ido poco a poco para hacer negocio, esto se acaba, que enseñen la patita de las IA si la tienen.
 
En todo caso Nvidia saldrá ganadora, pues le da igual que sea OpenAI o DeepSeek o PepitoAI. Ellos proporcionan el hardware para correr modelos de ia
Como va a ser ganadora si EEUU le tiene vetada la venta a China. jajaja

La hecatombe vendrá cuando los chinorris hagan procesadores superiores a los de Nvidia, que tarde o temprano lo harán
 
Tambien tengo claro que chatgpt que manejamos no es ni de coña el que open ia tiene, lo mismo sacan la version potente.
A ver si ahora Open AI saca una AI todavía más eficiente que DeepSeek, o sea, que consume menos recursos, y se puede correr en el Spectrum de Calópez. Entonces el Nasdaq cae hoy un 50%.
 
Volver