Pc para generación de contenido ia local

davitin

Será en Octubre
Desde
20 Jul 2009
Mensajes
53.140
Reputación
104.557
Buenas.

Quiero montarme un pc para generación de contenido por IA local sin restricciones (imagen, animación y texto), lo voy a hacer lo más económico posible así que como gpu había pensado en la rtx 3060 de 12gb, que he leído que es lo mínimo para generar contenido con soltura y de segunda mano están a buen precio, creo que con 32gb de RAM ddr4 iría bien, lo que no se es que procesador utilizar para no hacer cuello de botella con la 3060, estaba pensando en uno de esos procesadores mutantes qqtl, qqts, etc que son equivalentes a un i7/i9 de novena generación (o eso dicen) o a algún xeon potente de esos de AliExpress....lo voy a comprar todo de segunda mano así que tampoco descarto un i7 o i9 si los otros que he dicho no dan la talla.

Pues eso, que procesador o que configuración mínima sería buena para IA en local?

Que opináis?
 
Última edición:
Buenas.

Quiero montarme un pc para generación de contenido por IA local sin restricciones (imagen, animación y texto), lo voy a hacer lo más económico posible así que como gpu había pensado en la rtx 3060 de 12gb, que he leído que es lo mínimo para generar contenido con soltura y de segunda mano están a buen precio, creo que con 32gb de RAM ddr4 iría bien, lo que no se es que procesador utilizar para no hacer cuello de botella con la 3060, estaba pensando en uno de esos procesadores mutantes qqtl, qqts, etc que son equivalentes a un i7/i9 de novena generación (o eso dicen) o a algún xeon potente de esos de AliExpress....lo voy a comprar todo de segunda mano así que tampoco descarto un i7 o i9 si los otros que he dicho no dan la talla.

Pues eso, que procesador o que configuración mínima sería buena para IA en local?

Que opináis?
Yo no me la jugaría a flashear una bios con vete a saber que cosa china. Ademas van con placas antiguas, no estoy muy al día con los Socket pero el 1151 no me suena que sea el ultimo grito.

Enviado desde mi SM-F741B mediante Tapatalk
 
Yo te recomiendo no gastar un céntimo hasta que no compruebes que el proyecto es rentable.

Si lo que buscas es ganar pasta con las IAs, como intenta casi todo el mundo.

Una vez que tu modelo de negocio funcione, entonces ya das el salto entre dejar la pasta a terceros usando sus modelos... a usar modelos gratuitos en tus RTXs, que probablemente te harán falta varias y de la serie 40+ si empiezas a exigir. No es lo mismo poner a trabajar un modelo de lenguaje con un PDF de 3 folios que de 3000.

Yo me he gastado bastante pasta en proyectos muchas veces. Como la experiencia es un grado y más sabe el diablo por viejo que por diablo... intenta ir al mínimo coste, tirando de modelos ajenos... y si ves que haces negocio, entonces inviertes.

Para el supuesto de que eso lo hagas solo como hobby, yo tampoco invertiría un colín. Me pagaría una suscripción de lo que me interesara y ya.
 
Yo te recomiendo no gastar un céntimo hasta que no compruebes que el proyecto es rentable.

Si lo que buscas es ganar pasta con las IAs, como intenta casi todo el mundo.

Una vez que tu modelo de negocio funcione, entonces ya das el salto entre dejar la pasta a terceros usando sus modelos... a usar modelos gratuitos en tus RTXs, que probablemente te harán falta varias y de la serie 40+ si empiezas a exigir. No es lo mismo poner a trabajar un modelo de lenguaje con un PDF de 3 folios que de 3000.

Yo me he gastado bastante pasta en proyectos muchas veces. Como la experiencia es un grado y más sabe el diablo por viejo que por diablo... intenta ir al mínimo coste, tirando de modelos ajenos... y si ves que haces negocio, entonces inviertes.

Para el supuesto de que eso lo hagas solo como hobby, yo tampoco invertiría un colín. Me pagaría una suscripción de lo que me interesara y ya.
Yo creo por lo que le conozco del foro que va más por el tema libertad creativa y sin censura.
A mí me pasa lo mismo quiero algo para trabajar en local pero no para ganar dinero si no para que nadie acote mi creatividad.
¿conocéis algo sin nada de censura en generación i.a?
 
Yo no me la jugaría a flashear una bios con vete a saber que cosa china. Ademas van con placas antiguas, no estoy muy al día con los Socket pero el 1151 no me suena que sea el ultimo grito.

Enviado desde mi SM-F741B mediante Tapatalk
Y que opinas de un combo placa+xeon barato de esos de AliExpress? Se combinaría bien con una rtx 3060?
 
Yo creo por lo que le conozco del foro que va más por el tema libertad creativa y sin censura.
A mí me pasa lo mismo quiero algo para trabajar en local pero no para ganar dinero si no para que nadie acote mi creatividad.
¿conocéis algo sin nada de censura en generación i.a?
Si no quieres censura tienes que instalar la IA en local si o si, ese es el tema.
 
Para empezar, échale un ojo a esta web y luego ya decides si te interesa o no ir por un lado o por otro:

 
Y que opinas de un combo placa+xeon barato de esos de AliExpress? Se combinaría bien con una rtx 3060?
Eso es como la loteria, comprar material usado te puede salir bien o mal, muy mal. Sobre la Rtx 3060 no entiendo de graficas, para video que es lo que uso cualquiera vale. Hace años compré en AliExpress un XEON para sustituir el de un Servidor que se quedaba corto, hace casi 10 años y aun funciona, en aquella época ese XEON se iba a mas de 1000 euros y lo compré por 150, salió rentable pero una placa es mas facil que esté cascada, cómprala solo SI ES MUY BARATA.

Enviado desde mi SM-F741B mediante Tapatalk
 
Pues es una de las que recomiendan para generación de contenido y de segunda mano es la que tiene mejor relación calidad precio....cual me recomiendas para generación de imágenes/videos?
Generación de imagenes hazte a la idea que te va a llevar del.orden de 20 segundos por.imagen fácil. Para generar un video te haces viejo. Valida primero con una opción en la nube y luego haces cuentas. Porque un modelo LLM que no llega al nivel de gpt4o como llama3 70b se llena 40 gigas.de VRAM. Así que la gente que lo usa se pilla 2 4090 con 24 gigas para.ejecurarlo entero en GPU. Caras de comprar, caras de mantener tirando 400w cada una.

Enviado desde mi M2101K9AG mediante Tapatalk
 
Generación de imagenes hazte a la idea que te va a llevar del.orden de 20 segundos por.imagen fácil. Para generar un video te haces viejo. Valida primero con una opción en la nube y luego haces cuentas. Porque un modelo LLM que no llega al nivel de gpt4o como llama3 70b se llena 40 gigas.de VRAM. Así que la gente que lo usa se pilla 2 4090 con 24 gigas para.ejecurarlo entero en GPU. Caras de comprar, caras de mantener tirando 400w cada una.

Enviado desde mi M2101K9AG mediante Tapatalk
Mayormente lo quiero para imágenes, la IA de texto para que le de estilo a textos para adultos que chatgpt no quiere manejar...cuando dices que use la nube te refieres a que contraté un servidor de Google colab o algo así y ejecute ahí los modelos que no tienen restricciones?
 
La mas cara que pueda spermitirte. Conoces la arquitecrtura Ada Lovelace?
Uff, me estaba informando....todo eso es caro de huevones y veo que la peña que va en serio con esto se monta racks de varias tarjetas dejándose 10k de pavos o más....

A ver, lo que quiero es hacer correr el stable difusión XL modificado (imágenes sin censura y luego escalar las a 1080p). y un modelo Llama pequeño (lo único que tiene que hacer es revisar textos previamente hechos con chatgpt 4o y modificarlos para hacerlos más explícitos), yo espero que me sirva el de 1,3 o 7b, o quizá algún modelo pequeño más especializado para escribir relatos, que seguro que lo hay para descargar.

Mi idea para correr esto fluido sin arruinarme es un i5 de 10 o 12gen, 32 o 64gb de RAM y una 3060 12gb.
 
Volver