Os cuento por qué usar la ia para programar es una castaña que solo ahorra trabajo en cuestiones triviales

Nunca me había preocupado por estos temas ya que mis necesidades de programación suelen ser bastante específicas, no valen soluciones estándar. Cosas de programar videojuegos totalmente rompedores.

Pero hoy quería hacer una cosa bastante sencilla (y engorrosa), quería identificar donde estaban las "islas" en una variable bidimensional de unos y ceros. Como era una idea muy abstracta y clara de entender, se lo pregunto a Gemini y lo clava a la primera, un código muy limpio y fácil de entender.

Pienso: ya está, genial, voy a ahorrar mucho tiempo en tonterías como ésta.

Comienzo con el siguiente paso, que es dibujar el contorno de esas "islas" tal y como está definido por la colisión física en el motor de desarrollo (Unity). Y aquí la IA empieza a patinar, sigo probando con Gemini y el resultado no es el esperado: realmente no entiende cuál es el propósito, el código emitido es imposible que sea capaz de dar la vuelta completa a la "isla", ni que compruebe realmente que ha dado la vuelta y ha llegado al inicio. No vale ni como esqueleto porque la lógica no es apta para el tipo de geometría, y obviamente la IA no lo va a entender aunque se lo explicara en chino mandarín.

Pruebo la misma petición en Copilot de M$ y sale un resultado mucho peor, las definiciones de las funciones y poco más.

En definitiva, esto no le quita el trabajo a nadie, es como decir que los monos le van a quitar el trabajo a los payasos del circo.
Pues así todo lo relacionado con las IAs.
Tienen, en general, el valor que las calculadoras tenian en los años 70, que no es poco, pero nada más. Sustituirán mucha mano de obra en trabajos rutinarios y pesados, pero el cerebro humano NO lo puede sustituir una máquina, ni hoy ni nunca, por la sencilla razón de que una creación jamás puede saber más que su creador..
 
Última edición:
No estoy vaticinando el futuro.
Estoy leyendo el pasado.

Las tecnologías SIEMPRE han evolucionado, desde el martillo hasta los carruajes.
No hay tecnología que no evolucione.
A veces lo hacen a peor.

Cuando yo era pequeño, había aviones de pasajeros capaces de volar a Mach 2, lanzaderas espaciales multiuso y aviones de carga capaces de llevar 230 toneladas.

Hoy no hay nada de eso. Pero tenemos TikTok.
 
El gigantesco ascazo que da saber que habrá 3 hilos como éste cada semana durante décadas, cada uno con >20 páginas, por la enorme humillación que sentís sabiendo que existen millones de picateclas ganando mucho desde casa trabajando poco.

Toda la vida entera dedicada a convenceros de lo intelectualmente insuperables que sois y estáis en paro en casamami o en trabajos de cosa mientras millones estudiando un poco viven mejor que vosotros en vuestros sueños.

A jorobaros. Lo mínimo en la vida es respetar la realidad, tener un poco de dignidad, y ni a eso llegáis, vivís chillando gaiamente muchas majaderías conscientemente refugiados cobardemente en la mayoría gaia. Merecéis toneladas de sufrimiento.

Un picateclas aterrado.
 
A mí me resuelve dudas de código de acciones básicas sin tener que ir al manual para intentar elucubrar cómo aplicarlo al caso concreto, da alternativas y cosas así, le tienes que ir puliendo a base de preguntas. Con eso te salen soluciones eficientes o elegantes y ya uno puede seguir ensamblando las piezas de algo más grande

Lo cierto es que para tener algo que uno entienda, lo necesita saber hacer. La IA asiste bien como un manual interactivo porque da explicaciones y ejemplos etc.
 
Hasta que nos la chaparon en el curro, yo usé bastante ChatGPT para que me montase la estructura de los tests unitarios

Fallaba bastante en el contenido de los tests, pero te dejaba muy bien la estructura y cobertura de toda la clase a testear. Luego sólo era cuestión de modificar algún que otro mock o assertion

Para casos de uso aislados funciona muy bien. Mejor ChatGPT que un junior retarded

por qué la chaparon? os dejan mirar Stackoverflow o ni eso?
 
A mí me resuelve dudas de código de acciones básicas sin tener que ir al manual para intentar elucubrar cómo aplicarlo al caso concreto, da alternativas y cosas así, le tienes que ir puliendo a base de preguntas. Con eso te salen soluciones eficientes o elegantes y ya uno puede seguir ensamblando las piezas de algo más grande

Lo cierto es que para tener algo que uno entienda, lo necesita saber hacer. La IA asiste bien como un manual interactivo porque da explicaciones y ejemplos etc.

O le metes un tocho enorme que ha escrito otro y que no tienes ni fruta idea de qué shishi hace, y te lo resume todo facil con un lenguaje para estultoes.
 
A mí me resuelve dudas de código de acciones básicas sin tener que ir al manual para intentar elucubrar cómo aplicarlo al caso concreto, da alternativas y cosas así, le tienes que ir puliendo a base de preguntas. Con eso te salen soluciones eficientes o elegantes y ya uno puede seguir ensamblando las piezas de algo más grande

Lo cierto es que para tener algo que uno entienda, lo necesita saber hacer. La IA asiste bien como un manual interactivo porque da explicaciones y ejemplos etc.
Para rutinas muy básicas sirve perfectamente, pero claro, es que esas rutinas se han ido minando de sitios donde múltiples soluciones a esos pequeños problemas han quedado almacenadas a lo largo de los años. Cuando le pides que haga algo un poco fuera de su limitado alcance ya no sabe si va o si viene
 
Y en dos años tendremos fusión fría, en tres hoteles en órbita y en cuatro bases lunares con pilinguiclús
Esto no es la fusión fría.

En solo unos meses ha pasado esto:

za68rklypyxa1.jpg


Hasta que no llegó la versión 4 no valía ni pa tomar por ojo ciego. Y hoy ni la cinco ni la seis ni la siete son necesarias.

Han aparecido algoritmos de reescalado generativo que YA han hecho este sistema de texto a imagen obsoleto, de hecho los nuevos worflows se usan hasta en los estudios más punteros de holywood a escondidas.
 
Para rutinas muy básicas sirve perfectamente, pero claro, es que esas rutinas se han ido minando de sitios donde múltiples soluciones a esos pequeños problemas han quedado almacenadas a lo largo de los años. Cuando le pides que haga algo un poco fuera de su limitado alcance ya no sabe si va o si viene
exacto, es mejor que perder tiempo en un buscador para encontrar un hilo de discusión sobre el problema concreto o similar. Por medio de estadística te genera una respuesta o un código plausible con lo que estabas buscando
 
Esto no es la fusión fría.

En solo unos meses ha pasado esto:

za68rklypyxa1.jpg


Hasta que no llegó la versión 4 no valía ni pa tomar por ojo ciego. Y hoy ni la cinco ni la seis ni la siete son necesarias.

Han aparecido algoritmos de reescalado generativo que YA han hecho este sistema de texto a imagen obsoleto, de hecho los nuevos worflows se usan hasta en los estudios más punteros de holywood a escondidas.

¿Qué puedes comentarnos más sobre eso?
 
¿Qué puedes comentarnos más sobre eso?
Cojes cualquier imagen de internet y en un momento te creas multiples versiones y permutaciones con las variantes que quieras mediante un prompt, después la reescalas y el algoritmo le añade detalle (inventándoselo todo) con una calidad que te caes de espaldas.

image_JjTApBU7_1710430866809_raw.jpg


CrSbwRDFHJy6wL_1.jpg
Full-Res-Man-Eye-Detail-Zoom.jpg
 
Esto no es la fusión fría.

En solo unos meses ha pasado esto:

za68rklypyxa1.jpg


Hasta que no llegó la versión 4 no valía ni pa tomar por ojo ciego. Y hoy ni la cinco ni la seis ni la siete son necesarias.

Han aparecido algoritmos de reescalado generativo que YA han hecho este sistema de texto a imagen obsoleto, de hecho los nuevos worflows se usan hasta en los estudios más punteros de holywood a escondidas.
Los generadores de imágenes son un mal ejemplo, eso tiene más que ver con hacer panes que con pensar soluciones a problemas complicados
 
por qué la chaparon? os dejan mirar Stackoverflow o ni eso?

La chaparon porque es un agujero de filtración de datos. Ninguna empresa seria debería usar ChatGPT directamente sin saber qué tipo de datos se están usando

En el caso de los tests yo lo que hacía era usar datos falsos y sólo usar trozos de código pequeños en test unitarios, totalmente aislados de la lógica de negocio. Nunca se me ocurriría usar ChatGPT en un entorno laboral con datos sensibles, lógicas de negocio o tests E2E

El problema es que no todo l mundo lo hace. Mira si no el caso de Samsung xD

Imagino que poco a poco las empresas irán construyendo capas de abstracción sobre los diversos modelos de LLM que nhay en mercado para poder usarlas tranquilamente, sin miedo a filtraciones (aunque ya sabemos que la seguridad 100% no existe)

Obviamente podemos mirar Stackoverflow y documentación de cualquier tipo, sólo faltaría xD
 
Volver