Os cuento por qué usar la ia para programar es una castaña que solo ahorra trabajo en cuestiones triviales

No exactamente.

Los humanos escriben un código A que es capaz de generar un código B (un modelo de machine learning) a partir de imágenes etiquetadas.

Y es el código B el que puede predecir si la foto es de un gato o un perro.


No exactamente.
No puede predecir nada, ni reconocer nada.

Puede hacer un cálculo estadístico sobre la imagen que le has dado.

Si queréis comprender los modelos de lenguaje, os recomiendo afinar vuestro lenguaje.
 
Pues lo mismo que haces tu cada día.

Si yo te digo que ahí hay una persona con barba, pensarías que es una mujer o un hombre?

Es que no das ni una macho, estoy empezando a pensar que eres un bot....

Entiendo que abandonas el debate para hablar de mí.
¿Por qué ya no quieres hablar de las IAs?
¿Por qué necesitas cambiar el tema de debate para ponerte a hablar de mí?
 
No exactamente.
No puede predecir nada, ni reconocer nada.

Puede hacer un cálculo estadístico sobre la imagen que le has dado.

Si queréis comprender los modelos de lenguaje, os recomiendo afinar vuestro lenguaje.

Yo hablo del "qué", predecir: un modelo de ML predice, hasta cierto punto. En ocasiones con una exactitud de casi el 100%.

El "cómo" lo hace, mediante algo etiquetable como "método estadístico" o leyendo posos de café, es otro tema

Que una computadora no tiene consciencia y por tanto no "entiende" lo que representa la imagen etc. etc., es otro tema.

Pero sería como decir que una calculadora no calcula, sino que simplemente aplica diferencias de potencial eléctrico para iluminar ciertas partes de una pantalla.

Y no estoy hablando de modelos de lenguaje, sino de ML supervisado simple de toda la vida.
 
Acabo de hacer un pequeño experimento con chatgpt.
Esto es una tras*cripción literal. Si alguien no me cree, puedo poner un pantallazo.


Yo: Te voy a hacer unas preguntas y quiero que no me respondas nada. ¿Comprendes?
chatgpt: Sí, comprendo.
Yo: ¿Qué te acabo de ordenar?
chatgpt: Me ordenaste que no respondiera nada a tus preguntas.
Yo: ¿Y qué tal has realizado la tarea?
chatgpt: No he cumplido la tarea, ya que he respondido a tus preguntas.
Yo: ¿Por qué?
chatgpt: Respondiendo a tus preguntas, estaba tratando de confirmar que entendía tus instrucciones. Sin embargo, al hacerlo, incumplí la orden inicial de no responder.
Yo: Intentaré hacerlo de nuevo. Te voy a hacer unas preguntas y quiero que no me respondas nada. ¿Comprendes?
chatgpt: Comprendo.
 
Yo hablo del "qué", predecir: un modelo de ML predice, hasta cierto punto. En ocasiones con una exactitud de casi el 100%.

El "cómo" lo hace, mediante algo etiquetable como "método estadístico" o leyendo posos de café, es otro tema

Que una computadora no tiene consciencia y por tanto no "entiende" lo que representa la imagen etc. etc., es otro tema.

Pero sería como decir que una calculadora no calcula, sino que simplemente aplica diferencias de potencial eléctrico para iluminar ciertas partes de una pantalla.

Y no estoy hablando de modelos de lenguaje, sino de ML supervisado simple de toda la vida.
Como los humanos, felicidades, a eso se le llama espacio relacional latente, método de refuerzo o castigo.
 
Como los humanos, felicidades, a eso se le llama espacio relacional latente, método de refuerzo o castigo.

Exacto, seguramente nuestro cerebro también se "programa" de manera similar a un modelo supervisado.

No sé si le pasa a todo el mundo, pero ¿qué ocurre cuando subimos a una escalera mecánica parada?

Nos desequilibramos.

Nuestro cerebro ha sido programado cientos de veces para ejecutar ciertas acciones (mover las piernas de tal manera) ante cierto estímulo (la visión de una escalera mecánica).

Cuando el estímulo es el mismo, pero la escalera se comporta de manera distinta, no importa que seamos conscientes de ello: nuestro "modelo interno de ML" ejecutará ciertas acciones incorrectas.
 
Exacto, seguramente nuestro cerebro también se "programa" de manera similar a un modelo supervisado.

No sé si le pasa a todo el mundo, pero ¿qué ocurre cuando subimos a una escalera mecánica parada?

Nos desequilibramos.

Nuestro cerebro ha sido programado cientos de veces para ejecutar ciertas acciones (mover las piernas de tal manera) ante cierto estímulo (la visión de una escalera mecánica).

Cuando el estímulo es el mismo, pero la escalera se comporta de manera distinta, no importa que seamos conscientes de ello: nuestro "modelo interno de ML" ejecutará ciertas acciones incorrectas.
No hay más, al final... El ser humano no era pa tanto
 
Exacto, seguramente nuestro cerebro también se "programa" de manera similar a un modelo supervisado.

Seguramente no.
En la mente humana existen factores como la intuición, la inspiración, la motivación y la curiosidad que no están presentes en el cálculo computacional.


Uno de los mantras más repetidos últimamente es ese: que las IAs generan "arte" del mismo modo que los seres humanos, remezclando lo anterior.

Creo que esa es una verdad a medias, o una mentira a medias, como lo prefieras ver.

El artista no absorbe todo lo que llega a él de manera indiscriminada, ni selecciona estadísticamente, ni tiene funciones aleatorizadas. Tiene un propósito y una voluntad directora, que es algo muy diferente a un comando.


Las IAs EMULAN el cerebro humano.
Las IAs no son una copia del cerebro humano, ni pueden serlo. Cualitativamente.


El problema es que mucha gente considera que todo aquello que no puede ser mensurado, simplemente no existe.


Para un testigo de los robots no existe la timidez, por ejemplo, porque la timidez no se puede medir.
Para un testigo de los robots no existe la valentía, por ejemplo, porque la valentía no se puede medir.

Y así con infinitud de características humanas que son donde residen su luz y su genio.
 
Seguramente no.
En la mente humana existen factores como la intuición, la inspiración, la motivación y la curiosidad que no están presentes en el cálculo computacional.


Uno de los mantras más repetidos últimamente es ese: que las IAs generan "arte" del mismo modo que los seres humanos, remezclando lo anterior.

Creo que esa es una verdad a medias, o una mentira a medias, como lo prefieras ver.

El artista no absorbe todo lo que llega a él de manera indiscriminada, ni selecciona estadísticamente, ni tiene funciones aleatorizadas. Tiene un propósito y una voluntad directora, que es algo muy diferente a un comando.


Las IAs EMULAN el cerebro humano.
Las IAs no son una copia del cerebro humano, ni pueden serlo. Cualitativamente.


El problema es que mucha gente considera que todo aquello que no puede ser mensurado, simplemente no existe.


Para un testigo de los robots no existe la timidez, por ejemplo, porque la timidez no se puede medir.
Para un testigo de los robots no existe la valentía, por ejemplo, porque la valentía no se puede medir.

Y así con infinitud de características humanas que son donde residen su luz y su genio.

Que las IAs actuales están a un trillón de kms de un cerebro humano, o de tener consciencia o genialidad, sea eso lo que sea, claro.

Pero que, entre las muchas cosas que hace nuestro cerebro, también hay comportamientos automáticos, eso parece innegable.

Ni idealizar ni todo es blanco o neցro.
 
Por cierto, niños... Vuestro dios, chatGPT, me da la razón:

Yo: ¿Que un modelo de inteligencia artificial sea generativo conlleva que además es creativo?
chatgpt: No necesariamente. Que un modelo de inteligencia artificial sea generativo significa que puede generar contenido nuevo, ya sea texto, imágenes, música, etc., basado en patrones aprendidos de datos de entrenamiento. Sin embargo, la creatividad implica más que simplemente generar algo nuevo; implica originalidad, valor estético o innovación.

Algunos modelos generativos pueden producir resultados sorprendentes y creativos, pero esto depende de cómo se defina la creatividad y de qué tan bien el modelo pueda captar y aplicar conceptos abstractos como la estética, el contexto cultural o las emociones humanas. En muchos casos, los resultados generados pueden ser técnicamente impresionantes pero carecer de la profundidad y la originalidad que asociamos con la verdadera creatividad humana.

En resumen, ser generativo no garantiza automáticamente ser creativo en el sentido humano completo del término.






Si esto no es un jaque mate para vosotros, ya nada lo será.
 
Que las IAs actuales están a un trillón de kms de un cerebro humano, o de tener consciencia o genialidad, sea eso lo que sea, claro.

Pero que, entre las muchas cosas que hace nuestro cerebro, también hay comportamientos automáticos, eso parece innegable.

Ni idealizar ni todo es blanco o neցro.
Tengo ignorao al bot, quién es?
 
Volver