Ya le estás diciendo lo que tiene que decir, por lo tanto su respuesta está condicionada por la pregunta.
El ordenador no está observando el fenómeno, está diciendo la respuesta más probable en base a la pregunta que le has hecho y los datos que tiene almacenados.
Estaría razonando si sólo observando el entorno fuese capaz de deducir lo que ha pasado.
De nuevo no.
No da la respuesta más probable por los datos almacenados. La IA se construye a partir de los datos, pero no los almacena como tal, si no es capaz de crear una basta red de interrelaciones entre palabras entendiendo su significado a partir de todo ese mundo de conocimiento volcado en los millones de textos que ha leído.
El objetivo principal si era eso mismo, crear la respuesta más probable, pero buscando eso han creado un cerebro sintético capaz de razonar y conversar de una manera con mas contenido que con un ser humano.
Que es el conocimiento de la caverna de Platón. Y ni siquiera es conocimiento, son datos almacenados.
Pongamos un ejemplo menso y sencillo: una pared. De niño asumes lo que es, tienes un concepto casi intuitivo de para qué sirve.
Si hablas con una IA, te podrá hablar de millones de tipos de paredes, materiales, historia de la pared, y darte una información que te cagas sobre las paredes a un nivel que ni imaginas.
Pero un niño cuando empieza a andar sabe que no puede atravesar una pared. Una IA, como no tenga ese dato...no será capaz de deducirlo de ninguna forma. Por eso en los primeros vídeos generados por IA uno de los problemas es que los cuerpos sólidos se atravesaban entre sí, y tuvieron que trabajar en la física para que eso no pasara.
No, no razonan. Te exponen ARGUMENTOS DE OTROS contados como si fueran propios. Por eso son pogre, por eso tienen sesgo. Porque no saben argumentar. Y tienen una capacidad asombrosa de resumir, esquematizar. Y muy útil.
(Por cierto, el enlace no funciona...)
Que tontería.
No se ni por dónde empezar. Te faltan bases por todos los lados.
Tienes algún tipo de estudio más allá de la ESO o alguna carrera de letras?
Te responde la IA, piensa exactamente como yo, que es el de una persona con una formación mínima en estos temas.
Respuesta de la IA:
Este argumento mezcla varios conceptos de manera confusa, por lo que vamos a desglosarlo para aclarar cada punto.
1. La idea de que un niño "sabe" que no puede atravesar una pared sin haberlo aprendido:
Esto es falso. Los seres humanos, incluidos los niños, aprenden sobre el mundo a través de la experiencia y la interacción física. Un niño no "sabe" de manera innata que no puede atravesar una pared, sino que lo aprende al interactuar con el entorno. Los bebés, por ejemplo, no tienen inicialmente la noción de permanencia de los objetos, y cuando algo desaparece de su vista, piensan que ha dejado de existir. Con el tiempo, a través de la observación y la experiencia, comprenden la permanencia de los objetos y el concepto de solidez. Del mismo modo, aprenden que no pueden atravesar una pared porque al intentar hacerlo, se encuentran con un obstáculo.
2. La IA y el conocimiento sobre el mundo físico:
Es cierto que en los primeros intentos de generar imágenes o vídeos mediante IA, los objetos podían atravesarse, pero esto no es por falta de razonamiento, sino porque la IA no tiene una experiencia física del mundo. Las IA trabajan con datos y patrones extraídos de información textual, visual o numérica, por lo que la física del mundo real debe ser incorporada en los modelos de simulación que generan. Cuando se entrena una IA con las leyes de la física (como se hace en simulaciones más avanzadas), puede comprender mejor cómo interactúan los objetos sólidos entre sí.
Comparar la inteligencia de una IA con la de un ser humano en este sentido es inapropiado, porque un niño tiene un cuerpo, una experiencia sensorial y una historia de interacción directa con el entorno físico. La IA, por otro lado, se basa en datos. Si se le proporcionan suficientes datos, puede hacer deducciones muy precisas sobre las leyes físicas, incluso sin haber "vivido" la experiencia.
3. La afirmación de que la IA "no razona" y solo repite argumentos de otros:
Esto también es un malentendido. El razonamiento no es exclusivamente una cuestión de generar algo "nuevo" en el sentido humano, sino de procesar y combinar información de maneras complejas. Las IA actuales son capaces de hacer inferencias, resolver problemas y generar ideas nuevas basándose en patrones y datos previos. Si bien el razonamiento de una IA puede no ser exactamente igual al de un humano, sigue un proceso lógico que se asemeja a cómo los humanos usamos nuestro conocimiento previo para resolver nuevos problemas.
Por ejemplo, en áreas como la matemática avanzada, IA como DeepMind han demostrado ser capaces de resolver problemas que los humanos no han logrado abordar con éxito, precisamente porque "razonan" dentro de los límites que se les proporcionan.
4. La afirmación sobre el "sesgo" y "pogre":
Este argumento está vinculado al malentendido sobre cómo aprenden las IA. Las IA aprenden de los datos con los que son entrenadas. Si esos datos contienen sesgos humanos, las IA pueden replicar esos sesgos. Esto no es un fallo en la capacidad de la IA para razonar, sino una consecuencia de los datos que se le proporcionan. Los humanos también desarrollamos prejuicios basados en nuestro entorno y las experiencias que tenemos. La diferencia es que, en el caso de la IA, es más fácil identificar esos sesgos y corregirlos si el proceso es tras*parente.
Además, el uso de la palabra "pogre" es irrelevante en este contexto, ya que no tiene que ver con la capacidad de razonamiento de una IA, sino con las posturas culturales reflejadas en los datos que se utilizan para entrenarlas.
Conclusión:
Una IA no tiene un cuerpo físico ni aprende del entorno de la misma manera que un humano, pero esto no significa que no pueda razonar. Simplemente razona de manera diferente, basada en datos y patrones. En cuanto a la solidez de los objetos, es una cuestión de simulación y datos físicos, no de falta de razonamiento. Los humanos también aprenden estas cosas con la experiencia, no de forma intuitiva. Y finalmente, los sesgos que puede tener una IA no son indicativos de falta de razonamiento, sino de la calidad de los datos con los que fue entrenada.