Quiere ser informatico, ayuda. la ia le quitara el empleo

Ya le estás diciendo lo que tiene que decir, por lo tanto su respuesta está condicionada por la pregunta.
El ordenador no está observando el fenómeno, está diciendo la respuesta más probable en base a la pregunta que le has hecho y los datos que tiene almacenados.

Estaría razonando si sólo observando el entorno fuese capaz de deducir lo que ha pasado.

De nuevo no.

No da la respuesta más probable por los datos almacenados. La IA se construye a partir de los datos, pero no los almacena como tal, si no es capaz de crear una basta red de interrelaciones entre palabras entendiendo su significado a partir de todo ese mundo de conocimiento volcado en los millones de textos que ha leído.

El objetivo principal si era eso mismo, crear la respuesta más probable, pero buscando eso han creado un cerebro sintético capaz de razonar y conversar de una manera con mas contenido que con un ser humano.

Que es el conocimiento de la caverna de Platón. Y ni siquiera es conocimiento, son datos almacenados.

Pongamos un ejemplo menso y sencillo: una pared. De niño asumes lo que es, tienes un concepto casi intuitivo de para qué sirve.

Si hablas con una IA, te podrá hablar de millones de tipos de paredes, materiales, historia de la pared, y darte una información que te cagas sobre las paredes a un nivel que ni imaginas.

Pero un niño cuando empieza a andar sabe que no puede atravesar una pared. Una IA, como no tenga ese dato...no será capaz de deducirlo de ninguna forma. Por eso en los primeros vídeos generados por IA uno de los problemas es que los cuerpos sólidos se atravesaban entre sí, y tuvieron que trabajar en la física para que eso no pasara.

No, no razonan. Te exponen ARGUMENTOS DE OTROS contados como si fueran propios. Por eso son pogre, por eso tienen sesgo. Porque no saben argumentar. Y tienen una capacidad asombrosa de resumir, esquematizar. Y muy útil.

(Por cierto, el enlace no funciona...)

Que tontería.

No se ni por dónde empezar. Te faltan bases por todos los lados.

Tienes algún tipo de estudio más allá de la ESO o alguna carrera de letras?

Te responde la IA, piensa exactamente como yo, que es el de una persona con una formación mínima en estos temas.

Respuesta de la IA:

Este argumento mezcla varios conceptos de manera confusa, por lo que vamos a desglosarlo para aclarar cada punto.

1. La idea de que un niño "sabe" que no puede atravesar una pared sin haberlo aprendido:

Esto es falso. Los seres humanos, incluidos los niños, aprenden sobre el mundo a través de la experiencia y la interacción física. Un niño no "sabe" de manera innata que no puede atravesar una pared, sino que lo aprende al interactuar con el entorno. Los bebés, por ejemplo, no tienen inicialmente la noción de permanencia de los objetos, y cuando algo desaparece de su vista, piensan que ha dejado de existir. Con el tiempo, a través de la observación y la experiencia, comprenden la permanencia de los objetos y el concepto de solidez. Del mismo modo, aprenden que no pueden atravesar una pared porque al intentar hacerlo, se encuentran con un obstáculo.

2. La IA y el conocimiento sobre el mundo físico:

Es cierto que en los primeros intentos de generar imágenes o vídeos mediante IA, los objetos podían atravesarse, pero esto no es por falta de razonamiento, sino porque la IA no tiene una experiencia física del mundo. Las IA trabajan con datos y patrones extraídos de información textual, visual o numérica, por lo que la física del mundo real debe ser incorporada en los modelos de simulación que generan. Cuando se entrena una IA con las leyes de la física (como se hace en simulaciones más avanzadas), puede comprender mejor cómo interactúan los objetos sólidos entre sí.

Comparar la inteligencia de una IA con la de un ser humano en este sentido es inapropiado, porque un niño tiene un cuerpo, una experiencia sensorial y una historia de interacción directa con el entorno físico. La IA, por otro lado, se basa en datos. Si se le proporcionan suficientes datos, puede hacer deducciones muy precisas sobre las leyes físicas, incluso sin haber "vivido" la experiencia.

3. La afirmación de que la IA "no razona" y solo repite argumentos de otros:

Esto también es un malentendido. El razonamiento no es exclusivamente una cuestión de generar algo "nuevo" en el sentido humano, sino de procesar y combinar información de maneras complejas. Las IA actuales son capaces de hacer inferencias, resolver problemas y generar ideas nuevas basándose en patrones y datos previos. Si bien el razonamiento de una IA puede no ser exactamente igual al de un humano, sigue un proceso lógico que se asemeja a cómo los humanos usamos nuestro conocimiento previo para resolver nuevos problemas.

Por ejemplo, en áreas como la matemática avanzada, IA como DeepMind han demostrado ser capaces de resolver problemas que los humanos no han logrado abordar con éxito, precisamente porque "razonan" dentro de los límites que se les proporcionan.

4. La afirmación sobre el "sesgo" y "pogre":

Este argumento está vinculado al malentendido sobre cómo aprenden las IA. Las IA aprenden de los datos con los que son entrenadas. Si esos datos contienen sesgos humanos, las IA pueden replicar esos sesgos. Esto no es un fallo en la capacidad de la IA para razonar, sino una consecuencia de los datos que se le proporcionan. Los humanos también desarrollamos prejuicios basados en nuestro entorno y las experiencias que tenemos. La diferencia es que, en el caso de la IA, es más fácil identificar esos sesgos y corregirlos si el proceso es tras*parente.

Además, el uso de la palabra "pogre" es irrelevante en este contexto, ya que no tiene que ver con la capacidad de razonamiento de una IA, sino con las posturas culturales reflejadas en los datos que se utilizan para entrenarlas.

Conclusión:

Una IA no tiene un cuerpo físico ni aprende del entorno de la misma manera que un humano, pero esto no significa que no pueda razonar. Simplemente razona de manera diferente, basada en datos y patrones. En cuanto a la solidez de los objetos, es una cuestión de simulación y datos físicos, no de falta de razonamiento. Los humanos también aprenden estas cosas con la experiencia, no de forma intuitiva. Y finalmente, los sesgos que puede tener una IA no son indicativos de falta de razonamiento, sino de la calidad de los datos con los que fue entrenada.
 
Que tontería.

No se ni por dónde empezar. Te faltan bases por todos los lados.

Tienes algún tipo de estudio más allá de la ESO o alguna carrera de letras?

Te responde la IA, piensa exactamente como yo, que es el de una persona con una formación mínima en estos temas.

¿Te sirve de algo emplear un argumento ad hominem? ¿Crees que eso da más valor a tus palabras?

Por si te interesa (que sé que no...) hace mucho que no trabajo en programación, a lo que me dediqué un buen tiempo. Pero trabajo en una empresa de tecnología, donde hay incluso programadores dedicados a interactuar con la IA. Y no con ChatGPT, se están analizando todas las existentes.

Eso no quiere decir (en absoluto) que yo sea un experto, cuando hablo de esto aprendo.
Es cierto que en los primeros intentos de generar imágenes o vídeos mediante IA, los objetos podían atravesarse, pero esto no es por falta de razonamiento, sino porque la IA no tiene una experiencia física del mundo

Es exactamente lo que yo estoy diciendo. Te puede hablar de cualquier cosa, pero sin comprender de qué se está hablando, porque en muchísimas ocasiones el razonamiento no es suficiente. E insisto, no es razonamiento, sino recopilación 'artística' de la información que tiene según el entrenamiento aplicado

3. La afirmación de que la IA "no razona" y solo repite argumentos de otros:

Esto también es un malentendido. El razonamiento no es exclusivamente una cuestión de generar algo "nuevo" en el sentido humano, sino de procesar y combinar información de maneras complejas. Las IA actuales son capaces de hacer inferencias, resolver problemas y generar ideas nuevas basándose en patrones y datos previos. Si bien el razonamiento de una IA puede no ser exactamente igual al de un humano, sigue un proceso lógico que se asemeja a cómo los humanos usamos nuestro conocimiento previo para resolver nuevos problemas.

Por ejemplo, en áreas como la matemática avanzada, IA como DeepMind han demostrado ser capaces de resolver problemas que los humanos no han logrado abordar con éxito, precisamente porque "razonan" dentro de los límites que se les proporcionan.

Porque no tienen imaginación, intuición, instinto, pensamiento lateral. Tienen datos. Y saben utilizarlos muy bien. Pero...¿es razonar? Pues obviamente en cualquier tema científico la capacidad de análisis de estos datos multiplicará a la del ser humano. Pero en cualquier razonamiento conceptual en que sea necesario comprensión profunda de los conceptos, pues no.
4. La afirmación sobre el "sesgo" y "pogre":

Este argumento está vinculado al malentendido sobre cómo aprenden las IA. Las IA aprenden de los datos con los que son entrenadas. Si esos datos contienen sesgos humanos, las IA pueden replicar esos sesgos. Esto no es un fallo en la capacidad de la IA para razonar, sino una consecuencia de los datos que se le proporcionan. Los humanos también desarrollamos prejuicios basados en nuestro entorno y las experiencias que tenemos. La diferencia es que, en el caso de la IA, es más fácil identificar esos sesgos y corregirlos si el proceso es tras*parente.
También exactamente lo que he dicho en otros posts. Una IA necesita toneladas de información. Y para adquirir más capacidades, necesita que esa información sea tras*versal para poder relacionarla. Ni te cuento si hablamos del concepto de IG.

Tanto en ese proceso de recopilación como en el de entrenamiento, los posibles errores en esa información o en el propio entrenamiento pueden corromper ya hasta invalidar su funcionalidad. Porque una IA y (por eso NO razona...) no es capaz de determinar por si misma si la información que recibe es claramente falsa, solo puede saberlo en función de que estadísticamente sea incoherente con otras informaciones.

Conclusión:

Una IA no tiene un cuerpo físico ni aprende del entorno de la misma manera que un humano, pero esto no significa que no pueda razonar. Simplemente razona de manera diferente, basada en datos y patrones. En cuanto a la solidez de los objetos, es una cuestión de simulación y datos físicos, no de falta de razonamiento. Los humanos también aprenden estas cosas con la experiencia, no de forma intuitiva. Y finalmente, los sesgos que puede tener una IA no son indicativos de falta de razonamiento, sino de la calidad de los datos con los que fue entrenada.

Tú le puedes llamar razonar, yo no. Es un proceso tremendamente complejo y sorprendente, que seguro que hace un par de décadas ni imaginábamos.

Para automatismos o tareas científicas supondrá un avance enorme. Pero cuando hablamos de razonamiento conceptual, no deja de ser repetición/resumen/organización de razonamientos que están en sus datos. Y por mucho que aparente comprensión del tema...no lo tiene. Lo aparenta. Y por eso cuando se 'estira', pueden aparecer incongruencias terribles, o agujeros por falta de dato que invalidan lo dicho.
 
No me he leído las 11 páginas pero:
- Código gratis a un click de distancia listo para copiar y pegar lo hay desde hace bastantes años.
- Herramientas no code, las que quieras.
- Los indios ya programaban 10 veces más rápido que un humano. Los listos por listos y los cutres por cutres, pero 10 veces más rápido y barato.

Sí creo que va a haber disrupción pero tampoco tanto. Al final, tener calculadora no te hace contable.

No sabría qué decirle a un chaval que tenga que decidir su camino más allá de "aprende a vender, ya sea cosas, servicios, a tí mismo -sin poner el ojo ciego- pero vende como un cabrón".
Justo lo único que no se aprende. O sirves para vender o no, y es de nativitate.
 
No tiene sentido, y me pongo filosófico mirando a un futuro a medio plazo, ¿40 años? Y teniendo en cuenta que esto avanza exponencialmente, suponiendo que la curva no se aplane a una asíntota, será alucinante ese futuro.
Todo el mundo sin trabajo muriéndose de hambre porque los robocs hacen todo.
Y unas cuantas empresas con IA y robocs ya a bajo coste de la cual no pueden sacar beneficios porque nadie trabaja y nadie tiene con qué pagarlos.
Es una paradoja.
Si al final las máquinas cotizan y nos hacen todo para que podamos rascarnos las pelotas con las patas parriba y por fin dedicarnos al arte y las musas, se verá cumplida la profecía de Marx.
Un gran almacén central que provee de cosas a la gente, pero con regulaciones, eso de que no haya estado...
¿Era la tecnología la pieza clave del puzzle que le hacía falta al comunismo para funcionar?
No se trataba de que lo hiciera otro, sino de que lo hiciera una máquina.
La otra opción es... pues no sé cuál es, ¿para qué tanta inversión en tecnología sin una finalidad, sin nadie a quien vendérsela?
¿Qué traman?
En una de las profecias de una profeta hungara, que predijo la segunda guerra mundial y el ascenso de China como superpotencial (baba vanga) era que el comunismo se impondría en un futuro, sobre el 2076
 
En una de las profecias de una profeta hungara, que predijo la segunda guerra mundial y el ascenso de China como superpotencial (baba vanga) era que el comunismo se impondría en un futuro, sobre el 2076
Búlgara. Mismos colores de bandera, distinto orden.
 
¿Te sirve de algo emplear un argumento ad hominem? ¿Crees que eso da más valor a tus palabras?

Por si te interesa (que sé que no...) hace mucho que no trabajo en programación, a lo que me dediqué un buen tiempo. Pero trabajo en una empresa de tecnología, donde hay incluso programadores dedicados a interactuar con la IA. Y no con ChatGPT, se están analizando todas las existentes.

Eso no quiere decir (en absoluto) que yo sea un experto, cuando hablo de esto aprendo.


Es exactamente lo que yo estoy diciendo. Te puede hablar de cualquier cosa, pero sin comprender de qué se está hablando, porque en muchísimas ocasiones el razonamiento no es suficiente. E insisto, no es razonamiento, sino recopilación 'artística' de la información que tiene según el entrenamiento aplicado



Porque no tienen imaginación, intuición, instinto, pensamiento lateral. Tienen datos. Y saben utilizarlos muy bien. Pero...¿es razonar? Pues obviamente en cualquier tema científico la capacidad de análisis de estos datos multiplicará a la del ser humano. Pero en cualquier razonamiento conceptual en que sea necesario comprensión profunda de los conceptos, pues no.

También exactamente lo que he dicho en otros posts. Una IA necesita toneladas de información. Y para adquirir más capacidades, necesita que esa información sea tras*versal para poder relacionarla. Ni te cuento si hablamos del concepto de IG.

Tanto en ese proceso de recopilación como en el de entrenamiento, los posibles errores en esa información o en el propio entrenamiento pueden corromper ya hasta invalidar su funcionalidad. Porque una IA y (por eso NO razona...) no es capaz de determinar por si misma si la información que recibe es claramente falsa, solo puede saberlo en función de que estadísticamente sea incoherente con otras informaciones.



Tú le puedes llamar razonar, yo no. Es un proceso tremendamente complejo y sorprendente, que seguro que hace un par de décadas ni imaginábamos.

Para automatismos o tareas científicas supondrá un avance enorme. Pero cuando hablamos de razonamiento conceptual, no deja de ser repetición/resumen/organización de razonamientos que están en sus datos. Y por mucho que aparente comprensión del tema...no lo tiene. Lo aparenta. Y por eso cuando se 'estira', pueden aparecer incongruencias terribles, o agujeros por falta de dato que invalidan lo dicho.

ChatGPT ya supera el test de Turing.

Tú argumento es que la IA no razona, pero no eres capaz de poner un solo ejemplo práctico donde se vea que no razona.

ChatGPT hace razonamientos profundos de cualquier tema y puede llegar muy lejos con ello.

ChatGPT es un cerebro sin humanidad, con limitaciones, muchas, pero la de no razonar no es una de ellas.

Repito, ponme un ejemplo de que no razona, ya he puesto yo varios donde SI razona.
 
ChatGPT ya supera el test de Turing.

Tú argumento es que la IA no razona, pero no eres capaz de poner un solo ejemplo práctico donde se vea que no razona.

ChatGPT hace razonamientos profundos de cualquier tema y puede llegar muy lejos con ello.

ChatGPT es un cerebro sin humanidad, con limitaciones, muchas, pero la de no razonar no es una de ellas.

Repito, ponme un ejemplo de que no razona, ya he puesto yo varios donde SI razona.

Esto que es, una pipa o una ilustración de una pipa?

DAiXX0.XsM6kcnj2LsWZ1uNV8H4ltNiW2F73fwZ0Gf9maCgwQ8.png
 
Que hay de mal ahí? A ver si el que te lías eres tu.

De hecho, la IA está demostrando ser más lista que tú, ya que hay que ser orate para pensar que lo que se quiere decir es que haya una manzana como tal como ingrediente, en el mundo real cuando se dice que hay manzana en un refresco suele ser por extracto o esencia. La IA infiere algo que no le has dicho y tú quieres que entienda algo absurdo.

Te pongo otro ejemplo más claro. Le he preguntado cuál el margen bruto de un alquiler en España. Atento al cálculo porque dice que el margen es entorno al 65%-80%. Si tuviese un modelo del mundo se daría cuenta que lo que dice no tiene sentido. Cierto es que el margen es ingresos menos gastos entre ingresos. Pero en alquileres el margen bruto se calcula como ingresos por el alquiler entre coste del inmueble. No se porque pero las formulas no se pegan:

El margen bruto promedio de un alquiler en España suele estar entre 65% y 80%, dependiendo de varios factores, como la ubicación, el tipo de propiedad, los costos de mantenimiento y los impuestos locales. Este margen varía en función de los ingresos de alquiler y los gastos asociados.





Factores que afectan el margen bruto de alquiler en España:





1. Ingresos por alquiler: El alquiler mensual que se recibe por la propiedad.


2. Costos asociados:


• Impuestos: Impuesto sobre Bienes Inmuebles (IBI), tasas de basuras y otros tributos locales.


• Gastos de comunidad: Estos varían según el tipo de edificio.


• Mantenimiento y reparaciones: Cubre mejoras y reparaciones necesarias.


• Seguros: Seguro de hogar o seguro de impago de alquiler.


• Hipoteca (si aplica): En caso de que la propiedad esté financiada.


• Períodos de vacante: Cuando la vivienda está sin inquilino, los ingresos se ven reducidos.





Ejemplo:





Si el alquiler mensual de una propiedad es de 1.200 € (14.400 € al año) y los costos asociados (IBI, comunidad, mantenimiento, etc.) son 4.000 € anuales, el margen bruto sería:











Variación por ubicación:





• En grandes ciudades como Madrid o Barcelona, los precios de alquiler son más altos, pero también pueden tener costos más elevados (mantenimiento, comunidad, impuestos), lo que podría ajustar el margen.


• En ciudades más pequeñas o zonas rurales, los costos son menores, pero los ingresos por alquiler también tienden a ser más bajos, lo que podría mantener el margen bruto similar.





En resumen, el margen bruto en alquileres en España está entre 65% y 80%, siendo más alto en áreas con alquileres más altos y costos operativos relativamente bajos.
 
Te pongo otro ejemplo más claro. Le he preguntado cuál el margen bruto de un alquiler en España. Atento al cálculo porque dice que el margen es entorno al 65%-80%. Si tuviese un modelo del mundo se daría cuenta que lo que dice no tiene sentido. Cierto es que el margen es ingresos menos gastos entre ingresos. Pero en alquileres el margen bruto se calcula como ingresos por el alquiler entre coste del inmueble. No se porque pero las formulas no se pegan:

El margen bruto promedio de un alquiler en España suele estar entre 65% y 80%, dependiendo de varios factores, como la ubicación, el tipo de propiedad, los costos de mantenimiento y los impuestos locales. Este margen varía en función de los ingresos de alquiler y los gastos asociados.





Factores que afectan el margen bruto de alquiler en España:





1. Ingresos por alquiler: El alquiler mensual que se recibe por la propiedad.


2. Costos asociados:


• Impuestos: Impuesto sobre Bienes Inmuebles (IBI), tasas de basuras y otros tributos locales.


• Gastos de comunidad: Estos varían según el tipo de edificio.


• Mantenimiento y reparaciones: Cubre mejoras y reparaciones necesarias.


• Seguros: Seguro de hogar o seguro de impago de alquiler.


• Hipoteca (si aplica): En caso de que la propiedad esté financiada.


• Períodos de vacante: Cuando la vivienda está sin inquilino, los ingresos se ven reducidos.





Ejemplo:





Si el alquiler mensual de una propiedad es de 1.200 € (14.400 € al año) y los costos asociados (IBI, comunidad, mantenimiento, etc.) son 4.000 € anuales, el margen bruto sería:











Variación por ubicación:





• En grandes ciudades como Madrid o Barcelona, los precios de alquiler son más altos, pero también pueden tener costos más elevados (mantenimiento, comunidad, impuestos), lo que podría ajustar el margen.


• En ciudades más pequeñas o zonas rurales, los costos son menores, pero los ingresos por alquiler también tienden a ser más bajos, lo que podría mantener el margen bruto similar.





En resumen, el margen bruto en alquileres en España está entre 65% y 80%, siendo más alto en áreas con alquileres más altos y costos operativos relativamente bajos.


Esto me recuerda a cuando le pregunto a mi padre que tal chatgpt y me dice, jorobar, le pregunto cuál es el numero ganador de la loteria y no me lo da, no es tan lista.

Amigo, estás hablando justamente de datos y estás utilizando a la IA como un programador concreto de ordenador.

Prueba a preguntar qué cual es ese margen a personas por la calle, la mayoría no sabran ni lo que es, por ello no son humanos y no razonan?


Para probar la inteligencia de la IA debes conversar y razonar con ella, no probar una cosa muy concreta. Si quieres que la IA te dé ese dato de manera concreta nada más fácil que entrenarla un poco con los conocimientos que quieres que manejes, justo como harías con una persona real.


Tus argumentos me dan aún más argumentos a los míos.
 
Ah si? Y si el mundo realmente no es real, no es para nosotros real?

Os falta mucha base para hablar de estos temas.

puede chatGPT razonar?

"Sí, puedo razonar de manera limitada dentro del contexto de la conversación y los temas que manejo. Esto significa que puedo procesar información, hacer inferencias lógicas, identificar patrones y ofrecer soluciones o respuestas basadas en los datos proporcionados. Sin embargo, mi razonamiento es diferente al humano, ya que se basa en patrones aprendidos y en el conocimiento almacenado en mis datos de entrenamiento, sin capacidad para experimentar o entender emociones como lo haría una persona."

Parece que chatGPT tiene mejor base que tu también.
 
No me he leído las 11 páginas pero:
- Código gratis a un click de distancia listo para copiar y pegar lo hay desde hace bastantes años.
- Herramientas no code, las que quieras.
- Los indios ya programaban 10 veces más rápido que un humano. Los listos por listos y los cutres por cutres, pero 10 veces más rápido y barato.

Sí creo que va a haber disrupción pero tampoco tanto. Al final, tener calculadora no te hace contable.

No sabría qué decirle a un chaval que tenga que decidir su camino más allá de "aprende a vender, ya sea cosas, servicios, a tí mismo -sin poner el ojo ciego- pero vende como un cabrón".

Creo que es uno de los mejores mensajes del foro.
 
Volver