Quiere ser informatico, ayuda. la ia le quitara el empleo

¿Cuando podremos saber que una máquina haya conseguido adquirir consciencia? Yo solo puedo demostrar mi propia conciencia, pero no la del resto de humanos. El resto podríais ser perfectamente simulaciones y yo no tener manera de saberlo.
Podríamos pero lo más probable es que seamos también conscientes como tú.
 
ChatGPT ya supera el test de Turing.

Tú argumento es que la IA no razona, pero no eres capaz de poner un solo ejemplo práctico donde se vea que no razona.

ChatGPT hace razonamientos profundos de cualquier tema y puede llegar muy lejos con ello.

ChatGPT es un cerebro sin humanidad, con limitaciones, muchas, pero la de no razonar no es una de ellas.

Repito, ponme un ejemplo de que no razona, ya he puesto yo varios donde SI razona.

En este chat, sobre un tema que controlo: ChatGPT

Y sin preparar. Le hago 'cambiar de opinión' 4 veces.

Porque no son sus argumentos. Simplemente, primero apoya los argumentos estadísticamente más favorables (dieta alta en carbohidratos). Luego reconoce que la dieta basada en carbohidratos puede crear enfermedades, pero que los estudios lo avalan.

Luego me reconoce que los estudios son una cosa. Al principio pelea porque Ancel Keys no era un fraude, pero luego reconoce que era un fraude.

Y por último, juntando toda la información, me reconoce que para mejorar la salud es recomendable una dieta baja en carbohidratos.

No, no está razonando una cosa. Me está organizando razonamientos de otros, ordenados por su importancia estadística. cuando se ve 'atrapado' en una parte del razonamiento, busca los razonamientos que parten de esa premisa que has invalidado. Es una jerarquía de razonamientos.

Hasta el punto de que primero defiende que las dietas deben ser altas en carbohidratos, luego pasa a 'es difícil sostener que los carbohidratos deban ser el principal macronutriente', a terminar diciendo que lo lógico es pensar en una dieta baja en carbohidratos para evitar problemas de salud.

Simplemente, como yo conozco las teorías que hay detrás de estos debates, y el porqué, le estoy haciendo ir de unos razonamientos a otros. Porque no 'son suyos', son las contestaciones más importantes estadísticamente. Cuando invalidas uno de esos argumentos (cosa que él no ha hecho, porque NO PUEDE RAZONAR...), va al siguiente más importante estadísticamente que no defienda eso.

Y ojo, es acojonante, a mi me alucina. Pero es la versión 'bonita' y muy humanizada de buscar el Google. Es capaz de organizar la información de una forma estupenda, pero no tiene un razonamiento propio. Simplemente, se va al razonamiento que tiene almacenado más estadísticamente posible. Eso sí, presentándolo en el formato que te de la gana.
 
Pero si los bootcamperos nadie los quiere
Conozco un ruso que está trabajando de programador gracias a un bootcamp de 6 meses...

Seguir a lo vuestro... Como os gusta meteros con lo que hacen los demás... Ni hacéis ni dejáis hacer...

Pero bueno, supongo que es divertido ver a los toros desde la grada
 
En este chat, sobre un tema que controlo: ChatGPT

Y sin preparar. Le hago 'cambiar de opinión' 4 veces.

Porque no son sus argumentos. Simplemente, primero apoya los argumentos estadísticamente más favorables (dieta alta en carbohidratos). Luego reconoce que la dieta basada en carbohidratos puede crear enfermedades, pero que los estudios lo avalan.

Luego me reconoce que los estudios son una cosa. Al principio pelea porque Ancel Keys no era un fraude, pero luego reconoce que era un fraude.

Y por último, juntando toda la información, me reconoce que para mejorar la salud es recomendable una dieta baja en carbohidratos.

No, no está razonando una cosa. Me está organizando razonamientos de otros, ordenados por su importancia estadística. cuando se ve 'atrapado' en una parte del razonamiento, busca los razonamientos que parten de esa premisa que has invalidado. Es una jerarquía de razonamientos.

Hasta el punto de que primero defiende que las dietas deben ser altas en carbohidratos, luego pasa a 'es difícil sostener que los carbohidratos deban ser el principal macronutriente', a terminar diciendo que lo lógico es pensar en una dieta baja en carbohidratos para evitar problemas de salud.

Simplemente, como yo conozco las teorías que hay detrás de estos debates, y el porqué, le estoy haciendo ir de unos razonamientos a otros. Porque no 'son suyos', son las contestaciones más importantes estadísticamente. Cuando invalidas uno de esos argumentos (cosa que él no ha hecho, porque NO PUEDE RAZONAR...), va al siguiente más importante estadísticamente que no defienda eso.

Y ojo, es acojonante, a mi me alucina. Pero es la versión 'bonita' y muy humanizada de buscar el Google. Es capaz de organizar la información de una forma estupenda, pero no tiene un razonamiento propio. Simplemente, se va al razonamiento que tiene almacenado más estadísticamente posible. Eso sí, presentándolo en el formato que te de la gana.
Efectivamente, es exactamente eso que comentas. Ahora están el la fase del razonamiento. Veremos hasta donde llegan, si llegan a algún sitio.

No obstante, lo que ya hace actualmente no deja de ser sorprendente, aunque a todo nos acostumbramos rápido.
 
En este chat, sobre un tema que controlo: ChatGPT

Y sin preparar. Le hago 'cambiar de opinión' 4 veces.

Porque no son sus argumentos. Simplemente, primero apoya los argumentos estadísticamente más favorables (dieta alta en carbohidratos). Luego reconoce que la dieta basada en carbohidratos puede crear enfermedades, pero que los estudios lo avalan.

Luego me reconoce que los estudios son una cosa. Al principio pelea porque Ancel Keys no era un fraude, pero luego reconoce que era un fraude.

Y por último, juntando toda la información, me reconoce que para mejorar la salud es recomendable una dieta baja en carbohidratos.

No, no está razonando una cosa. Me está organizando razonamientos de otros, ordenados por su importancia estadística. cuando se ve 'atrapado' en una parte del razonamiento, busca los razonamientos que parten de esa premisa que has invalidado. Es una jerarquía de razonamientos.

Hasta el punto de que primero defiende que las dietas deben ser altas en carbohidratos, luego pasa a 'es difícil sostener que los carbohidratos deban ser el principal macronutriente', a terminar diciendo que lo lógico es pensar en una dieta baja en carbohidratos para evitar problemas de salud.

Simplemente, como yo conozco las teorías que hay detrás de estos debates, y el porqué, le estoy haciendo ir de unos razonamientos a otros. Porque no 'son suyos', son las contestaciones más importantes estadísticamente. Cuando invalidas uno de esos argumentos (cosa que él no ha hecho, porque NO PUEDE RAZONAR...), va al siguiente más importante estadísticamente que no defienda eso.

Y ojo, es acojonante, a mi me alucina. Pero es la versión 'bonita' y muy humanizada de buscar el Google. Es capaz de organizar la información de una forma estupenda, pero no tiene un razonamiento propio. Simplemente, se va al razonamiento que tiene almacenado más estadísticamente posible. Eso sí, presentándolo en el formato que te de la gana.
O tambien se puede enfocar de esta forma

Es como si a ti te ponen en Tokio en un sitio y tu no sabes ni papa de japones, pero te entran hojas con 'simbolos', y cuando veas que las hojas hay los simbolos 哦 y 敝, tienes que dar la hoja con el simbolo , y asi con 10000 simbolos diferentes.

Pero ni sabes que es 哦, ni 敝, ni . Es mas, ni siquiera sabes el concepto de japones, de un japones, o de que eso son caracteres japoneses.

Es mas, a ti te han soltado ahí sin tener ni fruta idea de nada mas allá de esa lista de simbolo X -> dar simbolo Y, ademas resulta que te han clonado mágicamente, y hay 100 tios iguales a ti, recibiendo hojas y dando hojas

Si resulta que de esos 100 tios iguales, les llegan japoneses con simbolos o combinaciones de simbolos que no reconocen, mirarán quienes de esos 100 tios por azar consiguen dar una respuesta satisfactoria, a los otros se los cargaran sin piedad.
 
Efectivamente, es exactamente eso que comentas. Ahora están el la fase del razonamiento. Veremos hasta donde llegan, si llegan a algún sitio.

No obstante, lo que ya hace actualmente no deja de ser sorprendente, aunque a todo nos acostumbramos rápido.

ES ACOJONANTE! En el fondo, me sigue alucinando que estemos aquí

Pero eso no es obstáculo para saber lo que está haciendo. Que no es razonar, sino aplicar los razonamientos de otros.

Que ojo, saber coger cantidades inmensas de información, clasificarlas, organizarlas, y saber exponerlas en formato conversacional es una auténtica pasada. Pero es que...no es su razonamiento, es el razonamiento de otros, que sabe exponer de una forma asombrosa.

Por eso se 'cortocircuita' y es capaz de pasar de un razonamiento a otro. Porque...no son suyos.
 
La IA es puro humo si no se le preguntas a las cajeras de supermercado como pasan el código de barras por un escáner.
 
Esto es como el blockchain que iba a sustituir a los notarios y registradores de la propiedad en España no se hizo nada por razones obvias, pero en países como Suecia intentarlo darle un uso al blockchain como fedatario y después de años no consiguieron sacar nada ni para firmar un contrato de alquiler de garaje. Blockchain fue una estafa de querida progenitora y la IA es algo parecido.
 
En este chat, sobre un tema que controlo: ChatGPT

Y sin preparar. Le hago 'cambiar de opinión' 4 veces.

Porque no son sus argumentos. Simplemente, primero apoya los argumentos estadísticamente más favorables (dieta alta en carbohidratos). Luego reconoce que la dieta basada en carbohidratos puede crear enfermedades, pero que los estudios lo avalan.

Luego me reconoce que los estudios son una cosa. Al principio pelea porque Ancel Keys no era un fraude, pero luego reconoce que era un fraude.

Y por último, juntando toda la información, me reconoce que para mejorar la salud es recomendable una dieta baja en carbohidratos.

No, no está razonando una cosa. Me está organizando razonamientos de otros, ordenados por su importancia estadística. cuando se ve 'atrapado' en una parte del razonamiento, busca los razonamientos que parten de esa premisa que has invalidado. Es una jerarquía de razonamientos.

Hasta el punto de que primero defiende que las dietas deben ser altas en carbohidratos, luego pasa a 'es difícil sostener que los carbohidratos deban ser el principal macronutriente', a terminar diciendo que lo lógico es pensar en una dieta baja en carbohidratos para evitar problemas de salud.

Simplemente, como yo conozco las teorías que hay detrás de estos debates, y el porqué, le estoy haciendo ir de unos razonamientos a otros. Porque no 'son suyos', son las contestaciones más importantes estadísticamente. Cuando invalidas uno de esos argumentos (cosa que él no ha hecho, porque NO PUEDE RAZONAR...), va al siguiente más importante estadísticamente que no defienda eso.

Y ojo, es acojonante, a mi me alucina. Pero es la versión 'bonita' y muy humanizada de buscar el Google. Es capaz de organizar la información de una forma estupenda, pero no tiene un razonamiento propio. Simplemente, se va al razonamiento que tiene almacenado más estadísticamente posible. Eso sí, presentándolo en el formato que te de la gana.
Es Clippy el asistente de Word o el autocompletar del móvil pero con esteroides.
 
O tambien se puede enfocar de esta forma

Es como si a ti te ponen en Tokio en un sitio y tu no sabes ni papa de japones, pero te entran hojas con 'simbolos', y cuando veas que las hojas hay los simbolos 哦 y 敝, tienes que dar la hoja con el simbolo , y asi con 10000 simbolos diferentes.

Pero ni sabes que es 哦, ni 敝, ni . Es mas, ni siquiera sabes el concepto de japones, de un japones, o de que eso son caracteres japoneses.

Es mas, a ti te han soltado ahí sin tener ni fruta idea de nada mas allá de esa lista de simbolo X -> dar simbolo Y, ademas resulta que te han clonado mágicamente, y hay 100 tios iguales a ti, recibiendo hojas y dando hojas

Si resulta que de esos 100 tios iguales, les llegan japoneses con simbolos o combinaciones de simbolos que no reconocen, mirarán quienes de esos 100 tios por azar consiguen dar una respuesta satisfactoria, a los otros se los cargaran sin piedad.
Robert Searle, salga de ese cuerpo.
 
En este chat, sobre un tema que controlo: ChatGPT

Y sin preparar. Le hago 'cambiar de opinión' 4 veces.

Porque no son sus argumentos. Simplemente, primero apoya los argumentos estadísticamente más favorables (dieta alta en carbohidratos). Luego reconoce que la dieta basada en carbohidratos puede crear enfermedades, pero que los estudios lo avalan.

Luego me reconoce que los estudios son una cosa. Al principio pelea porque Ancel Keys no era un fraude, pero luego reconoce que era un fraude.

Y por último, juntando toda la información, me reconoce que para mejorar la salud es recomendable una dieta baja en carbohidratos.

No, no está razonando una cosa. Me está organizando razonamientos de otros, ordenados por su importancia estadística. cuando se ve 'atrapado' en una parte del razonamiento, busca los razonamientos que parten de esa premisa que has invalidado. Es una jerarquía de razonamientos.

Hasta el punto de que primero defiende que las dietas deben ser altas en carbohidratos, luego pasa a 'es difícil sostener que los carbohidratos deban ser el principal macronutriente', a terminar diciendo que lo lógico es pensar en una dieta baja en carbohidratos para evitar problemas de salud.

Simplemente, como yo conozco las teorías que hay detrás de estos debates, y el porqué, le estoy haciendo ir de unos razonamientos a otros. Porque no 'son suyos', son las contestaciones más importantes estadísticamente. Cuando invalidas uno de esos argumentos (cosa que él no ha hecho, porque NO PUEDE RAZONAR...), va al siguiente más importante estadísticamente que no defienda eso.

Y ojo, es acojonante, a mi me alucina. Pero es la versión 'bonita' y muy humanizada de buscar el Google. Es capaz de organizar la información de una forma estupenda, pero no tiene un razonamiento propio. Simplemente, se va al razonamiento que tiene almacenado más estadísticamente posible. Eso sí, presentándolo en el formato que te de la gana.

Desde cuándo razonar es llegar a la verdad?

Lo que podemos decir es que estás razonando con una IA que noe es experta en esos temas, pero si la entrenas para seguir a la rajatabla la teoria de tal o cual científico y nutricionista, defenderá esa posición y razonara lo mas que pueda.

En eso que ha puesto solo he visto a un humano vago que escribe sin comas frente a una máquina con un estilo literario elegante co mucho contenido.

La IA razona lo que puede razonar, lo que no tiene es intuición, ego, amor propio, pasión, tristeza, alegría.

Pero razonar, razona como un robot puede andar. No anda como la naturalidad de una persona, pero anda operativamente lo cual es más que suficiente para que decir que anda, es decir que razona.

Con la IA surgen nuevas etiquetas, eso es razonar? Hasta ahora solo razonaban los seres humanos.

Definición de razonar:

verbo intransitivo
Ordenar y relacionar ideas para llegar a una conclusión.

ChatGPT no solo ha hecho eso si no que lo ha hecho mejor que la mayoría de los seres humanos.

Pero aquí está la diferencia entre ChatGpT y un humano, su ego impide dar la razón a quien tiene razón. En este caso, yo mismo.

He dicho.
 
verbo intransitivo
Ordenar y relacionar ideas para llegar a una conclusión.

Ahí está el problema, que no llega a ninguna conclusión. Porque un humano, razonando 'de verdad' ordena y relaciona ideas, y puede ser hasta que su conclusión sea errónea. O incluso puede cambiar de opinión.

Pero la IA no está haciendo eso. Tiene información suficiente (porque la tiene!!) como para tener una opinión distinta. Pero no está haciendo eso; está exponiendo razonamientos de otros.

Y te pongo un ejemplo, del mismo texto. Aún hay mucha gente dentro del mundo de la nutrición que venera a Ancel Keys. Porque NO SABEN que está completamente demostrado que hizo trampas, hasta el punto de que se tienen todos los datos que recopiló para su estudio, y los manipuló publicando exclusivamente la minoría que daban la razón a su teoría. Vamos, que la inmensa mayoría la desmentían.

De hecho, increíblemente en muchas facultades se estudia lo que hizo este hombre, obviando el 'pequeño detalle' de que fue un perversos tramposo, que influyó muy negativamente en la salud de dos generaciones de humanos. Y lo callan, y como el ser humano es vago, una mayoría no se molesta en saber más.

Pero si sabes que esto sucedió, no puedes a la vez pensar que no fue un fraude (lo es al 200%, inmenso y peligroso, que ha tenido unas consecuencias terribles), y seguir teniendo como 'opinión' la teoría que surge de su estudio manipulado. Porque la diferencia es que un nutricionista vago no lo sabe, pero la IA sí. Si sabes que fue un fraude, no puedes exponer esa teoría como la más conveniente. Es una falta de incongruencia total.

Igual que si sabes (=tienes información, algo que tiene obviamente) que hay niveles muy distintos de experimentos científicos, unos infalibles, y otros que simplemente explican una posible correlación (sin validez real alguna), si encima 'sabes' que los experimentos en los que están basadas las teorías que me dices tiene cero fiabilidad, y esos experimentos de los últimos años que desmienten eso son ciencia infalible...no estás razonando.

Porque estás albergando doblepensares imposibles. No estás ordenando bien, ni de coña, las piezas del puzzle. Lo que estás haciendo es dar las opiniones de otros, en base a que estadísticamente son más numerosas. Lo estropeado del tema es que si esa gente que tiene esa opinión tuviera esa información que la IA tiene, cambiarían de opinión.

Además, como es un tema que conozco, te puedo decir hasta que sabía casi exactamente lo que va a decir. Conozco esas teorías, conozco hasta la importancia estadística que tienen, cuáles son las más extendidas y cuáles lo son menos.

Que insisto, me parece una puñetera maravilla. Pero no le atribuyamos cosas que no hace...
 
Volver