En este chat, sobre un tema que controlo:
ChatGPT
Y sin preparar. Le hago 'cambiar de opinión' 4 veces.
Porque no son sus argumentos. Simplemente, primero apoya los argumentos estadísticamente más favorables (dieta alta en carbohidratos). Luego reconoce que la dieta basada en carbohidratos puede crear enfermedades, pero que los estudios lo avalan.
Luego me reconoce que los estudios son una cosa. Al principio pelea porque Ancel Keys no era un fraude, pero luego reconoce que era un fraude.
Y por último, juntando toda la información, me reconoce que para mejorar la salud es recomendable una dieta baja en carbohidratos.
No, no está razonando una cosa. Me está organizando razonamientos de otros, ordenados por su importancia estadística. cuando se ve 'atrapado' en una parte del razonamiento, busca los razonamientos que parten de esa premisa que has invalidado. Es una jerarquía de razonamientos.
Hasta el punto de que primero defiende que las dietas deben ser altas en carbohidratos, luego pasa a 'es difícil sostener que los carbohidratos deban ser el principal macronutriente', a terminar diciendo que lo lógico es pensar en una dieta baja en carbohidratos para evitar problemas de salud.
Simplemente, como yo conozco las teorías que hay detrás de estos debates, y el porqué, le estoy haciendo ir de unos razonamientos a otros. Porque no 'son suyos', son las contestaciones más importantes estadísticamente. Cuando invalidas uno de esos argumentos (cosa que él no ha hecho, porque NO PUEDE RAZONAR...), va al siguiente más importante estadísticamente que no defienda eso.
Y ojo, es acojonante, a mi me alucina. Pero es la versión 'bonita' y muy humanizada de buscar el Google. Es capaz de organizar la información de una forma estupenda, pero no tiene un razonamiento propio. Simplemente, se va al razonamiento que tiene almacenado más estadísticamente posible. Eso sí, presentándolo en el formato que te de la gana.