Acabo de probar la nueva versión de chatgpt porque vivo en estados unidos: se acabó la sociedad tal y como la conocemos

yo lo que más temo de este hibrido vampiro es la energia que consume...
Ahí estamos. Pero está todo pensao, de ahí lo de la agenda 20 30 ... se trata en definitiva de racionarnos la energía, las personas tendemos a valor produccion=0 que es lo unico que importa (ateos, estais seguros de lo que comprais?), en pos del bicharraco ese y de las big tech.

Por cierto. Cuando la cosa esté suficientemente desarrollada habrá un petardazo tecnologico. La tecnologia personal, los pc´s, moviles, portatiles ... dejaran de estar al alcance de la mayoria de la gente. Proxima parada las web services y poco a poco ... hasta que no quede nada
 
Y sin embargo el 90% de nuestro razonamiento diario es pura intuición. Conduces por intuición, estimas a ojo la distancia, velocidad, movimiento de otros vehículos y peatones. No haces cálculos matemáticos, si no que te basas en intuiciones derivadas de tu experiencia previa. Y así con todo. Como decía Punset:

La intuición es un tipo de conocimiento que se basa en la capacidad para percibir pistas, señales y patrones asociados con experiencias previas, y dista mucho de ser, como se había creído hasta ahora, un poder místico. Cita Punset a Albert Einstein cuando afirma que “la mente intuitiva es un regalo sagrado y la mente racional un fiel sirviente. Hemos creado una sociedad que honra al sirviente y ha olvidado el regalo”. La intuición nos sirve para tomar mejores decisiones que la razón.

Si no mejores yo diría que mucho más rápidas. Aunque algunas veces sean erróneas. Y otra cosa más, la creatividad tiene un enorme componente de intuición.

Los LLMs son básicamente intuitivos, lo que ocurre es que tienen apariencia de comportamiento racional por lo enorme de sus modelos de entrenamiento. Algunos ven en ellos cualidades racionales emergentes, otros simplemente sistemas de autocompletado muy grandes. Sinceramente no se cuál de las dos opciones es correcta. Ni tampoco si realmente seguir escalando los LLMs nos lleva a la AGI. Yo diría que no.

la intuición tiene un componente estadístico y de previa experiencia y, en ocasiones, tiene un componente misterioso, por eso se da el fenómeno de la precognición, que no se basa en absoluto en conocimientos previos.

O si se quiere, a una cosa se le puede llamar intuición y a la otra precognición, pero vamos, que vaya si no hay componentes místicos en el desarrollo del conocimiento humano.

Es algo similar al innatismo, pero trascendente.
 
Volver