Acabo de probar la nueva versión de chatgpt porque vivo en estados unidos: se acabó la sociedad tal y como la conocemos

Salvo puntualmente los humanos no hacen uso de la pura lógica, en realidad usan la intuición que es una forma más rápida pero inexacta de tomar decisiones, particularmente en ausencia de información. Y funciona. Y vuelvo a lo de antes, al darle la estructura de nuestro lenguaje le estás dando gran parte de la realidad y de nuestra lógica.

Esto me parece interesante....pensando:

¿Crees que la IA puede desarrollar algo parecido a la intuición?

Eso sí, no creo que emplear el lenguaje sea poder percibir la realidad. Como bien decías, es como una sorda, ciega y muda en una caja.

Hay una diferencia entre un robot "programado" y uno que es capaz de aprender una tarea mirando cómo la haces tú o incluso por si mismo. Y eso es lo que viene. La idea de que agricultores, fontaneros y demás no van a sufrir las consecuencias es sólo ver la mitad del tema. La IA empieza por los trabajos de cuello blanco... pero apenas tardará unos años más en ir a por TODOS los de cuello azul.

¿Cuanto hace que está encima de la mesa la conducción autónoma?

Son problemas con muchísimas dimensiones. Una, el coste. Enseñar a una máquina a hacer algo con variables interminables tiene un coste acorazonante.

Luego, la legislación. Los estados siempre te van a parar los pies con cualquier cosa que entrañe un peligro. Y obviamente, cualquier sustitución por robots del tipo que estamos pensando, con una cierta autonomía, la tiene y mucha. Y no de que se rebelen (no tienen voluntad...), sino que se equivoquen y maten a alguien. No es lo mismo un robot que va por raíles en una línea de montaje y hace un trabajo de precisión, pero poca o nula variabilidad, que un trabajo en el que tenga que estar procesando continuamente cantidades acorazonantes de información

Y luego está la realidad de la decisión. Hay pocos trabajos en los que no haya que decidir nunca nada...la precisión, la técnica, puede tenerla. Pero la decisión, uf.

No sé, yo la IA la veo mucho más en el contexto de un PC o móvil. No le veo (con las prestaciones actuales o en un futuro corto...) mucho futuro, pensando en eso del T1000 que te hace el jardín.

Y es que, para llegar a eso, haría falta el autoaprendizaje. Y ahí creo que el peligro es exponencial; una IA que pueda autoentrenarse, más allá de su entrenamiento, va a tender a corromperse hasta puntos insospechados. En cascada....
 
¿Crees que la IA puede desarrollar algo parecido a la intuición?

Los LLM funcionan por "pura intuición" basada en su entrenamiento previo, su "inteligencia" es un fenómeno puramente estocástico. Lo que ocurre es que una gran proporción de nuestra inteligencia también es un fenómeno estocástico y gran parte de nuestras decisiones son tomadas mediante la intuición y sentido común.

¿Cuanto hace que está encima de la mesa la conducción autónoma?

No me cuentes, tengo un Model 3 de 2019 con el FSD pagado.

Y no de que se rebelen (no tienen voluntad...), sino que se equivoquen y maten a alguien. No es lo mismo un robot que va por raíles en una línea de montaje y hace un trabajo de precisión, pero poca o nula variabilidad, que un trabajo en el que tenga que estar procesando continuamente cantidades acorazonantes de información

Por eso no es lo mismo un taxi autónomo que un vehículo completamente autónomo. El taxi autónomo utiliza IA pero lo hace sobre rutas previamente mapeadas en detalle y además tiene siempre detrás operadores de la compañía en el momento que no sepa que hacer.

Obviamente no es lo mismo que meter a los niños en el Tesla y mandarlo a que los lleve al cole. Soy consciente de eso ¡pero la idea mola!

Supongo que faltan más factores. Comunicación entre los vehículos, mejoras en la señalización, en la cartografía, etc... y aun así siempre hay posibilidad de situaciones inesperadas donde haya que tomar decisiones.

Y es que, para llegar a eso, haría falta el autoaprendizaje. Y ahí creo que el peligro es exponencial; una IA que pueda autoentrenarse, más allá de su entrenamiento, va a tender a corromperse hasta puntos insospechados. En cascada....

Y tienes razón. Pero creo que será progresivo. Ya tenemos cosechadoras que van solas por GPS en los campos de cereales, tenemos taxis autónomos más o menos capaces, y en los aeropuertos tienes roombas gigantes pasando la mopa entre miles de pasajeros. Es cuestión de ver hasta dónde llegamos en cada campo.
 
Sí, claro. Pero es que el aumento exponencial de productividad y dónde más sufre el trabajo es el primer gran paso.

Cuando sustituyes a 1.000 carreteros, con una industria secundaria (postas, fondas, etc) y lo sustituyes por un tren. Que luego el tren funcione solo, ni es un gran aumento de productividad (comparativo...) ni afecta tanto a la industria.

O cuando 30 tíos cavando con azadas son sustituidos por un tractor. Que luego el tractor sea autónomo, nuevamente produce menos productividad marginal, y afecta menos al trabajo.

Vamos, que es que cada revolución tecnológica (que las ha habido, y muchas...) tiende a tener menos impacto que las anteriores, en cuanto a productividad marginal y en cuanto a número de personas afectadas.

Si todas las anteriores no hicieron que desapareciera el trabajo humano, sino que cambiase profundamente creándose nuevas áreas, y mejorando nuestro nivel de vida, no sé por qué UNA VEZ MÁS debemos volver al eterno canto cuasiludista de volver a tirar piedras al tren.



Creatividad...uf, es que es difícil hasta de definir.

Pero no voy tanto por creatividad, porque al final una IA sí que la veo capaz de inventar modelos, en base a modelos ya inventados. Porque la IA te puede 'conocer' los parámetros de, por ejemplo, todos los estilos pictóricos, o tener las reglas de la música (que al final son matemáticas...), y analizar millones de composiciones.

Sobre todo voy por el punto de raciocinio, de conciencia, de pensar que está tomando decisiones. Que es lo peligroso de la interfaz humana, que la gente le atribuya mucho más de lo que es. La IA simplemente...no entiende lo que está diciendo. No tiene un modelo del mundo, no tiene un modelo conceptual.

Si se alimenta sobre datos erróneos, empleará exactamente el mismo cálculo que hace para darte una respuesta coherente para terminar diciéndote que para curar el dolor de estómago tienes que comer cristales incandescentes.

Con lo cual es vital tanto los datos como principalmente el entrenamiento. Imagina que existiera la posibilidad de autoentrenamiento infinito y constante, que es una de las bases de la IG.

En mi cabeza, aunque eso se consiguiera (que no está nada cerca...), la corrupción a largo plazo es absolutamente imposible de evitar. Porque para 'decidirse' seguirá empleando un modelo estadístico con puntuaciones. No tiene un modelo empírico, porque no puede conocer la realidad, no puede razonar, no tiene lógica....



la ia con la robótica va eliminar a mucha gente que está en la base como los que hacian zanjas o carreteros

va a eliminar a todos los camareros,todos los currantes que distribuyen producto a bares restaurantes dependientas de comercio llena estanterías etc
 
Ay que me LOL. Una IA está a AÑOS LUZ de hacer dos comentarios en un foro como los que cito arriba. Que son la risión, sarcásticos, graciosos, y a la vez tristemente acertados.
 
Los LLM funcionan por "pura intuición" basada en su entrenamiento previo, su "inteligencia" es un fenómeno puramente estocástico. Lo que ocurre es que una gran proporción de nuestra inteligencia también es un fenómeno estocástico y gran parte de nuestras decisiones son tomadas mediante la intuición y sentido común.

Es lo que pensaba...que el crecimiento viene por una base estadística, aplicada a especie de azar.

El problema es que a la IA le cuesta tanto (entiéndase...) 'comprender' (repruebo esta palabra en este contexto, pero para que se entienda...) cosas muy sencillas, que tener un mapa del mundo que reúna conocimiento multifacético para saber combinarlo puede ser acorazonantemente raro.

Por poner unas cuantas patidifuseces random; un humano adulto ve un acantilado y no necesita nada (es instintivo..) para saber que no debe tirarse. Sabe que no debe atravesar una pared. Sabe que no solo no debe, sino no está bien, apiolar a un niño. Un empleado, sabe que no debe hacer cosas que se puedan cargar la empresa. Sabe que existe una cosa llamada educación, que implica un cierto trato. Sabe que su vida es válida entre una temperatura mínima y una máxima. Sabe que los fines de semana no se trabaja.

Multiplica estos conocimientos básicos de biología, física, relaciones humanas, sentimientos, organización del mundo, por millones. Cada uno de ellos debe ser tenido en cuenta por una máquina que tenga la suficiente autonomía como para 'tomar decisiones' y que no cause efectos indeseados. Que pueda ser un fallo menso (enviar un email cuando no debe) o algo mortal para un tercero, si tiene capacidad.

De momento estamos haciendo pruebecitas con el lenguaje, y es chulo. Pero ni tras años y años y toneladas de millones, no nos hemos atrevido a dejarle hacer algo tan específico como conducir.

Porque en esa 'randomización' del resultado final, hay fallos. Y si esos fallos pueden tener efectos graves que provocan perecidos, el ser humano se va a proteger

Y porque es más fácil que un conductor mediano no mate a alguien en toda su vida, a que una IA no lo haga. Básicamente, porque siempre tendrá que aplicar ese punto ciego estadístico donde la decisión que tome no sea la mejor, o incluso se encuentre con situaciones que no estén bien planteadas.

Supongo que faltan más factores. Comunicación entre los vehículos, mejoras en la señalización, en la cartografía, etc... y aun así siempre hay posibilidad de situaciones inesperadas donde haya que tomar decisiones

Es que siempre será el problema de la IA, enfrentarse a situaciones imprevistas. No querrás que una IA entrene una de ellas si estás en un boeing 747 :p

Para mi el problema es que lo que muchos plantean como futuro cercano necesita una IG, no una IA. Y la IG no está cercana en absoluto.

Ni puede darse bajo el misma paradigma, ni seguramente haya capacidad física para ello (no me quiero imaginar, con lo que absorben las IA actuales, una que sea 'general de todo'!), ni podemos solventar en absoluto el tema del autoentrenamiento y la corrupción.
 
la ia con la robótica va eliminar a mucha gente que está en la base como los que hacian zanjas o carreteros

va a eliminar a todos los camareros,todos los currantes que distribuyen producto a bares restaurantes dependientas de comercio llena estanterías etc

No, claro que no.

Los camareros en algunos sitios tipo McDonalds pueden ser sustituidos por máquinas expendedoras con menús. Pero no lo está sustituyendo: lo está complementando. Está haciendo una parte del trabajo que se puede automatizar.

E insisto, pensáis en la robótica como si fuera algo que empieza ahora. Lleva 40 años, gran parte de lo que utilizamos (el propio PC en el que escribes...) seguramente tiene una fabricación 100% robótica

La diferencia es que un robot que suelda componentes y ensambla, tienes unas funciones limitadas, es factible, y aunque caro, 'fácil' de producir y rentabilizar.

Un robot que vaya conectado a una máquina de esas que se necesitan para hacer carreteras, necesita un entrenamiento hipersepecializado que costaría muchísimos millones de euros.

Necesitaría una inversión brutal.

Y, sobre todo, sería absurdo, porque sustituye a un tío cuyo coste marginal sobre la productividad es ridículo. Ese tío que maneja una grúa gigante o una apisonadora gigante de esas que cuestan medio o un millón de euros, cuesta 3.000€ al mes.

Ahora dale a una máquina, que necesita para funcionar (como las IAs...) un margen de error grande, la responsabilidad para manejar una máquina de 40Tm, que en una mala decisión puede apiolar a 10 personas.

¿Quién corazones haría eso en su sano juicio?

Los almacenes automatizados existen hace décadas. Pero necesitan, para ser fiables y seguros, ir sobre raíles.

No puedes meter humanoides a hacer ese trabajo, mientras interactúan con personas reales. Por exactamente el mismo motivo.

Ni compensa la inversión, ni es demasiado productiva, ni sobre todo compensa el riesgo de accidente peligroso que sí o sí se va a producir, porque todo software falla. Pero es que una IA está programada asumiendo que va a fallar.
 
Los LLM funcionan por "pura intuición" basada en su entrenamiento previo, su "inteligencia" es un fenómeno puramente estocástico. Lo que ocurre es que una gran proporción de nuestra inteligencia también es un fenómeno estocástico y gran parte de nuestras decisiones son tomadas mediante la intuición y sentido común.

La intuición y el sentido común son procesos inconscientes que se basan en cálculos puramente estadísticos.

Precisamente por eso fallan, y no se puede confiar alegremente en ellos.

Si hay algo parecido a la IA de los LLMs es la intuición.
 
Volver