pepeleches
Será en Octubre
- Desde
- 20 Abr 2007
- Mensajes
- 33.414
- Reputación
- 63.165
Yo diría que es un problema de escala, casi todos los avances se apoyan en los anteriores y es produce economías de escala.
Sí, claro. Pero es que el aumento exponencial de productividad y dónde más sufre el trabajo es el primer gran paso.
Cuando sustituyes a 1.000 carreteros, con una industria secundaria (postas, fondas, etc) y lo sustituyes por un tren. Que luego el tren funcione solo, ni es un gran aumento de productividad (comparativo...) ni afecta tanto a la industria.
O cuando 30 tíos cavando con azadas son sustituidos por un tractor. Que luego el tractor sea autónomo, nuevamente produce menos productividad marginal, y afecta menos al trabajo.
Vamos, que es que cada revolución tecnológica (que las ha habido, y muchas...) tiende a tener menos impacto que las anteriores, en cuanto a productividad marginal y en cuanto a número de personas afectadas.
Si todas las anteriores no hicieron que desapareciera el trabajo humano, sino que cambiase profundamente creándose nuevas áreas, y mejorando nuestro nivel de vida, no sé por qué UNA VEZ MÁS debemos volver al eterno canto cuasiludista de volver a tirar piedras al tren.
Eso depende de cómo definas "inteligencia". Yo hace unos años podía pensar como tú... pero en realidad el proceso "creativo" que sigue una IA generativa no es diferente al que sigue un artista o un intelectual. Las últimas IAs "creativas" nos están mostrando algo que intuíamos y no queríamos aceptar: que la creatividad es un truco estadístico. Que no hay magia ni alma en lo que hacemos. Simplemente iteramos hasta que encontramos algo que "resuena", que estimula nuestros mecanismos internos condicionados por nuestra experiencia previa.
LA IA hace eso mismo millones de veces más rápido.
Aquí el tema es si nos creemos a Kurzweil o no.
Ver archivo adjunto 2054424
De momento, año arriba o abajo, no va desencaminado.
Creatividad...uf, es que es difícil hasta de definir.
Pero no voy tanto por creatividad, porque al final una IA sí que la veo capaz de inventar modelos, en base a modelos ya inventados. Porque la IA te puede 'conocer' los parámetros de, por ejemplo, todos los estilos pictóricos, o tener las reglas de la música (que al final son matemáticas...), y analizar millones de composiciones.
Sobre todo voy por el punto de raciocinio, de conciencia, de pensar que está tomando decisiones. Que es lo peligroso de la interfaz humana, que la gente le atribuya mucho más de lo que es. La IA simplemente...no entiende lo que está diciendo. No tiene un modelo del mundo, no tiene un modelo conceptual.
Si se alimenta sobre datos erróneos, empleará exactamente el mismo cálculo que hace para darte una respuesta coherente para terminar diciéndote que para curar el dolor de estómago tienes que comer cristales incandescentes.
Con lo cual es vital tanto los datos como principalmente el entrenamiento. Imagina que existiera la posibilidad de autoentrenamiento infinito y constante, que es una de las bases de la IG.
En mi cabeza, aunque eso se consiguiera (que no está nada cerca...), la corrupción a largo plazo es absolutamente imposible de evitar. Porque para 'decidirse' seguirá empleando un modelo estadístico con puntuaciones. No tiene un modelo empírico, porque no puede conocer la realidad, no puede razonar, no tiene lógica....