Antes que nada:
Impresionante, me has dado todas las respuestas que necesitaba, mil gracias y mis dieces.
¿Podría entonces la IA, estando influenciada por usuarios tomar decisiones autónomas al límite de su programación sin llegar a variarla?
Te ha respondido una IA, yo sólo he sabido cómo hacerle las preguntas para que diga lo que quiero.
La conducción autónoma es un ejemplo de eso que hablas.
Entonces esa "duda" en realidad no es más que una simulación, realmente la maquina no experimenta el hecho de poder cuestionar su propia programación. Interesante...
¿Y si por ejemplo un "hacker" (o como se le denomine correctamente) cambiase su programación de forma que actuase de forma totalmente contraria a como tenía establecido? ¿Sería posible eso? ¿Manipular a una IA?
Hay que entender que son modelos de lenguaje, es una herramienta que opera con palabras igual que una calculadora opera con números. En el caso de una IA de lenguaje, se alimenta con
millones de palabras y frases de libros, artículos, páginas web, etc. A partir de esto, la IA
aprende patrones y relaciones entre las palabras. Durante este entrenamiento, la IA no entiende el significado de las palabras como lo hace un humano, pero sí
aprende a predecir qué palabras tienen más probabilidades de aparecer juntas. Aunque la IA parece "entender" lo que le dices, en realidad no tiene una comprensión del mundo como los humanos. Simplemente manipula patrones de palabras en función de lo que aprendió durante su entrenamiento. No tiene una conciencia o comprensión profunda de lo que está diciendo; solo sabe que ciertas combinaciones de palabras suelen funcionar bien en ciertos contextos. Esto implica que su programación está fuertemente determinada por los datos de entrenamiento.
Modificar los datos de entrenamiento de una IA requeriría
reentrenar todo el modelo o, al menos, una parte significativa de él, lo que implica un
enorme poder computacional y
mucho tiempo. Este proceso es complejo, consume
recursos masivos (como grandes clústeres de GPUs o TPUs), y está controlado por las compañías que gestionan los modelos.
Un
hacker típico no tendría acceso a estos recursos, y aunque pudiera acceder al sistema,
volver a entrenar una IA de este tipo es algo que simplemente no está a su alcance. Las empresas que entrenan modelos avanzados suelen tener
infraestructuras seguras y
costes multimillonarios asociados a cada entrenamiento, lo que hace que este tipo de manipulación sea extremadamente difícil.
Estoy pensando en ella como arma de la disidencia cuando llegue la censura sanchista.
Esto me interesa.