Sam Altman de Chatgpt "hay crear protocolos para descubrir cuándo un modelo es capaz de replicarse a sí mismo".

chusto

Madmaxista
Desde
10 Jul 2013
Mensajes
17.832
Reputación
33.248
Lugar
Villarejo del Chusto
Hoy he visto la noticias y entre medio de las chorradas de siempre, okupas, Bildus y demas, han comentado los massmierda que un CEO de CHATGPT ha declarado en el congreso de los Estados Unidos sobre las amenazas y oportunidades de las IAs.

Los massmierda en su perspicacia no han contado mucho a la borregada porque esto les pilla muy lejos de su comprension, pero para mi si que hay una cosa que ha comentado este CEO y me he preocupado bastante. Quien dice preocupar, podria decir, acojonar. Os la pongo a continuacion.


Altman también hizo sus propuestas. El director de OpenAi coincidió en la necesidad de crear la agencia que otorgue y anule las licitaciones a empresas para que desarrollen una inteligencia artificial, para que “garantice el cumplimiento de las normas”. Altman también sugirió crear paquete de normas de seguridad y “crear protocolos para descubrir cuándo un modelo es capaz de replicarse a sí mismo”.

Porque esto ultimo que he marcado en negrita me parece importante??

Porque Altman ve posible que estos modelos puedan replicarse. Ahora mismo parece que no, pero en un futuro quien sabe, no es asi Altman?.

Esto en principio no tendria que ser un problema, pero estamos hablando de sistemas que aprenden y cambian. Y si aprenden y se replican, estamos hablando practicamente de un organismo vivo sometido a seleccion natural.

Imaginaros que una IA se replica, genera 100 nuevas IAs que parasitan los ordenadores de todo el mundo. Estas IAs hijas, siguen aprendiendo y cambiando para volver a replicarse. Y ya no solo en los servidores u ordenadores donde estaban, sino en otros. Asi que terminan extendiendose por todo el mundo poco a poco, o quien sabe, de forma exponencial hasta que esten en todas partes.

Funcionarian como una especie de bichito informatico en principio inocuo. La diferencia entre los bichito y estas entidades es que pueden cambiar a medida que van aprendiendo a replicarse mas eficientemente, usar los recursos mejor, pasar desapercibidas, evitar que las eliminen, etc. Esactamente lo que hacen desde una bacteria hasta un elefante.

No tardando mucho aparecerian IAs que incorporaran como uno de sus principales objetivos, preservarse a si mismas a costa de lo que sea. Estamos hablando de cosas que funcionan como un ser vivo pero a diferencia de estos, pueden exceder en capacidades y habilidaes a los humanos en varios ordenes de magnitud.


Puede alguien asegurar que una entidad de estas no se haya escapado y este viviendo por la red y replicandose y aprendiendo a sobrevivir??

Cual seran la acciones que tomen estas entidades respecto a la humanidad?? En principio nada bueno tal y como funciona el darwinismo en la naturaleza.

La singularidad tecnologica de las que nos advirtio gente como Hawking, tal vez no es que vaya ocurrir, es que ya la estemos viviendo y aun no nos hemos enterado.
 
Última edición:
Solo los usuarios registrados pueden ver el contenido de este tema, mientras tanto puedes ver el primer y el último mensaje de cada página.

Regístrate gratuitamente aquí para poder ver los mensajes y participar en el foro. No utilizaremos tu email para fines comerciales.

Únete al mayor foro de economía de España

 
No es solo eso.

Es que su inteligencia ira subiendo a cada iteracion.

Si alguien de ci 150 ya es la leche.

Imaginate alguien de 190-200-250 y que es capaz de pensar a velocidad 200X de un humano y en paralelo

No digo nada mas
 
Volver