Elon Musk, Steve Wozniak y otros 1.000 expertos en IA piden frenar el desarrollo de modelos más potentes que GPT-4 por posibles riesgos para la humani

Seguramente temen que les cierren sus chiringuitos, en el caso de Musk porque sabe que la IA tenderá a absorber petróleo y nucelar hasta desarrollar la energía de fusión. En el caso de Wozniak porque le quitará el halo de trendy, moda, y demás farándula a Apple y tendrá que buscarse la jubilación. Los otros ejpertos porque venderán plugins guarros que la IA te hace en 1 minuto y pasas 5 depurando hasta adaptarla a la perfección, en lugar de 1 semana y 2000 pavitos por la patilla.
 

Elon Musk, Steve Wozniak y otros 1.000 expertos en IA piden frenar el desarrollo de modelos más potentes que GPT-4 por posibles riesgos para la humanidad

Numerosos expertos llevan tiempo señalando los posibles riesgos que podría entrañar una tecnología como ChatGPT para el conjunto de la sociedad.
Ahora, un grupo de más de 1.000 personas, entre las que se encuentran expertos como Elon Musk, CEO de Tesla, o Emad Mostaque, director general de Stability AI, han firmado un manifiesto para detener durante 6 meses el desarrollo de la inteligencia artificial.


Elon Musk, CEO de Twitter, Tesla, y SpaceX, nunca ha escondido su preocupación ante el auge de la inteligencia artificial y de tecnologías como ChatGPT, y su última decisión de firmar un manifiesto para frenar su desarrollo parece consecuencia de esa postura.

Llama la atención que el director general de una empresa como Tesla, que emplea IA para el desarrollo del sistema de conducción autónoma de sus vehículos, y el empresario que ayudó a fundar la propia OpenAI, compañía desarrolladora de herramientas de inteligencia artificial generativa como ChatGPT o DALL-E, muestre tantas reservas frente a esta tecnología.

Sin embargo, Musk lleva tiempo alertando del peligro que podría suponer la IA para el conjunto de la sociedad. "Honestamente, creo que necesitamos regular la seguridad de la inteligencia artificial", apuntaba el multimillonario en una ocasión. "Creo que, en realidad, supone un riesgo mayor que los automóviles, los aviones o la medicina para la sociedad", añadía.

"Estoy un poco preocupado por las cosas de la IA", reconocía en otra ocasión. "Necesitamos algún tipo de autoridad reguladora o algo que supervise el desarrollo. Es una tecnología bastante peligrosa. Temo haber hecho algunas cosas para acelerarla".

El empresario no es el único que ha mostrado cierta preocupación ante el avance de la inteligencia artificial. Business Insider España ha consultado a varios expertos que han indicado que se debería apostar por alternativas de código abierto en las que estas herramientas no estén controladas por una única organización.


Ahora, un colectivo de más de 1.000 personas, entre las que se encuentran el propio Musk, junto a expertos como Steve Wozniak, cofundador de Apple; Emad Mostaque, CEO de Stability AI; investigadores de DeepMind, la división de Google especializada en inteligencia artificial, y Yoshua Bengio y Stuart Russell, pesos pesados del campo de la IA, han firmado un manifiesto que pide frenar el desarrollo de esta tecnología durante 6 meses.

Según recoge Reuters, los firmantes han pedido detener el entrenamiento de sistemas más potentes que GPT-4, el modelo que acaba de lanzar OpenAI, aludiendo a posibles riesgos para toda la humanidad.

Se trata de una carta abierta que ha sido publicada por la organización sin ánimo de lucro Future of Life Institute y que reclama poner en pausa el desarrollo de la inteligencia artificial más avanzada hasta que se desarrollen, apliquen y sean evaluados por expertos independientes protocolos de seguridad que sean comunes para tales diseños.

"Los sistemas de IA más potentes solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán asumibles", sugiere el manifiesto.

Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante de la carta, ha expresado a Reuters en relación al documento que "no es perfecto, pero su espíritu es el correcto: debemos ir más despacio hasta que comprendamos mejor las consecuencias".
Pero el riesgo no lo ponen en la IA en sí sino que sea monopolizada. Es un poco de chiste ese planteamiento. Parece que estén preocupados por sus empresas antes que por los riesgos REALES que puede tener la IA.
 
Me imagino hace unos milenios en Ur, Sumeria, la peña hablando en el ágora o el templo de que a eso de poner marcas en arcilla para representar el lenguaje habría que ponerle freno, que qué es eso de dejar registro permanente de las ideas, los pensamientos, la contabilidad ...
 
"El 29 de agosto de 1997, a las 2:14 AM, Skynet tomó conciencia de sí misma, provocando el día del juicio final"

Fue Hawkins quien dijo que si el ser humano tenía éxito en el desarrollo de la IA, igual era el último éxito de la humanidad.

Recomiendo la trilogía de "mareas de luz" "En el océano de la noche" y "A través del mar de soles" en los que se indaga sobre los problemas de comunicación hombres-máquinas.
El futuro puede ser aterrador, porque hablamos de entidades que pueden llegar a considerarnos no ya seres inferiores, si no directamente "no seres".
 
uyuyuyuy que miedito.

que la desenchufen y ya, tanta otia .... qué paso finalmente con la fusion nucleaaa
 
Esto es imparable, se pongan como se pongan. Si no es de forma pública, será por la puerta de atrás, pero todos tendremos que acostumbrarnos al hecho de que la IA es posiblemente el próximo paso de la evolución en este planeta y que quizás el algún momento nosotros los humanos nos tengamos que extinguir como nuestros ancestros al no se competitivos ni útiles. Mientras tanto, las personas inteligentes se adaptarán a los nuevos tiempos como ha pasado siempre, y los demás las pasarán cada vez más pilinguis, como ha pasado siempre también.
 
meparto:

q mentira. Pero hayq meter fud a saco y x lo q sea
 
Siempre se nombra a Musk como inversor inicial de OpenAI y se olvidan de Peter Thiel, que es el peligroso al ser el dueño de Palantir, una empresa que claramente te dice en su webpage que están encantados de usar la IA en zonas bélicas, empezando por el salón de tu casa.


 
Volver