Elon Musk, Steve Wozniak y otros 1.000 expertos en IA piden frenar el desarrollo de modelos más potentes que GPT-4 por posibles riesgos para la humanidad
Un grupo de más de 1.000 expertos en IA, junto a celebridades como Elon Musk, han firmado un manifiesto para frenar el desarrollo de modelos más potentes que GPT-4.
www.businessinsider.es
Elon Musk, Steve Wozniak y otros 1.000 expertos en IA piden frenar el desarrollo de modelos más potentes que GPT-4 por posibles riesgos para la humanidad
Numerosos expertos llevan tiempo señalando los posibles riesgos que podría entrañar una tecnología como ChatGPT para el conjunto de la sociedad.
Ahora, un grupo de más de 1.000 personas, entre las que se encuentran expertos como Elon Musk, CEO de Tesla, o Emad Mostaque, director general de Stability AI, han firmado un manifiesto para detener durante 6 meses el desarrollo de la inteligencia artificial.
Elon Musk, CEO de Twitter, Tesla, y SpaceX, nunca ha escondido su preocupación ante el auge de la inteligencia artificial y de tecnologías como ChatGPT, y su última decisión de firmar un manifiesto para frenar su desarrollo parece consecuencia de esa postura.
Llama la atención que el director general de una empresa como Tesla, que emplea IA para el desarrollo del sistema de conducción autónoma de sus vehículos, y el empresario que ayudó a fundar la propia OpenAI, compañía desarrolladora de herramientas de inteligencia artificial generativa como ChatGPT o DALL-E, muestre tantas reservas frente a esta tecnología.
Sin embargo, Musk lleva tiempo alertando del peligro que podría suponer la IA para el conjunto de la sociedad. "Honestamente, creo que necesitamos regular la seguridad de la inteligencia artificial", apuntaba el multimillonario en una ocasión. "Creo que, en realidad, supone un riesgo mayor que los automóviles, los aviones o la medicina para la sociedad", añadía.
"Estoy un poco preocupado por las cosas de la IA", reconocía en otra ocasión. "Necesitamos algún tipo de autoridad reguladora o algo que supervise el desarrollo. Es una tecnología bastante peligrosa. Temo haber hecho algunas cosas para acelerarla".
El empresario no es el único que ha mostrado cierta preocupación ante el avance de la inteligencia artificial. Business Insider España ha consultado a varios expertos que han indicado que se debería apostar por alternativas de código abierto en las que estas herramientas no estén controladas por una única organización.
Ahora, un colectivo de más de 1.000 personas, entre las que se encuentran el propio Musk, junto a expertos como Steve Wozniak, cofundador de Apple; Emad Mostaque, CEO de Stability AI; investigadores de DeepMind, la división de Google especializada en inteligencia artificial, y Yoshua Bengio y Stuart Russell, pesos pesados del campo de la IA, han firmado un manifiesto que pide frenar el desarrollo de esta tecnología durante 6 meses.
Según recoge Reuters, los firmantes han pedido detener el entrenamiento de sistemas más potentes que GPT-4, el modelo que acaba de lanzar OpenAI, aludiendo a posibles riesgos para toda la humanidad.
Se trata de una carta abierta que ha sido publicada por la organización sin ánimo de lucro Future of Life Institute y que reclama poner en pausa el desarrollo de la inteligencia artificial más avanzada hasta que se desarrollen, apliquen y sean evaluados por expertos independientes protocolos de seguridad que sean comunes para tales diseños.
"Los sistemas de IA más potentes solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán asumibles", sugiere el manifiesto.
Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante de la carta, ha expresado a Reuters en relación al documento que "no es perfecto, pero su espíritu es el correcto: debemos ir más despacio hasta que comprendamos mejor las consecuencias".