Un grupo de más de 1.000 expertos en IA, junto a celebridades como Elon Musk, han firmado un manifiesto para frenar el desarrollo de modelos más potentes que GPT-4.
www.businessinsider.es
Elon Musk, Steve Wozniak y otros 1.000 expertos en IA piden frenar el desarrollo de modelos más potentes que GPT-4 por posibles riesgos para la humanidad
Numerosos expertos llevan tiempo señalando los posibles riesgos que podría entrañar una tecnología como ChatGPT para el conjunto de la sociedad.
Ahora, un grupo de más de 1.000 personas, entre las que se encuentran expertos como Elon Musk, CEO de Tesla, o Emad Mostaque, director general de Stability AI, han firmado un manifiesto para detener durante 6 meses el desarrollo de la inteligencia artificial.
Elon Musk, CEO de Twitter, Tesla, y SpaceX, nunca ha escondido su preocupación ante el auge de la
inteligencia artificial y de tecnologías como
ChatGPT, y su última decisión de firmar un manifiesto para frenar su desarrollo parece consecuencia de esa postura.
Llama la atención que el director general de una empresa como
Tesla, que emplea IA para el desarrollo del sistema de conducción autónoma
de sus vehículos, y el empresario que ayudó a fundar
la propia OpenAI, compañía desarrolladora de herramientas de inteligencia artificial generativa como ChatGPT o
DALL-E, muestre tantas reservas frente a esta tecnología.
Sin embargo, Musk lleva tiempo alertando del peligro que podría suponer la IA para el conjunto de la sociedad. "Honestamente, creo que necesitamos regular la seguridad de la inteligencia artificial", apuntaba el multimillonario
en una ocasión. "Creo que, en realidad,
supone un riesgo mayor que los automóviles, los aviones o la medicina para la sociedad", añadía.
"
Estoy un poco preocupado por las cosas de la IA", reconocía
en otra ocasión. "Necesitamos algún tipo de autoridad reguladora o algo que supervise el desarrollo.
Es una tecnología bastante peligrosa. Temo haber hecho algunas cosas para acelerarla".
El empresario no es el único que ha mostrado cierta preocupación ante el avance de la inteligencia artificial.
Business Insider España ha consultado a varios expertos que han indicado que se debería apostar por
alternativas de código abierto en las que estas herramientas no estén controladas por
una única organización.
Ahora, un colectivo de más de 1.000 personas, entre las que se encuentran el propio Musk, junto a expertos como Steve Wozniak, cofundador de Apple; Emad Mostaque, CEO de
Stability AI; investigadores de
DeepMind, la división de Google especializada en inteligencia artificial, y Yoshua Bengio y Stuart Russell, pesos pesados del
campo de la IA, han firmado un manifiesto que pide frenar el desarrollo de esta tecnología durante 6 meses.
Según recoge
Reuters, los firmantes han pedido detener el entrenamiento de sistemas más potentes que GPT-4, el modelo que acaba de lanzar OpenAI, aludiendo a
posibles riesgos para toda la humanidad.
Se trata de una carta abierta que ha sido publicada por la organización sin ánimo de lucro
Future of Life Institute y que reclama poner en pausa el desarrollo de la inteligencia artificial más avanzada hasta que se desarrollen, apliquen y sean evaluados por expertos independientes protocolos de seguridad que sean comunes para tales diseños.
"Los sistemas de IA más potentes solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán asumibles", sugiere el manifiesto.
Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante de la carta, ha expresado a
Reuters en relación al documento que "no es perfecto, pero su espíritu es el correcto:
debemos ir más despacio hasta que comprendamos mejor las consecuencias".