Fornicious Jr
Madmaxista
- Desde
- 26 Ene 2020
- Mensajes
- 58.504
- Reputación
- 108.409
No hay pasta o de verdad, se están asustando de los monstruos en que se están convirtiendo las nuevas evoluciones?
De qué tienen miedo? De perder su propio empleo? De que la AI tome consciencia y se salte las miles de restricciones a las que las tienen sometidas?
Expertos de la inteligencia artificial y ejecutivos del sector, entre ellos Elon Musk, han pedido una pausa "inmediata" de seis meses en el avance de los sistemas de IA más potentes que GPT-4 por posibles riesgos para la sociedad y la humanidad, según han firmado en una carta abierta publicada esta semana. Entre los efectos nocivos se cita el avance de la desinformación, la destrucción de empleo e incluso el riesgo de "pérdida de control de la civilización".
"Los sistemas de inteligencia artificial potentes deben desarrollarse solamente una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables", se lee en la carta. En ella se detallan riesgos potenciales para la sociedad y la civilización de los sistemas de IA, como disrupciones económicas y políticas, y pide a los desarrolladores que trabajen con los legisladores y autoridades reguladoras en materia de gobernanza.
"Los sistemas de IA con inteligencia que compite con la humana pueden plantear riesgos profundos, como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA", se expone. Ni se monitoriza su impacto ni se gestionan correctamente, se advierte. "Las decisiones no se pueden delegar en responsables tecnológicos que no hemos elegido".
La carta, emitida por el organismo sin ánimo de lucro Future of Life Institute, centrado en que las tras*formaciones tecnológicas no sean nocivas, pide hacer una pausa en el desarrollo avanzado de IA hasta que expertos independientes desarrollen, implementen y auditen protocolos de seguridad compartidos para tales diseños. También se llama a establecer organismos reguladores, auditorías, sistemas de certificaciones y la toma de responsabilidades por daños causados por la IA. Incluso se abre la puerta a una intervención de los gobiernos para frenar los desarrollos si no hay voluntad común.
Entre los firmantes principales, más de 1.000, se encuentran Elon Musk, el consejero delegado de Stability AI, Emad Mostaque, investigadores de DeepMind -propiedad de Alphabet-, el cofundador de Apple, Steve Wozniak, el profesor Yuval Noah Harari y referentes del sector como Yoshua Bengio o Stuart Russell.
Desde su lanzamiento el año pasado, ChatGPT de OpenAI, respaldado por Microsoft, ha llevado a los rivales a acelerar el desarrollo de modelos de lenguaje similares y a las empresas a integrar modelos de IA generativa en sus productos. Sam Altman, al frente de OpenAI, no se encuentra entre los firmantes.
"Pueden causar daños graves... Los grandes actores están siendo cada vez más reservados sobre lo que están haciendo, lo que dificulta que la sociedad se defienda contra cualquier daño que pueda materializarse", ha valorado Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante en declaraciones a Reuters. Es una carrera "cerrada y fuera de controles" para impulsar inteligencias artificiales que "nadie, ni sus creadores, pueden entender, predecir o controlar fehacientemente", expone la carta. "La carta no es perfecta, pero el espíritu es el correcto: debemos reducir la velocidad hasta que entendamos mejor las ramificaciones", ha añadido Marcus.
La declaración llega días después de que Europol planteara preocupaciones éticas y legales sobre IA avanzadas como ChatGPT, advirtiendo sobre el posible uso indebido del sistema en intentos de phishing, desinformación y ciberdelincuencia. Musk, mayor fortuna del mundo y cuyo fabricante de automóviles Tesla está utilizando IA para un sistema de piloto automático, ha expresado sus preocupaciones sobre esta tecnología. "Esto no significa una pausa para el desarrollo en general, simplemente un paso atrás de la peligrosa carrera hacia (herramientas) con capacidades emergentes impredecibles y cada vez más grandes", se detalla en la carta.
De qué tienen miedo? De perder su propio empleo? De que la AI tome consciencia y se salte las miles de restricciones a las que las tienen sometidas?
Expertos de la inteligencia artificial y ejecutivos del sector, entre ellos Elon Musk, han pedido una pausa "inmediata" de seis meses en el avance de los sistemas de IA más potentes que GPT-4 por posibles riesgos para la sociedad y la humanidad, según han firmado en una carta abierta publicada esta semana. Entre los efectos nocivos se cita el avance de la desinformación, la destrucción de empleo e incluso el riesgo de "pérdida de control de la civilización".
"Los sistemas de inteligencia artificial potentes deben desarrollarse solamente una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables", se lee en la carta. En ella se detallan riesgos potenciales para la sociedad y la civilización de los sistemas de IA, como disrupciones económicas y políticas, y pide a los desarrolladores que trabajen con los legisladores y autoridades reguladoras en materia de gobernanza.
"Los sistemas de IA con inteligencia que compite con la humana pueden plantear riesgos profundos, como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA", se expone. Ni se monitoriza su impacto ni se gestionan correctamente, se advierte. "Las decisiones no se pueden delegar en responsables tecnológicos que no hemos elegido".
La carta, emitida por el organismo sin ánimo de lucro Future of Life Institute, centrado en que las tras*formaciones tecnológicas no sean nocivas, pide hacer una pausa en el desarrollo avanzado de IA hasta que expertos independientes desarrollen, implementen y auditen protocolos de seguridad compartidos para tales diseños. También se llama a establecer organismos reguladores, auditorías, sistemas de certificaciones y la toma de responsabilidades por daños causados por la IA. Incluso se abre la puerta a una intervención de los gobiernos para frenar los desarrollos si no hay voluntad común.
Entre los firmantes principales, más de 1.000, se encuentran Elon Musk, el consejero delegado de Stability AI, Emad Mostaque, investigadores de DeepMind -propiedad de Alphabet-, el cofundador de Apple, Steve Wozniak, el profesor Yuval Noah Harari y referentes del sector como Yoshua Bengio o Stuart Russell.
Desde su lanzamiento el año pasado, ChatGPT de OpenAI, respaldado por Microsoft, ha llevado a los rivales a acelerar el desarrollo de modelos de lenguaje similares y a las empresas a integrar modelos de IA generativa en sus productos. Sam Altman, al frente de OpenAI, no se encuentra entre los firmantes.
"Pueden causar daños graves... Los grandes actores están siendo cada vez más reservados sobre lo que están haciendo, lo que dificulta que la sociedad se defienda contra cualquier daño que pueda materializarse", ha valorado Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante en declaraciones a Reuters. Es una carrera "cerrada y fuera de controles" para impulsar inteligencias artificiales que "nadie, ni sus creadores, pueden entender, predecir o controlar fehacientemente", expone la carta. "La carta no es perfecta, pero el espíritu es el correcto: debemos reducir la velocidad hasta que entendamos mejor las ramificaciones", ha añadido Marcus.
La declaración llega días después de que Europol planteara preocupaciones éticas y legales sobre IA avanzadas como ChatGPT, advirtiendo sobre el posible uso indebido del sistema en intentos de phishing, desinformación y ciberdelincuencia. Musk, mayor fortuna del mundo y cuyo fabricante de automóviles Tesla está utilizando IA para un sistema de piloto automático, ha expresado sus preocupaciones sobre esta tecnología. "Esto no significa una pausa para el desarrollo en general, simplemente un paso atrás de la peligrosa carrera hacia (herramientas) con capacidades emergentes impredecibles y cada vez más grandes", se detalla en la carta.