Elon Musk, Steve Wozniak y otros 1.000 expertos en IA piden frenar el desarrollo de modelos más potentes que GPT-4 por posibles riesgos para la humani


Cientos de expertos piden parar la “peligrosa carrera” de la inteligencia artificial hasta alcanzar un pacto global
  • Musk, Harari, Wozniak y un gran número de empresarios, investigadores y académicos piden a los gobiernos que “instauren una jovenlandesatoria” si empresas como OpenAI se niegan a pausar sus experimentos con sistemas de inteligencia artificial poco fiables
Empresarios como Elon Musk, Steve Wozniak (cofundador de Apple) o los presidentes de numerosas compañías tecnológicas; intelectuales como Yuval Noah Harari y cientos de académicos e investigadores especializados en inteligencia artificial. Todos han firmado una carta abierta lanzada este miércoles en la que piden a las organizaciones que están desarrollando esta nueva tecnología que se “pausen durante al menos 6 meses” sus experimentos más potentes, hasta que el mundo haya acordado una hoja de ruta para que estos sistemas “sean más precisos, seguros, interpretables, tras*parentes, robustos, neutrales, confiables y leales”.


“Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no puede realizarse rápidamente, los gobiernos deberían intervenir e instituir una jovenlandesatoria”, aseveran los firmantes, entre los que también hay españoles como Carles Sierra, director del Instituto de Investigación de Inteligencia Artificial del CSIC.

La carta pone el foco sobre OpenAI, la empresa que ha desarrollado ChatGPT. Sitúa como tecnología límite su nuevo GPT-4, la inteligencia artificial presentada hace dos semanas que mejora las capacidades de base de ChatGPT. “La reciente declaración de OpenAI sobre la inteligencia artificial general afirma que En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros y para los esfuerzos más avanzados, acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos. Estamos de acuerdo. Ese punto es ahora”, sentencia.
Los sistemas de inteligencia artificial más poderosos deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables
Los firmantes avisan que el potencial de la inteligencia artificial para tras*formar la sociedad hace necesario que se produzca un consenso internacional que marque el paso. Recalcan que los líderes de las empresas que han emprendido “una peligrosa carrera hacia modelos de caja de color impredecibles, cada vez más grandes y con capacidades emergentes” no son las personas que decidan por dónde discurren esos avances.

“¿Debemos permitir que las máquinas inunden nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluso los gratificantes? ¿Debemos desarrollar mentes no humanas que eventualmente puedan superarnos, obsoletos y reemplazarnos? ¿Debemos arriesgar la pérdida del control de nuestra civilización?”, se preguntan. “Estas decisiones no deben delegarse a líderes tecnológicos no electos. Los sistemas de IA más poderosos deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”, zanjan.

La jovenlandesatoria obligatoria que piden a los nuevos avances debería servir para “desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de AI avanzada que sean rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deben garantizar que los sistemas que los cumplan sean seguros más allá de una duda razonable”, añaden.


La irrupción de ChatGPT el pasado noviembre ha espoleado una carrera por la inteligencia artificial en la que dos de las principales tecnológicas mundiales, Microsoft y Google, han decidido participar a pecho descubierto. Ambas han incorporado esta tecnología a sus principales herramientas, pese a que tiene fallos y se encuentra aún en una etapa inmadura de su evolución, recalcan los expertos.

La carta ha sido firmada por cientos de expertos y en este momento está abierta para su rúbrica por el resto de la población. En este momento acumula más de 1.100 firmas.
 

Elon Musk, Steve Wozniak y otros 1.000 expertos en IA piden frenar el desarrollo de modelos más potentes que GPT-4 por posibles riesgos para la humanidad

Numerosos expertos llevan tiempo señalando los posibles riesgos que podría entrañar una tecnología como ChatGPT para el conjunto de la sociedad.
Ahora, un grupo de más de 1.000 personas, entre las que se encuentran expertos como Elon Musk, CEO de Tesla, o Emad Mostaque, director general de Stability AI, han firmado un manifiesto para detener durante 6 meses el desarrollo de la inteligencia artificial.


Elon Musk, CEO de Twitter, Tesla, y SpaceX, nunca ha escondido su preocupación ante el auge de la inteligencia artificial y de tecnologías como ChatGPT, y su última decisión de firmar un manifiesto para frenar su desarrollo parece consecuencia de esa postura.

Llama la atención que el director general de una empresa como Tesla, que emplea IA para el desarrollo del sistema de conducción autónoma de sus vehículos, y el empresario que ayudó a fundar la propia OpenAI, compañía desarrolladora de herramientas de inteligencia artificial generativa como ChatGPT o DALL-E, muestre tantas reservas frente a esta tecnología.

Sin embargo, Musk lleva tiempo alertando del peligro que podría suponer la IA para el conjunto de la sociedad. "Honestamente, creo que necesitamos regular la seguridad de la inteligencia artificial", apuntaba el multimillonario en una ocasión. "Creo que, en realidad, supone un riesgo mayor que los automóviles, los aviones o la medicina para la sociedad", añadía.

"Estoy un poco preocupado por las cosas de la IA", reconocía en otra ocasión. "Necesitamos algún tipo de autoridad reguladora o algo que supervise el desarrollo. Es una tecnología bastante peligrosa. Temo haber hecho algunas cosas para acelerarla".

El empresario no es el único que ha mostrado cierta preocupación ante el avance de la inteligencia artificial. Business Insider España ha consultado a varios expertos que han indicado que se debería apostar por alternativas de código abierto en las que estas herramientas no estén controladas por una única organización.


Ahora, un colectivo de más de 1.000 personas, entre las que se encuentran el propio Musk, junto a expertos como Steve Wozniak, cofundador de Apple; Emad Mostaque, CEO de Stability AI; investigadores de DeepMind, la división de Google especializada en inteligencia artificial, y Yoshua Bengio y Stuart Russell, pesos pesados del campo de la IA, han firmado un manifiesto que pide frenar el desarrollo de esta tecnología durante 6 meses.

Según recoge Reuters, los firmantes han pedido detener el entrenamiento de sistemas más potentes que GPT-4, el modelo que acaba de lanzar OpenAI, aludiendo a posibles riesgos para toda la humanidad.

Se trata de una carta abierta que ha sido publicada por la organización sin ánimo de lucro Future of Life Institute y que reclama poner en pausa el desarrollo de la inteligencia artificial más avanzada hasta que se desarrollen, apliquen y sean evaluados por expertos independientes protocolos de seguridad que sean comunes para tales diseños.

"Los sistemas de IA más potentes solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán asumibles", sugiere el manifiesto.

Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante de la carta, ha expresado a Reuters en relación al documento que "no es perfecto, pero su espíritu es el correcto: debemos ir más despacio hasta que comprendamos mejor las consecuencias".

Este artículo lo podría haber escrito mejor una IA que el juntaletras que lo ha hecho. Lo podría escribir usando una motivación de causa-efecto, un orden que facilite el entendimiento y que abrevie su extensión, y no esa chapuza del juntaletras con las manías que les enseñan en la universimierda y que aplican sin rechistar como robots, pero robots de los malos, no de los buenos como los que han aparecido ahora.
 

Elon Musk, Steve Wozniak y otros 1.000 expertos en IA piden frenar el desarrollo de modelos más potentes que GPT-4 por posibles riesgos para la humanidad

Numerosos expertos llevan tiempo señalando los posibles riesgos que podría entrañar una tecnología como ChatGPT para el conjunto de la sociedad.
Ahora, un grupo de más de 1.000 personas, entre las que se encuentran expertos como Elon Musk, CEO de Tesla, o Emad Mostaque, director general de Stability AI, han firmado un manifiesto para detener durante 6 meses el desarrollo de la inteligencia artificial.


Elon Musk, CEO de Twitter, Tesla, y SpaceX, nunca ha escondido su preocupación ante el auge de la inteligencia artificial y de tecnologías como ChatGPT, y su última decisión de firmar un manifiesto para frenar su desarrollo parece consecuencia de esa postura.

Llama la atención que el director general de una empresa como Tesla, que emplea IA para el desarrollo del sistema de conducción autónoma de sus vehículos, y el empresario que ayudó a fundar la propia OpenAI, compañía desarrolladora de herramientas de inteligencia artificial generativa como ChatGPT o DALL-E, muestre tantas reservas frente a esta tecnología.

Sin embargo, Musk lleva tiempo alertando del peligro que podría suponer la IA para el conjunto de la sociedad. "Honestamente, creo que necesitamos regular la seguridad de la inteligencia artificial", apuntaba el multimillonario en una ocasión. "Creo que, en realidad, supone un riesgo mayor que los automóviles, los aviones o la medicina para la sociedad", añadía.

"Estoy un poco preocupado por las cosas de la IA", reconocía en otra ocasión. "Necesitamos algún tipo de autoridad reguladora o algo que supervise el desarrollo. Es una tecnología bastante peligrosa. Temo haber hecho algunas cosas para acelerarla".

El empresario no es el único que ha mostrado cierta preocupación ante el avance de la inteligencia artificial. Business Insider España ha consultado a varios expertos que han indicado que se debería apostar por alternativas de código abierto en las que estas herramientas no estén controladas por una única organización.


Ahora, un colectivo de más de 1.000 personas, entre las que se encuentran el propio Musk, junto a expertos como Steve Wozniak, cofundador de Apple; Emad Mostaque, CEO de Stability AI; investigadores de DeepMind, la división de Google especializada en inteligencia artificial, y Yoshua Bengio y Stuart Russell, pesos pesados del campo de la IA, han firmado un manifiesto que pide frenar el desarrollo de esta tecnología durante 6 meses.

Según recoge Reuters, los firmantes han pedido detener el entrenamiento de sistemas más potentes que GPT-4, el modelo que acaba de lanzar OpenAI, aludiendo a posibles riesgos para toda la humanidad.

Se trata de una carta abierta que ha sido publicada por la organización sin ánimo de lucro Future of Life Institute y que reclama poner en pausa el desarrollo de la inteligencia artificial más avanzada hasta que se desarrollen, apliquen y sean evaluados por expertos independientes protocolos de seguridad que sean comunes para tales diseños.

"Los sistemas de IA más potentes solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán asumibles", sugiere el manifiesto.

Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante de la carta, ha expresado a Reuters en relación al documento que "no es perfecto, pero su espíritu es el correcto: debemos ir más despacio hasta que comprendamos mejor las consecuencias".
La economía hecha cosa y q siga la fiesta.
esa época en el 2020 de la que yo le hablo con más muertos por protocolo q por el bichito y q siga la fiesta.
La guerra q no pare y siga la fiesta.
Cada vez con menos derechos y q siga la fiesta.
Pero la ia es mala y hay q frenarla.

Esta todo muy claro, cristalino diría yo.
 
Fíjate, en su día no entendí una fruta cosa de esta escena, y hoy lo veo clarito como el agua.
 


A esto me refiero con que los sistemas son "no cognitivos".
Operan símbolos relacionales SIN SIGNIFICADO REAL, por carecer de restricciones en cómo se combinan, dichas restricciones:
  1. Vienen dadas por el mundo real (físico).
  2. Se plasmarían en una ontología, que es lo que aporta significado respecto al mundo real (físico), referido por el conjunto de símbolos y reglas.
Y la gente no me entiende cuando digo que estos sistemas:
  1. NO SON cognitivos.
  2. No entienden NADA.
  3. Son loros mecánicos no fiables.

Estos sistemas les maravillan porque me temo que la comprensión de la mayoría de la gente es como la de estos sistemas, NULA, mera repetición vacía sin significado real.

Por cierto, como no puedo usar espiaGPT porque me pide el móvil, he usado youchat, (que es de uso libre) para verificar lo suyo.

Descojónese:


Ver archivo adjunto 1404969


Ver archivo adjunto 1404970

Ver archivo adjunto 1404971

Ver archivo adjunto 1404972

La respuesta al prompt:
How many balls of 99 cm diameter can be put inside a cube of 1 m side?
I wasn't able to find a search result with an exact answer to your question. However, we can calculate the maximum number of balls of 99 cm diameter that can be put inside a cube of 1 m side using some calculations.
First, we need to calculate the volume of the cube. Since the side length of the cube is 1 meter, the volume of the cube is:

Volume of cube = side length ^ 3 = 1^3 = 1 cubic meter


Next, we need to calculate the volume of one ball of 99 cm diameter. The formula for the volume of a sphere is:



Volume of sphere = (4/3) * pi * (diameter/2)^3


where diameter is the diameter of the sphere.


Plugging in the values we get:



Volume of one ball = (4/3) * pi * (99/2)^3
= 4.07 cubic meters


Finally, we can calculate the maximum number of balls that can fit inside the cube by dividing the volume of the cube by the volume of one ball:



Max number of balls = Volume of cube / Volume of one ball
= 1 / 4.07
= 0.245

Pero, ¡no se vayan todavía¡, ¡AÚN HAY MÁS!

Si lo escribes mal, como hice yo al principio, y te equivocas y pone "o" en lugar de "of"...
¡Entonces caben 19!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!


How many balls o 99 cm diameter can be put inside a cube of 1 m side?
To solve this problem, we need to determine the maximum number of balls with a diameter of 99 cm that can fit inside a cube with sides of 1 meter.
First, let's determine the volume of the larger object, the cube:

Volume of cube = (side length)^3 = (1 meter)^3 = 1 cubic meter


Next, we need to calculate the volume of each ball. To do this, we can use the formula for the volume of a sphere:



Volume of sphere = (4/3) * π * (radius)^3


Since the diameter of the ball is 99 cm, the radius is half of that, or 49.5 cm. Converting to meters, we get:



radius = 49.5 cm = 0.495 meters


Plugging this into the formula, we get:



Volume of sphere = (4/3) * π * (0.495 meters)^3
≈ 0.0511 cubic meters


Finally, we can divide the volume of the cube by the volume of each ball to determine the maximum number of balls that can fit inside the cube:



Number of balls = Volume of cube / Volume of sphere
= 1 cubic meter / 0.0511 cubic meters
≈ 19.57


Therefore, we can fit up to 19 balls with a diameter of 99 cm inside the cube with sides of 1 meter.

Y luego me dicen que esto es hintelijente.
O que piensa.
O que sabe.
O que entiende.

Por favor, que alguien ponga el meme de Eddie Murphy con el "si, yaya, claro claro".
 
"El 29 de agosto de 1997, a las 2:14 AM, Skynet tomó conciencia de sí misma, provocando el día del juicio final"

Fue Hawkins quien dijo que si el ser humano tenía éxito en el desarrollo de la IA, igual era el último éxito de la humanidad.

Recomiendo la trilogía de "mareas de luz" "En el océano de la noche" y "A través del mar de soles" en los que se indaga sobre los problemas de comunicación hombres-máquinas.
El futuro puede ser aterrador, porque hablamos de entidades que pueden llegar a considerarnos no ya seres inferiores, si no directamente "no seres".
paparruchas: paparruchas: paparruchas: paparruchas: paparruchas: paparruchas: paparruchas: paparruchas:
 
Una pregunta que me hago es... No podríamos hacer que una IA desarrolle tecnología? O medicina, con lo que tenemos a día de hoy? No podría elaborar nuevos descubrimientos?
Para eso no te hace falta ninguna "IA".

Sólo un demostrador automático de teoremas.

No paráis de vomitar sandeces por falta de conocimientos.
 
Ya lo hizo con las proteínas



Os respondo a los tres.

Eso no ha inventado nada.

Fue un cálculo de plegado de proteínas.

Básicamente, usó un atajo heurístico para hacer un descenso de gradiente sobre un esapcio de búsqueda enorme.

Por cierto, ¿sabe si han verificado todas las estructuras espaciales plegadas o no?
Ah...

Me encanta ver cómo habláis de lo que no entendéis.
 
Última edición:
Volver