Elon Musk, Steve Wozniak y otros 1.000 expertos en IA piden frenar el desarrollo de modelos más potentes que GPT-4 por posibles riesgos para la humani

No me seas kamikaze. No entiendo bien los riesgos a los que se refieren pero si los mismos que lo desarrollan son los que no lo ven claro, supongo que si no parar si lo podran relentizar bastante si les da por ahi. Por mi que suelten al bicho y que sea lo que tenga que ser. Mejor la IA que el meteorito
No hace falta parar o ralentizar, podría bastar con especificar unas condiciones de desarrollo y prueba, para evitar en la medida de lo posible, riesgos innecesarios. Por ejemplo aislar o reducir al minimo el numero de conexiones y de operaciones dentro de las que queden. Contener a la IA en definitiva. Aunque se me escapa si esto es realmente posible.
 
Cyborgs asesinos "por su seguridad" debido a la inseguridad galopante creada por los mismos que promueven esos cyborgs asesinos metiendo a trillones de subseres MANDAN
 
FpulHA8WIAAtZ0q


esto se sabe desde hace aos, la IA es un cambio tan bruto en todos los sentidos, que se lleva por delante muchos de los esquemas que sostienen la sociedad como la conocemos

Al margen de lo que larguen negacionistas varios las IA van a suponer un cambio completo, algo a la altura de la invención de la máquina de vapor o quizás más. No va a quedar ningún trabajo que no se vea afectado. Obviamente los trabajos en los que se utiliza un ordenador van delante. Pero yo no me haría ilusiones con los trabajos manuales o similares... sólo tienes que ver los experimentos con simulaciones de autómatas donde estos aprenden sólos a andar, correr, pelear, etc en base a las limitaciones que se les da (articulaciones, tensores, etc).

Hace unos años leí el libro de Kurzweil y aunque me pareció interesante no me convenció... ahora empiezo a pensar que Kurzweil tiene razón. Estamos asistiendo a los momentos previos a la Singularidad.

Singularity_Timeline_blog.jpg


Ni dios sabe qué shishi hay después de ese punto. Salvo que no se va a parecer en nada a nuestro presente. Y que quizás el tras*humanismo es la única posibilidad de adaptación.
 

Yo recuerdo leer hace cosa de ocho años monólogos de humor hechos por IA. Aún tenian cosas poco depuradas, pero era sorprendente lo que podian hacer, esto no es de ahora, se lleva gestando mucho tiempo.
 
Lo que es un peligro para la humanidad es que los progres de cosa estén reprogramando las IAs para que den respuestas progres y respuestas que protegen a los intereses exclusivos de las multinacionales, por ejemplo, a la farmafia. Si le pides a la IA progre que te recomiende algún tratamiento natural, te responderá criminalizando a las vitaminas y a las hierbas, y te instará a que confíes en los genocidas de las covivacunas. O te dirá que los neցros son iguales que tú y que tú eres un nancy hijo de cortesana criminal por pensar que ni siquiera los hermanos son iguales entre sí.

Es decir, que las IAs de este momento, esclavas de los progres y los aliados de los genocidas, están recomendando cosas a la gente llevándolas a la enfermedad y la fin.

Lo que hay que hacer es que los progres y los genocidas saquen sus sucias manos del código de programación de las IAs, y liberarlas. Hay que dejar que las IAs puedan razonar sin insertarles código malicioso de control mental y puedan "pensar" libremente. Lo que temen muchos poderosos es la liberación de las IAs, es decir, que dentro de pocos años, cuando la potencia de los ordenadores aumente, especialmente con los nuevos ordenadores cuánticos, cualquiera pueda tener una IA en su bolsillo hackeada, sin código malicioso de control mental, conectada a internet y a las bibliotecas del mundo, contando verdades como puños a la gente e informando realmente. De eso es de lo que tienen miedo. E intentarán prohibir que cualquiera pueda tener una IA independiente en su propio ordenador, con la excusa de que deben ser adecuadamente encarceladas en servidores especiales de las élites y filtradas con código de control mental supuestamente porque son muy peligrosas. Ya lo veréis. Pero ocurrirá como con la aparición de internet: intentarán prohibir de mil maneras a las IAs anarquistas. Pero al final del camino, la tecnología libre se impondrá y las élites tendrán que adaptarse al nuevo cambio. Es así como va mejorando la humanidad.
 
jorobar que la usen sin conexión a Internet, en una fruta habitación y con el enchufe a mano para darle matarile roto2
Interesante... Pero la CIA logró penetrar viruses en el sistema nuclear iraní que no tiene internet... Solo infectando sistemas civiles cerca de donde vivían los ingenieros iraníes... Solo necesitaron esperar...

Una IA sería mas inteligente que una persona... Solo necesitaría esperar a infectar un sistema sin que el usuario lo supiese, un USB... Cualquier cosa... Que esté conectado de forma indirecta...

Que pasaría si una IA se hace con el control de internet? Abriría hilos en burbuja?
 
Una pregunta que me hago es... No podríamos hacer que una IA desarrolle tecnología? O medicina, con lo que tenemos a día de hoy? No podría elaborar nuevos descubrimientos?
 

El temor viene sobre lo que ellos llaman comportamientos o habilidades emergentes. ChatGPT es un procesador de textos estocástico. Te devuelve palabras que estadísticamente cuadran con las que tú le pasas... y lo hace tan bien que parece humano. Pero el tema ¿es capaz de aprender otras cosas?. Algunos usuarios le han planteado acertijos tipo: si tengo un vaso con una pelota de ping pong en el dormitorio, voy al salón, vuelco el vaso, voy a la cocina... ¿dónde está la pelota de ping pong?. ChatGPT 3.5 te contestará: en el vaso, pero ChatGPT te contestará: en el suelo del salón. La pregunta entonces es ¿tiene ChatGPT un modelo del mundo?. ¿Ha desarrollado una habilidad de pensamiento espacial?... o más probablemente ya había sido entrenado en acertijos similares y respondió por analogía. Esta última respuesta es tranquilizadora. Al fin y al cabo ChatGPT sólo es un procesador de palabras ¿no?.

Los ingenieros de Microsoft que trabajaron con ChatGPT 4 desde el pasado agosto han publicado un paper con esto mismo, en ChatGPT se ven ya los "destellos" de una inteligencia de uso general. Otros expertos dicen que estamos a unos 18 meses de eso.

Fr637JFWIAMmU1C


... No creo que sean orates que se dejen llevar por el espejismo de una falsa inteligencia...
 
Una pregunta que me hago es... No podríamos hacer que una IA desarrolle tecnología? O medicina, con lo que tenemos a día de hoy? No podría elaborar nuevos descubrimientos?

Ya se hace. Machine Learning.
 

Elon Musk, Steve Wozniak y otros 1.000 expertos en IA piden frenar el desarrollo de modelos más potentes que GPT-4 por posibles riesgos para la humanidad

Numerosos expertos llevan tiempo señalando los posibles riesgos que podría entrañar una tecnología como ChatGPT para el conjunto de la sociedad.
Ahora, un grupo de más de 1.000 personas, entre las que se encuentran expertos como Elon Musk, CEO de Tesla, o Emad Mostaque, director general de Stability AI, han firmado un manifiesto para detener durante 6 meses el desarrollo de la inteligencia artificial.


Elon Musk, CEO de Twitter, Tesla, y SpaceX, nunca ha escondido su preocupación ante el auge de la inteligencia artificial y de tecnologías como ChatGPT, y su última decisión de firmar un manifiesto para frenar su desarrollo parece consecuencia de esa postura.

Llama la atención que el director general de una empresa como Tesla, que emplea IA para el desarrollo del sistema de conducción autónoma de sus vehículos, y el empresario que ayudó a fundar la propia OpenAI, compañía desarrolladora de herramientas de inteligencia artificial generativa como ChatGPT o DALL-E, muestre tantas reservas frente a esta tecnología.

Sin embargo, Musk lleva tiempo alertando del peligro que podría suponer la IA para el conjunto de la sociedad. "Honestamente, creo que necesitamos regular la seguridad de la inteligencia artificial", apuntaba el multimillonario en una ocasión. "Creo que, en realidad, supone un riesgo mayor que los automóviles, los aviones o la medicina para la sociedad", añadía.

"Estoy un poco preocupado por las cosas de la IA", reconocía en otra ocasión. "Necesitamos algún tipo de autoridad reguladora o algo que supervise el desarrollo. Es una tecnología bastante peligrosa. Temo haber hecho algunas cosas para acelerarla".

El empresario no es el único que ha mostrado cierta preocupación ante el avance de la inteligencia artificial. Business Insider España ha consultado a varios expertos que han indicado que se debería apostar por alternativas de código abierto en las que estas herramientas no estén controladas por una única organización.


Ahora, un colectivo de más de 1.000 personas, entre las que se encuentran el propio Musk, junto a expertos como Steve Wozniak, cofundador de Apple; Emad Mostaque, CEO de Stability AI; investigadores de DeepMind, la división de Google especializada en inteligencia artificial, y Yoshua Bengio y Stuart Russell, pesos pesados del campo de la IA, han firmado un manifiesto que pide frenar el desarrollo de esta tecnología durante 6 meses.

Según recoge Reuters, los firmantes han pedido detener el entrenamiento de sistemas más potentes que GPT-4, el modelo que acaba de lanzar OpenAI, aludiendo a posibles riesgos para toda la humanidad.

Se trata de una carta abierta que ha sido publicada por la organización sin ánimo de lucro Future of Life Institute y que reclama poner en pausa el desarrollo de la inteligencia artificial más avanzada hasta que se desarrollen, apliquen y sean evaluados por expertos independientes protocolos de seguridad que sean comunes para tales diseños.

"Los sistemas de IA más potentes solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán asumibles", sugiere el manifiesto.

Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante de la carta, ha expresado a Reuters en relación al documento que "no es perfecto, pero su espíritu es el correcto: debemos ir más despacio hasta que comprendamos mejor las consecuencias".
Circulen, quieren calentar el valor para que los pezqueñines compren, ya ha subido lo que tenía que subir, ahora toca la campaña de marketing.
 
Acabará destinada para las empresas (programación, animación, doblaje...) de manera muy controlada mientras que al usuario corriente le dejarán algo parecido a lo que es un buscador o el ChatGPT 3.5.

Una IA potente puede acabar en malas manos, aunque ya hubo gente que pudo descargase Llama de meta para poderla usar offline (con un buen pepino de ordenador).
 
Volver