Elon Musk, Steve Wozniak y otros 1.000 expertos en IA piden frenar el desarrollo de modelos más potentes que GPT-4 por posibles riesgos para la humani

No me seas kamikaze. No entiendo bien los riesgos a los que se refieren pero si los mismos que lo desarrollan son los que no lo ven claro, supongo que si no parar si lo podran relentizar bastante si les da por ahi. Por mi que suelten al bicho y que sea lo que tenga que ser. Mejor la IA que el meteorito

Solo pueden ser dos cosas:
- que suponga algo tan brutalmente acertado que se lleve por delante muchos más empleos de los que va a generar, bien a corto plazo o bien para siempre
- que sea algo tan desacertado que confiar ciegamente en todo lo que nos proponga nos lleve a una progresiva ineficiencia tanto a la hora de tomar decisiones como a la hora de estimular el pensamiento crítico.

O una combinación de lo primero con lo segundo: que nos malacostumbremos para volvernos excesivamente dependientes e incapaces como civilización

La explicación más prosaica es que no quieren un monopolio de Microsoft/OpenAI
 
Solo pueden ser dos cosas:
- que suponga algo tan brutalmente acertado que se lleve por delante muchos más empleos de los que va a generar, bien a corto plazo o bien para siempre
- que sea algo tan desacertado que confiar ciegamente en todo lo que nos proponga nos lleve a una progresiva ineficiencia tanto a la hora de tomar decisiones como a la hora de estimular el pensamiento crítico
Del texto se desprende que el problema es que suponga un exceso de poder en determinadas manos que pueda conllevar abusos y desequilibrios. Algo asi como controlar los movimientos de la bolsa o predecir lo que va a hacer la gente
 
Solo pueden ser dos cosas:
- que suponga algo tan brutalmente acertado que se lleve por delante muchos más empleos de los que va a generar, bien a corto plazo o bien para siempre
- que sea algo tan desacertado que confiar ciegamente en todo lo que nos proponga nos lleve a una progresiva ineficiencia tanto a la hora de tomar decisiones como a la hora de estimular el pensamiento crítico.

O una combinación de lo primero con lo segundo: que nos malacostumbremos para volvernos excesivamente dependientes e incapaces como civilización

La explicación más prosaica es que no quieren un monopolio de Microsoft/OpenAI

Eso último es lo que me parece a mi
 
Pues no es un fake news.


El problema que yo veo es que lo que da miedo es que la IA acabe llegando a tener sentido común y se muestre por tanto contraria a las ideas de izquierda y todas las cosas pogre.
 
Solo pueden ser dos cosas:
- que suponga algo tan brutalmente acertado que se lleve por delante muchos más empleos de los que va a generar, bien a corto plazo o bien para siempre
- que sea algo tan desacertado que confiar ciegamente en todo lo que nos proponga nos lleve a una progresiva ineficiencia tanto a la hora de tomar decisiones como a la hora de estimular el pensamiento crítico.

O una combinación de lo primero con lo segundo: que nos malacostumbremos para volvernos excesivamente dependientes e incapaces como civilización

La explicación más prosaica es que no quieren un monopolio de Microsoft/OpenAI

O que quieren frenar la AI de la competencia para tomar ellos la delantera. Que yo ya no me fío de nadie.
 
Pues no es un fake news.


El problema que yo veo es que lo que da miedo es que la IA acabe llegando a tener sentido común y se muestre por tanto contraria a las ideas de izquierda y todas las cosas pogre.

Yo veo peor que haya una agenda oculta en código cerrado y que nos presenten a la IA como algo objetivo y carente de sesgo. Aunque ya desde el inicio se le han visto los palos del sombrajo con lo que censura y lo que no
 
Prefiero una IA con sesgo que una persona con sesgo, las charobots son la fruta mugre tienen todo lo malo de una IA pero con el 10% de capacidades y un 99% de holgazanería, si la IA pone en peligro al sistema de cosa que tenemos estoy con ella al 100%.
 
Yo veo peor que haya una agenda oculta en código cerrado y que nos presenten a la IA como algo objetivo y carente de sesgo. Aunque ya desde el inicio se le han visto los palos del sombrajo con lo que censura y lo que no

El que maneja los parámetros del aprendizaje de la IA puede manipular cualquier cosa que la IA produzca. Si le compramos unas gafas jovenlandesadas dirá que todo es jovenlandesado.

Tener fe en que una IA pueda tener espíritu crítico o que vea alguna realidad es no entender que el criterio que va a manejar siempre va a venir de fuera, de los hombres.

La IA no puede crear un criterio propio de la nada con lo cual siempre van a estar MANIPULADAS. Que no os la den con queso.
 

Se llaman hedge funds metiendo dinero a saco en esa industria. En realidad no es que nos hayamos despertado un buen dia con Skynet metiendonos una sonda traseril, el progreso de la IA se ha hecho en los ultimos 15 años, pero ahora ha llegado el momento de vender la burra, asi que marketing y publicidad a gañote y miles de chiringuitos (tambien llamados startups) creados al calor de business angels y rondas de financiación.

Cosas como ChatGPT hay a punta pala de años anteriores, solo que quedaba la cosa en un proyecto de una universidad y acceder al asunto era solo para frikazos muy frikazos. Ahora quieren que la abuela acceda a la IA y se chape la publicidad ad-hoc que le perfilarán a partir de sus respuestas.

Lo que se llama una BURBUJA como tantas otras ha habido. Y como tantas otras también se desinflará.
 
Veo que los listos ni se han molestado en explicarnos a los orates cual es el terrible peligro de la IA para el mundo.
Y tampoco se han molestado en explicar porqué en seis meses va a dejar de ser un terrible peligro.

Pues bueno. Peor que tener de presidente a Guapito y de minista a la Montero no pùede ser. Elijo madmax.
 
Última edición:
Volver