Quiere ser informatico, ayuda. la ia le quitara el empleo

no sabes la de chavales como yo que amaron en los 00s con la cantinela de no estudies informaticas que hay tropecientos mil currando en tienduchas cambia pcs.........

bendita ignorancia.
 
Un ingeniero informático va a tener trabajo.
 
Porque por ahora la IA carece de capacidad de razonamiento (relacionar una causa con un efecto), pero eso no significa que no pueda tenerla más adelante. El razonamiento será otro modelo distinto de los LLMS, quizá el camino para llegar a él son los agentes, o quizá sea otro.

Pero lo que está claro es que si la naturaleza ha sido capaz de llegar a producir algo, sólo tienes que imitar lo que ésta hace para llegar al mismo destino.

La mayoría de los animales tambien carecen de capacidad de razonamiento , pero eso no significa que no pueda tenerla más adelante. Para llegar a una verdadera IA lo que hay que hacer es ver como funciona un cerebro, qué partes tiene y qué hace cada una, y reproducirlo mediante máquinas.

Ah claro, solo hay que saber como funciona el cerebro y replicarlo :p. Pos ya estaría!

Se nos olvida que estamos hablando de seres vivos vs programación. Un paisaje real vs un lienzo que lo representa. No creo que ninguno de los presentes lleguemos a ver a una máquina razonar de una forma parecida a la que hace un humano, ni siquiera si podría llegar a ser posible.

Es más, creo que la IA está confundiendo demasiado a la peña. Al haber conseguido una eficiencia enorme en el uso del lenguaje, tendemos a humanizarla y en vez de ser conscientes de lo que hace, casi casi imaginamos a algo parecido a una persona pensando una respuesta. Y como que está bastante lejos...
 
Eso ChatGpt 4o lo hace de sobra.

Ponme un ejemplo de razonamiento.

Has usado chatgpt alguna vez?

No, claro que no razona.

Para razonar, hay que comprender los elementos de un determinado problema a solucionar. ChatGpt simplemente te da la solución más probable extraída de los datos que tiene almacenados, según su entrenamiento

Si tuviera almacenado como que para solucionar un dolor de muelas el mejor remedio es cortarte la cabeza, es lo que te diría.

Porque no sabe lo que es un dolor, no sabe lo que es una muela, no sabe lo que es una cabeza, y no tiene ni repajolera idea de que si te cortas la cabeza te mueres. Porque no sabe lo que es morirse.

Por eso la IA tiene la enorme limitación de que depende al 100% de sus datos y su entrenamiento. Y esa es la limitación principal para pensar que podamos estar cerca de una IG, que requiere la capacidad de autoentrenamiento y comprensión.

Y por eso es una herramienta huevonuda, con unas posibles aplicaciones infinitas. Pero también con unas limitaciones enormes
 
Ah claro, solo hay que saber como funciona el cerebro y replicarlo :p. Pos ya estaría!

Se nos olvida que estamos hablando de seres vivos vs programación. Un paisaje real vs un lienzo que lo representa. No creo que ninguno de los presentes lleguemos a ver a una máquina razonar de una forma parecida a la que hace un humano, ni siquiera si podría llegar a ser posible.

Es más, creo que la IA está confundiendo demasiado a la peña. Al haber conseguido una eficiencia enorme en el uso del lenguaje, tendemos a humanizarla y en vez de ser conscientes de lo que hace, casi casi imaginamos a algo parecido a una persona pensando una respuesta. Y como que está bastante lejos...
La gente se queda en la superficie. Usa palabras = sabe hablar. Qué representan esas palabras para un LLM no tiene absolutamente nada que ver con qué representan para un humano.
 
Ah claro, solo hay que saber como funciona el cerebro y replicarlo :p. Pos ya estaría!

Se nos olvida que estamos hablando de seres vivos vs programación. Un paisaje real vs un lienzo que lo representa. No creo que ninguno de los presentes lleguemos a ver a una máquina razonar de una forma parecida a la que hace un humano, ni siquiera si podría llegar a ser posible.

Es más, creo que la IA está confundiendo demasiado a la peña. Al haber conseguido una eficiencia enorme en el uso del lenguaje, tendemos a humanizarla y en vez de ser conscientes de lo que hace, casi casi imaginamos a algo parecido a una persona pensando una respuesta. Y como que está bastante lejos...

El problema no lo tenemos los que humanizamos a la IA, el problema lo tenéis los que endiosais a meros organismos biológicos y os creéis que somos seres misteriosos creados por Dios, y que tenemos poderes místicos y divinos. Y en relidad sólo somos sarama andante y rodante, hijos de monos y de sopa primordial que flotaba en la charcas.

Lo que por ahora se "nos" escapa del funcionamiento del cerebro es el mecanismo exacto de grabación y tras*misión de los datos. En informática son ceros y unos, y en genética son las cadenas de ADN lo que se usa para guardar la información, pues en el cerebro es un tipo de almacenamiento analógico que usa química y señales eléctricas al mismo tiempo, y almacena la información clasificándola sensorialmente, simbólicamente, etc... durante el tiempo de sueño "reparador".

fnmol-14-592951-g002.jpg



Cuando olvidamos una palabra o un recuerdo es porque los enlaces entre las zonas donde las neuronas que lo almacenan son muy débiles o ya han desaparecido.

Se estima que un cerebro almacena 2.5 petabytes de información, como se estima que la resolución de la fóvea del ojo es de tan sólo 7 megapixels y el resto sólo es visión periférica-sarama. La cantidad de información que que se puede almacenar en cadenas de ADN? Prácticamente infinita.

1200px-Ged%C3%A4chtnis_modell.es.svg.png
 
Si una IA puede sustituir a programadores Cualquier ING informático podría levantar un Google. Un Amazon. Un Netflix. Un milanuncios De la nada.

De la nada no, Nos olvidamos que el trabajo de la IA requiere unos recursos e infraestructuras que no está al alcance de un particular. Tiene un coste elevado.

El tema está en que si una IA puede reducir a la cuarta parte el trabajo de un programador, las empresas lo que querrán es que sus programadores saquen un producto 4 veces más rápido para adelantarse a la competencia. Las empresas que despidan a las 3 cuartas partes de sus programadores acabarán siendo comidas por sus competidores.
 
El problema no lo tenemos los que humanizamos a la IA, el problema lo tenéis los que endiosais a meros organismos biológicos y os creéis que somos seres misteriosos creados por Dios, y que tenemos poderes místicos y divinos. Y en relidad sólo somos sarama andante y rodante, hijos de monos y de sopa primordial que flotaba en la charcas.

Lo que por ahora se "nos" escapa del funcionamiento del cerebro es el mecanismo exacto de grabación y tras*misión de los datos. En informática son ceros y unos, y en genética son las cadenas de ADN lo que se usa para guardar la información, pues en el cerebro es un tipo de almacenamiento analógico que usa química y señales eléctricas al mismo tiempo, y almacena la información clasificándola sensorialmente, simbólicamente, etc... durante el tiempo de sueño "reparador".

Ver archivo adjunto 2095649



Cuando olvidamos una palabra o un recuerdo es porque los enlaces entre las zonas donde las neuronas que lo almacenan son muy débiles o ya han desaparecido.

Se estima que un cerebro almacena 2.5 petabytes de información, como se estima que la resolución de la fóvea del ojo es de tan sólo 7 megapixels y el resto sólo es visión periférica-sarama. La cantidad de información que que se puede almacenar en cadenas de ADN? Prácticamente infinita.

Ver archivo adjunto 2095650
¿Qué tiene esto que ver con el uso de modelos estocásticos de lenguaje, funciones de activación o lógica difusa?

Porque eso es lo que usan los LLMs.
 
¿Qué tiene esto que ver con el uso de modelos estocásticos de lenguaje, funciones de activación o lógica difusa?

Porque eso es lo que usan los LLMs.

Pues que decir que una máquina no puede llegar a ser inteligente, es como decir que un avión no puede volar porque no aletea las alas.
 
No, claro que no razona.

Para razonar, hay que comprender los elementos de un determinado problema a solucionar. ChatGpt simplemente te da la solución más probable extraída de los datos que tiene almacenados, según su entrenamiento

Si tuviera almacenado como que para solucionar un dolor de muelas el mejor remedio es cortarte la cabeza, es lo que te diría.

Porque no sabe lo que es un dolor, no sabe lo que es una muela, no sabe lo que es una cabeza, y no tiene ni repajolera idea de que si te cortas la cabeza te mueres. Porque no sabe lo que es morirse.

Por eso la IA tiene la enorme limitación de que depende al 100% de sus datos y su entrenamiento. Y esa es la limitación principal para pensar que podamos estar cerca de una IG, que requiere la capacidad de autoentrenamiento y comprensión.

Y por eso es una herramienta huevonuda, con unas posibles aplicaciones infinitas. Pero también con unas limitaciones enormes

Discrepo.

CHATGPT si sabe lo que son esas cosas porque son elementos de información relacionados en un contexto, que es justamente como aprendemos nosotros, de la misma manera.

Te invito a que razones con ChatGpt 4o.
 
Pues eso que el hijo de un amigo quieres ser informatico, pero se quiere hacer un bootcamp de esos.

Yo le he dicho que no se le ocurra tirar el dinero, que en unos 5 años solo habra trabajo para unos 8369 nformaticos en el mundo, ellos manejando la IA, y claro tendran que saber de IA, mas que informaticos sera matematicos muy listos.

Si hasta el chino este que esta forrado, y es mas listo que todo el foro junto lo dice. No estudies programacion una IA lo hara por vosotros


Pues nada, que se quiere tirar creo 3000 euros a la sarama.
Ni tú ni nadie sabe que impacto va a tener la ÍA.

Cuando los refrigeradores salieron por primera vez nadie preveía que los más beneficiados iban a ser los fabricantes de refrescos.

Son muchos años los que hay que trabajar para encima hacerlo en un área que no te gusta. Lo importante es que sea bueno en lo que hace y que hable idiomas. Alguien tendrá que codificar las IAs, integrarlas y validar lo que hacen. A día de hoy es todo una burbuja, así que no es criterio suficiente para tomar una decisión tan importante.
 
Discrepo.

CHATGPT si sabe lo que son esas cosas porque son elementos de información relacionados en un contexto, que es justamente como aprendemos nosotros, de la misma manera.

Te invito a que razones con ChatGpt 4o.
Ayer mismo ChatGPT me la lío en el trabajo por fiarme de él En temas de detalle hace aguas por todas partes.

Pero lo que es más importante carece de un modelo del mundo. ¿Por que te crees que un adolescente, con 20 clases aprende a conducir y la ÍA con millones de horas de entrenamiento no?

El problema de las ÍA actuales es que nos autoinductivas. Utilizan la respuesta que generan para seguir generando respuestas en base a un mapa de correlaciones de tokens (fragmentos de palabras). Un pequeño error en una palabra hace ya se vayan de progenitora. Ya que las siguientes respuestas se desvían aun más.

El día que tengan un modelo del mundo con el que comparar su respuesta hablaremos de otra cosa.
 
El problema no lo tenemos los que humanizamos a la IA, el problema lo tenéis los que endiosais a meros organismos biológicos y os creéis que somos seres misteriosos creados por Dios, y que tenemos poderes místicos y divinos. Y en relidad sólo somos sarama andante y rodante, hijos de monos y de sopa primordial que flotaba en la charcas.

Eso de endiosar la biología o hablar de Dios lo pones tú, yo no he hablado de nada de eso.

Y del resto, me hablas de 'almacenamiento de datos'. Pero no (que es lo importante...) cómo hacemos para utilizarlos. Una IA puede llegar tener muchos más datos que nosotros (no a día de hoy, pero llegará), a pesar de que un cerebro humano alberga muchíiiiiisimo más de lo que la gente cree.
 
Discrepo.

CHATGPT si sabe lo que son esas cosas porque son elementos de información relacionados en un contexto, que es justamente como aprendemos nosotros, de la misma manera.

Te invito a que razones con ChatGpt 4o.

Es lo que te dice otro forero más abajo, no tienen un modelo del mundo. Utilizan las palabras, pero al no tener una comprensión lo que están diciendo, es 'simplemente' (ojo, que me parece acojonante) uno uso muy creativo de la información que tienen.

Pero no tienen lógica, no tienen intuición, no tiene imaginación, no tiene analogía, no tienen inteligencia paralela, no tienen instinto. Nosotros somos capaces de conjugar todo eso (y mucho más...) para 'acortar caminos' y dar resultados, pero la IA solo sabe utilizar la estadística. No saben lo que dicen. Y por eso pueden decir burradas enormes, que ningún ser humano (ni siquiera un niño...) diría.

A ti, como ser pensante, te intentan 'alimentar' con datos que no son correctos, y tu inteligencia se rebela. Porque sí que tienes ese mapa de la realidad que verificas con tus sentidos y la experiencia. La IA no, simplemente partirá de sus datos y su entrenamiento.

De hecho, al final la punta de lanza de la IA para haberse hecho tan famosa son los prompts, tipo ChatGpt. Pero estoy bastante seguro que no es (ni de lejos...) la utilidad que más se va a utilizar.

Y me explico; el prompt viene muy bien para definir el tipo de tarea que tiene que hacer, es una maravilla que te puedas comunicar así y ahorra un montón de tiempo. Pero la potencia de la IA viene de que eso ayude a automatizar procesos, para lo cual está muy preparada.

El problema es que pensemos que es el Oráculo de Delfos, que tiene algún tipo de 'opinión', o que está 'razonando', o que hay algo de sabiduría detrás de sus palbras.

No, empleado en plan conversaciones es como una especie de Google, que en vez de buscar en un montón de páginas, es capaz de ofrecerte las respuestas de una forma humanizada. Al acceder a tanta información y ser capaz de procesarla, produce unos resultados que echan para atrás. Y dan la sensación de ser lo que no son

Pero...sigue sin tener una opinión, ni sabe en absoluto lo que está diciendo.
 
Es lo que te dice otro forero más abajo, no tienen un modelo del mundo. Utilizan las palabras, pero al no tener una comprensión lo que están diciendo, es 'simplemente' (ojo, que me parece acojonante) uno uso muy creativo de la información que tienen.

Pero no tienen lógica, no tienen intuición, no tiene imaginación, no tiene analogía, no tienen inteligencia paralela, no tienen instinto. Nosotros somos capaces de conjugar todo eso (y mucho más...) para 'acortar caminos' y dar resultados, pero la IA solo sabe utilizar la estadística. No saben lo que dicen. Y por eso pueden decir burradas enormes, que ningún ser humano (ni siquiera un niño...) diría.

A ti, como ser pensante, te intentan 'alimentar' con datos que no son correctos, y tu inteligencia se rebela. Porque sí que tienes ese mapa de la realidad que verificas con tus sentidos y la experiencia. La IA no, simplemente partirá de sus datos y su entrenamiento.

De hecho, al final la punta de lanza de la IA para haberse hecho tan famosa son los prompts, tipo ChatGpt. Pero estoy bastante seguro que no es (ni de lejos...) la utilidad que más se va a utilizar.

Y me explico; el prompt viene muy bien para definir el tipo de tarea que tiene que hacer, es una maravilla que te puedas comunicar así y ahorra un montón de tiempo. Pero la potencia de la IA viene de que eso ayude a automatizar procesos, para lo cual está muy preparada.

El problema es que pensemos que es el Oráculo de Delfos, que tiene algún tipo de 'opinión', o que está 'razonando', o que hay algo de sabiduría detrás de sus palbras.

No, empleado en plan conversaciones es como una especie de Google, que en vez de buscar en un montón de páginas, es capaz de ofrecerte las respuestas de una forma humanizada. Al acceder a tanta información y ser capaz de procesarla, produce unos resultados que echan para atrás. Y dan la sensación de ser lo que no son

Pero...sigue sin tener una opinión, ni sabe en absoluto lo que está diciendo.

Por supuesto que tiene conocimiento del mundo, su mundo es el conocimiento del mundo de la humanidad que está registrado en todos los millones de escritos que ha hecho buena parte de la humanidad en su historia.

"Pero no tienen lógica, no tienen intuición, no tiene imaginación, no tiene analogía, no tienen inteligencia paralela"

Os habéis molestado en argumentar algo con ChatGpt, te voy a poner un ejemplo propio:

Conversación sobre incelismo


Preguntas del porque de algo historico


Si esto no es razonar.

Lo que nos hace humanos no es razonar, no es la lógica, ni el habla ni la asociación de palabras. Lo que nos hacemos humanos es otra cosa.
 
Volver