davitin
Será en Octubre
- Desde
- 20 Jul 2009
- Mensajes
- 53.511
- Reputación
- 105.798
Yo el 3.5 lo estoy usando bastante, para estudiar y para traducir algunas cosas, a veces te mete invents el macho cabrío, también traduciendo, un truco si estás traduciendo algo muy extenso, por ejemplo un libro, es hacer un copy paste de las páginas y cuando te haga la traducción comprobar si las últimas frases del texto coinciden con las de la versión en inglés, si la frase es diferente entonces toca buscar en qué punto del texto se ha empezado a inventar cosas, cuando lo encuentras ya sabes que a partir de ahí hay que borrar por qué cuando coge la senda del invent ya no para, en cambio si la última frase que te ha traducido corresponde con el texto en inglés entonces está todo bien y no se ha inventado nada.Si lo preguntas al Chat lanza evasivas, pero a simple vista es muy superior, en las traducciones acierta bastante incluso en idiomas raros.
Creo que en el 4.0 lo van actualizando de forma muy constante. Antes la 4.0 iba muy lenta, ahora va muy rapida, excepto cuando realizas una pregunta compleja
Tienes 25 peticiones cada 3 horas, pero creo que nunca hemos llegado a tanto.
Yo lo veo como una ayuda o una segunda opinión.
----------------
Hasta mi última actualización en septiembre de 2021, OpenAI había lanzado oficialmente hasta la versión GPT-3 de su modelo de lenguaje. No se habían lanzado versiones de GPT-3.5 o GPT-4. Por lo tanto, no puedo proporcionar una comparación entre estas versiones.
Sin embargo, con cada actualización de su modelo, OpenAI generalmente se enfoca en mejorar la capacidad del modelo para comprender y generar texto de una manera más precisa, coherente y relevante. Esto podría implicar hacer que el modelo sea más grande (en términos de la cantidad de parámetros), más eficiente (en términos de la velocidad a la que puede generar texto), más comprensivo (en términos de la gama de temas y contextos que puede manejar), y/o más seguro (en términos de su capacidad para evitar generar contenido ofensivo o engañoso).
Para obtener detalles específicos sobre cualquier versión posterior a GPT-3, te sugeriría que busques la documentación oficial o los anuncios de OpenAI.
Hace poco vi un vídeo de un tío que controla bastante de prompts y contaba que un norteamericano había ideado una forma de hacer "pensar" a ChatGpt usando un esquema "arborescente", básicamente obligaba a ChatGpt a dialogar consigo mismo discutiendo los pros y contras de varias respuestas distintas a un mismo problema y a elegir la que tenga más probabilidades de ser cierta, según el tipo con esto se consigue una lógica mucho más precisa y mejores respuestas.