GPT-4 Turbo es una versión mejorada y de amplio lenguaje (modelo lingüístico LLM) que supera a los dos modelos anteriores de GPT-3.5 y GPT-4, según lo informado por Sam Altman hace apenas unos pocos días. Conoce de qué se trata esta nueva versión con mayores fortalezas.
GPT-4 Turbo solo se encuentra disponible para usuarios de pagos avanzados mediante la API (Interfaz de programación de aplicaciones) y que fue anunciado en un acontecimiento único en la primera gran reunión de desarrolladores de OpenAI. Pero a qué nos referimos cuando decimos que Sam Altman elevó el listón.
¿Por qué Sam Altman eleva el listón en la carrera de la IA?
Una vez que Grok (la IA de Elon Musk) aparece haciendo ruido, Altman quiso acallar un poco esa salida oficial y para no dejar de ser noticia, en este evento menciona que GPT-4 Turbo, es un modelo avanzado que cuenta con una longitud de contexto de 128K. Ahora bien, ¿qué significa esto? Para los que necesitamos entender un poco más las terminologías tecnológicas e interpretar lo que dice el padre de ChatGPT, es que:
Una longitud de contexto representa cierta cantidad de Tokens. Por ejemplo, una oración o palabra podría ser equivalente a un token. Esto quiere decir, que entre más grande sea la longitud mucho mayor será el prompt que requiere interpretar el modelo de la IA para ofrecer una respuesta.
Todo dependerá de la variabilidad del cálculo de acuerdo con el prompt (que se define como un corto texto que se muestra en la pantalla cuando se procede abrir la consola o terminal informático, y que no es más que la interfaz o programa de usuario que ejecuta líneas de comandos y que a su vez realizan acciones).
Vamos con un ejemplo, unas 2048 fichas (o tokens) estás equivalen a unas 1500 palabras. Así que, cuando expresa que tiene una longitud de 128K (128.000 fichas, que es la capacidad con que leen los LLM o modelo grande de lenguaje), esto se compara a algo así como unas “300 páginas de texto o lo que puede fácilmente ser un ejemplar, volumen o tomo”.
Dándonos a entender que de una sola conversación de ChatGPT podría hablar sobre un tema específico un libro entero.
¿Cómo acceder a GPT-4 Turbo?
Lo que explica OpenAI es que esta forma mejorada posee características muy superiores a sus antecesores y que para los usuarios (avanzados) que quieran conocer a GPT-4 Turbo, tendrán que pagar con fichas (tokens) y acceder a la API.
Y es que está actualización de GPT-4 Turbo llega mucho más potente, además de que tiene un coste más bajo comparado con los anteriores modelos.
Mediante su uso la IA (ChatGPT) podrá acceder a información mucho más actual. Recordemos que de acuerdo con los acontecimientos la última fue hasta septiembre de 2021, mientras que esta llega hasta abril de 2023 y lo mejor de todo es que ya está disponible.
¿Y el coste?
En cuanto a precio, se habla de 0,01$ por cada mil fichas de entrada, esto equivale a unas 750 palabras para que sean ejecutadas por desarrolladores. Si se habla de resultados, su coste se encuentra en 0.03$ por los mismos mil tokens. Esto hace que la estimación en relación a su importe, resulte mucho más barata que las versiones anteriores.
Características de GPT-4 Turbo
Además de lo dicho hasta los momentos y de acuerdo con lo señalado por OpenAI, la herramienta GPT-4 Turbo:
- Sigue instrucciones cuidadosamente.
- Usa el lenguaje de codificación (XML o JSON) de su preferencia para dar resultados.
- Admite texto de voz e imágenes.
- Continúa integrada a DALL-E 3.
- Cuenta con versiones personalizadas de ChatGPT donde cualquier usuario, desarrollador o no podrá usar los nuevos modelos para sus propios proyectos y sin necesitar codificación.
- Disponible para uso personal o empresarial, incluso distribuirlo a otro.
- Ofrece versiones de ChatGPT para entretenimiento, educación, productividad, entre otros.
Por último y no menos importante, en relación a los derechos de autor, OpenAI (así como Microsoft y Google) confirmaron que se harán responsables (en cuanto a legalidad) de los clientes en caso de que sean demandados por infringir los derechos de autor.
Al final del día veremos que nos traerá esta carrera de la IA que por lo que se observa está mucho más veloz que las 500 millas de Indianápolis, pues con todas estas características, más la protección en cuanto a los derechos de autor, cabe hacernos una pregunta ¿Será GPT-4 Turbo tan bueno para ser verdad? O al final del túnel no habrá luz y si un lado oscuro que está por verse.
Así que con GPT-4 Turbo esta nueva versión, no solo deberá demostrar su gran capacidad (que ya la tiene), sino también, que no presentará inconvenientes que ya otras IA y lenguaje LLM han tenido como fue el caso de Bing (Microsoft), cuando basado por supuesto en una pregunta, respondió que “quería ser humano”. En este caso, esperemos no tener estas respuestas porque de ser así, presenciaremos exponencialmente más demenciales resultados, que la que dio Bing Chat.
- Pingback: ¿Existen errores en la inteligencia artificial? - Crapthor
Deja una respuesta