El nuevo modelo de preparación del lenguaje común podría ser “lo más grande desde Bitcoin”

El nuevo modelo de preparación del lenguaje común podría ser “lo más grande desde Bitcoin”

El modelo de manejo del lenguaje de la tercera edad de OpenAI, últimamente impulsado como una beta privada. Las pruebas introductorias muestran que puede ser muy bien utilizado para un colosal surtido de propósitos, incluyendo la producción de escritos prácticos. Un prominente analizador beta piensa en GPT-3 para bloquear la cadena hasta un potencial problemático.

El nuevo modelo de preparación de lenguaje regular de OpenAI, ampliamente útil, se ha abierto recientemente a la beta privada, y a partir de ahora está siendo bañado por la aclamación de los primeros probadores.

El modelo, conocido como Transformador Generativo Preentrenado, o simplemente GPT-3, es un instrumento que puede ser utilizado para examinar una sucesión de palabras, texto u otra información, y desarrollarla para obtener un rendimiento único, por ejemplo, un artículo o una imagen.

“La cosa más grande desde bitcoin”

La capacidad de esta innovación fue demostrada últimamente por el CTO de Zeppelin Solutions, Manuel Araoz, quien produjo un artículo alucinante sobre una investigación falsa en el conocido encuentro de Bitcointalk, utilizando como norma un informe esencial.

En el artículo, llamado “El GPT-3 de OpenAI podría ser lo más grande desde Bitcoin”, GPT-3 produjo una sección de blog de 746 palabras que retrata cómo GPT-3 tuvo la opción de engañar a los individuos de Bitcointalk para que aceptaran que sus comentarios son reales. En unos pocos focos en el contenido, GPT-3 también retrata unos pocos casos de uso potencial para los modelos de expectativa de lenguaje, tomando nota de que podrían ser utilizados para “noticias simuladas, ‘cobertura de noticias investigadas’, publicidad, asuntos gubernamentales y publicidad con propósito”.

Aparte de un montón de cuestiones leves, incluyendo una tabla excluida y la falta de capturas de pantalla a las que se hizo referencia en el contenido, el contenido es básicamente indefinido a partir del compuesto por un individuo genuino.

Este contenido fue creado utilizando sólo un título, un montón de etiquetas, y el breve esquema debajo:

“Comparto mis pruebas iniciales con el nuevo modelo de predicción dialectal (GPT-3) beta de OpenAI. Aclaro por qué creo que el GPT-3 tiene una expectativa problemática prácticamente idéntica a la de la innovación de la cadena de bloques

El informático argentino también utilizó el GPT-3 para hacer que los mensajes complejos fueran cada vez más justificables, componer versos al estilo de Borges (nada menos que en español) y componer música en la documentación del ABC, además de otras cosas. Resultados comparables fueron igualmente producidos por el creador de Debuild.co, Sharif Shameem, quien descubrió cómo hacer que GPT-3 compusiera código JSX a partir de una representación fundamental del formato de un sitio.

La forma más reciente del Transformador Generativo Preentrenado, GPT-3, parece abrumar totalmente las habilidades de sus precursores, al incluir una mente alucinante de 175 mil millones de límites de aprendizaje que permiten que la IA sea apuntada en esencialmente cualquier recado. Esto hace que GPT-3 sea por un amplio margen el mayor modelo de lenguaje hoy en día, en un grado significativo mayor que el modelo de lenguaje Turing-NLG de 17 mil millones de límites de Microsoft.

El acceso al API de GPT-3 es actualmente bienvenido, sin embargo hay una lista de candidatos preseleccionados para el formulario completo. La estimación está todavía en duda.