OpenAI anuncia API en tiempo real, capacitación rápida y mejoras de visión en GPT-4o para desarrolladores

OpenAI organizó su conferencia anual DevDay en San Francisco el martes y anunció varias mejoras nuevas en la versión de la interfaz de programación de aplicaciones (API) de ChatGPT, que puede renovarse y adaptarse para admitir otras aplicaciones y software. Entre ellas, las principales introducciones son API en tiempo real, capacitación rápida y personalización de la visión con GPT-4o. La empresa también facilita el proceso de refinamiento del modelo a los desarrolladores. OpenAI también anunció la finalización de su ronda de financiación y dijo que había recaudado 6.600 millones de dólares (aproximadamente 55.000 millones de rupias) durante el evento.

OpenAI anuncia nuevas funciones para desarrolladores

En varias publicaciones de blog, la empresa de inteligencia artificial destacó nuevas funciones y herramientas para desarrolladores. Eso Primero es una API en tiempo real que estará disponible para los clientes pagos de la API ChatGPT. Esta nueva capacidad ofrece una experiencia multimodal de baja latencia, permitiendo conversaciones de voz a voz similares al modo de voz avanzado de ChatGPT. Los desarrolladores también pueden aprovechar seis sonidos preestablecidos agregados previamente a la API.

Otra nueva introducción son las capacidades de entrenamiento rápido en la API. OpenAI introdujo esta función como una forma para que los desarrolladores ahorren costos en solicitudes utilizadas con frecuencia. La compañía notó que los desarrolladores generalmente seguían enviando los mismos comandos de entrada mientras editaban el código base o mantenían conversaciones de varios turnos con el chatbot. Con una capacitación rápida, ahora pueden reutilizar los comandos de entrada utilizados recientemente con un descuento. La tramitación de los mismos también será más rápida. Se pueden consultar nuevas tarifas Aquí.

El modelo GPT-4o también funciona afinado para tareas relacionadas con la visión. Los desarrolladores pueden personalizar modelos de lenguaje grandes (LLM) entrenándolos en conjuntos de datos visuales fijos y mejorar su eficiencia de salida. Según la publicación del blog, el rendimiento de GPT-4o para tareas de visión se puede mejorar con solo 100 imágenes.

Por último, la empresa también está llevando a cabo el proceso modelo de destilación más fácil para los desarrolladores. El refinamiento de modelos es el proceso de construir modelos de IA más pequeños y refinados a partir de modelos de lenguaje más grandes. Anteriormente, el proceso era engorroso y requería un enfoque de varios pasos. Ahora, OpenAI ofrece nuevas herramientas como Saved Completion (para generar fácilmente conjuntos de datos de destilación), Evals (para ejecutar evaluaciones personalizadas y medir el rendimiento) y Fine-Tuning (ajustar modelos más pequeños directamente después de ejecutar Eval).

En particular, todas estas funciones están actualmente disponibles en versión beta y estarán disponibles para todos los desarrolladores que utilicen la versión paga de la API en una fecha posterior. Además, la compañía dijo que tomará medidas para reducir aún más los costos de los tokens de entrada y salida.

Para conocer las últimas noticias y reseñas sobre tecnología, permanezca atento a Gadgets 360 incógnita, Facebook, Qué es, hilo Y noticias de google. Para ver los últimos vídeos sobre dispositivos y tecnología, suscríbete a nosotros. canal de youtube. Si quieres saber todo sobre los principales influencers, sigue nuestra primicia Quien es360 en Instagram Y YouTube.

Se dice que Google está trabajando en el razonamiento de IA, poniéndose al día con los esfuerzos de OpenAI


Combinaciones de colores de Google Pixel 9a, dimensiones filtradas en línea; Podría obtener un diseño un poco más alto con cuatro colores



Fuente