Google I/o 2024: Gemini 1.5 Pro obtiene una gran actualización a medida que se lanzan los nuevos modelos Flash y Gemma AI

Google celebró el martes una sesión magistral de su evento anual Google I/O centrado en desarrolladores. Durante la sesión, el gigante tecnológico se centró en gran medida en los nuevos desarrollos en el campo de la inteligencia artificial (IA) e introdujo varios modelos nuevos de IA, así como nuevas características para su infraestructura existente. Un punto destacado clave es la introducción de una ventana contextual de dos millones de tokens para Gemini 1.5 Pro, que actualmente está disponible para los desarrolladores. También se introdujeron una variante Gemini más rápida, así como el modelo de lenguaje pequeño (SML) de próxima generación de Google, Gemma 2.

El evento fue iniciado por el CEO Sundar Pichai, quien hizo uno de los anuncios más importantes de la noche: la disponibilidad de una ventana contextual de dos millones de tokens para Gemini 1.5 Pro. La compañía introdujo una ventana de contexto de un millón de tokens a principios de este año, pero hasta ahora solo está disponible para desarrolladores. Google ahora lo ha hecho disponible de forma general en una vista previa pública y se puede acceder a él a través de Google AI Studio y Vertex AI. Por el contrario, la ventana de contexto de dos millones de tokens está disponible exclusivamente a través de una lista de espera para desarrolladores que utilizan la API y para clientes de Google Cloud.

Con una ventana de contexto de dos millones, afirma Google, el modelo de IA puede procesar dos horas de vídeo, 22 horas de audio, más de 60.000 líneas de código o más de 1,4 millones de palabras a la vez. Además de mejorar la comprensión contextual, el gigante tecnológico también mejora la codificación, el razonamiento lógico, la planificación, las conversaciones de varios turnos y la comprensión de imágenes y audio de Gemini 1.5 Pro. El gigante tecnológico también está integrando modelos de IA en sus aplicaciones Gemini Advanced y Workspace.

Google también ha introducido nuevas incorporaciones a la familia de modelos Gemini AI. El nuevo modelo de IA, denominado Gemini 1.5 Flash, es un modelo liviano diseñado para ser más rápido, con mayor capacidad de respuesta y rentable. El gigante tecnológico dijo que ha estado trabajando para mejorar su latencia para mejorar su velocidad. Si bien completar tareas complejas no es su punto fuerte, puede realizar tareas como resúmenes, aplicaciones de chat, subtítulos de imágenes y videos, extracción de datos de documentos y tablas extensos, y mucho más.

Por último, el gigante tecnológico anunció la próxima generación de su modelo de IA más pequeño, Gemma 2. Este modelo viene con 27 mil millones de parámetros pero puede funcionar de manera eficiente en una GPU o una sola TPU. Google afirma que el Gemma 2 supera a los modelos que duplican su tamaño. La compañía no ha publicado sus puntuaciones de referencia.

Fuente