Liquid AI anuncia un modelo de IA generativo de base líquida con una huella de memoria más pequeña

Liquid AI, una startup de inteligencia artificial (IA) con sede en Massachusetts, anunció su primer modelo de IA generativa que no se basa en arquitecturas de transformadores existentes. Esta nueva arquitectura, denominada Liquid Foundation Model (LFM), se aleja de los Transformadores Generativos Preentrenados (GPT) que son la base de modelos de IA populares como la serie GPT de OpenAI, Gemini, Copilot y más. La startup afirma que el nuevo modelo de IA se construye a partir de los primeros principios y supera a los modelos de lenguaje grande (LLM) en grupos de tamaño comparable.

Nuevo modelo de base líquida de Liquid AI

La startup fue cofundada por investigadores del Laboratorio de Inteligencia Artificial y Ciencias de la Computación (CSAIL) del Instituto de Tecnología de Massachusetts (MIT) en 2023 y tiene como objetivo construir una nueva arquitectura para modelos de IA que puedan funcionar al mismo nivel o superar a GPT. .

Este nuevo LFM es disponible en tres tamaños de parámetros 1.3B, 3.1B y 40.3B. El último es el modelo Mixture of Experts (MoE), lo que significa que consta de varios modelos de lenguaje más pequeños y está destinado a manejar tareas más complejas. LFM ahora está disponible en Liquid Playground de la compañía, Lambda para UI y Chat API, y Perplexity Labs y pronto se agregará a Cerebras Inference. Además, el modelo de IA se está optimizando para hardware de Nvidia, AMD, Qualcomm, Cerebras y Apple, dijo la compañía.

LFM también difiere significativamente de la tecnología GPT. La empresa destaca que este modelo se construye a partir de primeros principios. Los primeros principios son esencialmente un enfoque de resolución de problemas en el que la tecnología compleja se descompone hasta sus conceptos básicos y luego se construye a partir de ahí.

Según la startup, este nuevo modelo de IA se basa en algo llamado unidad informática. En pocas palabras, es un rediseño del sistema de tokens y, en su lugar, la empresa utiliza el término sistema Liquid. Contiene información concisa con enfoque en maximizar el conocimiento y la capacidad de razonamiento. La startup afirma que el nuevo diseño ayuda a reducir los costos de memoria durante la inferencia y mejora el rendimiento en video, audio, texto, series temporales y señales.

La compañía afirma además que la ventaja de los modelos de IA basados ​​en Liquid es que la arquitectura se puede optimizar automáticamente para una plataforma específica en función de los requisitos y el tamaño de la caché de inferencia.

Aunque muchos proyectos son creados por empresas emergentes, su rendimiento y eficiencia solo se pueden medir cuando los desarrolladores y las empresas comienzan a utilizarlos para sus flujos de trabajo de IA. La startup no reveló la fuente de su conjunto de datos ni ninguna medida de seguridad agregada a los modelos de IA.

Fuente