Alibaba acelera el impulso de la IA con el lanzamiento de un nuevo modelo de código abierto, tecnología de IA de texto a vídeo

La empresa de tecnología china Alibaba lanzó el jueves nuevos modelos de inteligencia artificial de código abierto y tecnología de inteligencia artificial de texto a video, intensificando sus esfuerzos para competir en el campo de rápido crecimiento de la inteligencia artificial generativa.

Los modelos de código abierto, de los cuales hay más de 100, provienen de la familia Qwen 2.5 de Alibaba, su último modelo fundamental de lenguaje grande lanzado en mayo.

Las empresas tecnológicas chinas, al igual que sus homólogas estadounidenses, han invertido mucho en IA generativa, y las empresas se apresuran a desarrollar carteras de productos sólidas y ofertas diversas.

Mientras que competidores como Baidu y OpenAI han adoptado principalmente un enfoque de código cerrado, Alibaba ha adoptado un modelo híbrido, invirtiendo en desarrollos tanto propietarios como de código abierto para ampliar el alcance de sus productos de IA.

Sus nuevos modelos varían en tamaño entre 0,5 y 72 mil millones de parámetros (variables que determinan las capacidades y el rendimiento de un modelo de IA), y ofrecen competencia en matemáticas, codificación y soporte para más de 29 idiomas, dijo Alibaba en un comunicado.

El modelo tiene como objetivo cumplir con una amplia gama de aplicaciones de IA en sectores que incluyen la automoción, los juegos y la investigación científica.

Alibaba también lanzó el jueves un nuevo modelo de texto a video como parte de su familia de generadores de imágenes Tongyi Wanxiang, uniéndose a un número creciente de empresas de tecnología chinas que ingresan a este mercado en crecimiento.

La medida coloca a Alibaba en competencia directa con actores globales como OpenAI, que también ha mostrado interés en la tecnología de texto a video.

En agosto, ByteDance, propietario de TikTok, lanzó su aplicación de conversión de texto a vídeo Jimeng AI en la App Store de Apple para usuarios chinos.

Copyright © Thomson Reuters 2024

Fuente