Microsoft lanza ‘Corrección’, función de IA que puede detectar y corregir alucinaciones de IA

Microsoft presentó el martes nuevas capacidades de inteligencia artificial (IA) que identificarán y corregirán casos en los que los modelos de IA produzcan información incorrecta. La función, denominada “Correcciones”, se está integrando en el sistema de detección de conexión a tierra de Azure AI Content Safety. Dado que esta característica sólo está disponible a través de Azure, es probable que esté dirigida a los clientes empresariales del gigante tecnológico. La empresa también está trabajando para encontrar otros métodos para reducir la incidencia de las alucinaciones de IA. En particular, la función también puede mostrar una explicación de por qué un segmento de texto se destacó como información errónea.

Lanzamiento de la función “Corrección” de Microsoft

en un publicación de blogEl gigante tecnológico con sede en Redmond detalló una nueva característica que, según afirma, puede combatir casos de alucinaciones de IA, un fenómeno en el que una IA responde a una pregunta con información incorrecta y no reconoce su falsedad.

Esta característica está disponible a través del servicio Azure de Microsoft. El sistema de seguridad de contenido Azure AI tiene una herramienta llamada detección de desconocimiento. Esta herramienta identifica si la respuesta generada se basa en la realidad o no. Si bien la herramienta en sí funciona de varias maneras para detectar eventos alucinatorios, la función de Corrección funciona de una manera específica.

Para que Corrección funcione, los usuarios deben estar conectados a un documento base de Azure, que se usa en resúmenes de documentos y escenarios de preguntas y respuestas basados ​​en recuperación, aumento y generación (RAG). Una vez conectados, los usuarios pueden activar la función. Después de eso, cada vez que se crea una oración infundada o incorrecta, la función activará una solicitud de corrección.

En términos simples, un documento de referencia puede entenderse como una guía que un sistema de IA debe seguir al generar respuestas. Este documento puede ser material fuente para una consulta o una base de datos más grande.

Luego, la función evaluará la declaración en función de los documentos subyacentes y, si se encuentra información errónea, la filtrará. Sin embargo, si el contenido coincide con el documento subyacente, la función puede reescribir la oración para garantizar que no se malinterprete.

Además, los usuarios también tendrán la opción de habilitar el razonamiento cuando configuren la capacidad por primera vez. Al habilitar esto, la función de IA agregará una explicación sobre por qué cree que la información es incorrecta y debe corregirse.

Un portavoz de la empresa notificado The Verge dice que la función de Corrección utiliza tanto un modelo de lenguaje pequeño (SLM) como un modelo de lenguaje grande (LLM) para alinear la salida con el documento base. “Es importante tener en cuenta que la detección de referencia no resuelve la ‘precisión’, sino que ayuda a alinear la salida de la IA generativa con los documentos de referencia”, dijo la publicación citando al portavoz.

Fuente