You are currently viewing Investigación en IA galardonada en Bensheim

Investigación en IA galardonada en Bensheim

Nos complace mucho compartir hoy una historia de éxito muy especial de nuestro equipo: nuestro colega Ernesto Curmen ha sido premiado por su destacado trabajo de máster. En su contribución, él mismo nos ofrece una visión del apasionante contenido y cuenta qué temas le han marcado especialmente. ¡Que disfruten la lectura!

Retrieval Augmented Generation, o RAG por sus siglas en inglés, ha cambiado para siempre el panorama de la búsqueda de documentos. El planteamiento básico es muy sencillo: los documentos se dividen en secciones de texto más pequeñas (chunks). Estos chunks se convierten en embeddings (representaciones vectoriales que contienen la información semántica del texto) y se almacenan en una base de datos. Tras este proceso, un usuario puede formular una pregunta, cuyo embedding también se genera y se coloca en la base de datos, de modo que se pueden recuperar todos los embeddings más cercanos desde el punto de vista semántico. Estos fragmentos de texto seleccionados se utilizan finalmente para generar la respuesta.

Sin embargo, existe un problema central con RAG: las soluciones tradicionales ignoran el contexto general, lo que a menudo provoca que el sistema no encuentre información relevante en la base de conocimiento. Por ejemplo, un usuario hipotético podría formular la siguiente pregunta al sistema: «¿Qué decisiones se tomaron respecto a los próximos pasos en la escuela Max Mustermann?» Este usuario desea obtener información sobre plazos, pasos previstos y acuerdos relacionados con la construcción de la escuela. Sin embargo, el fragmento correspondiente, en el que se encuentra la respuesta, puede no contener ninguna referencia explícita a la escuela Max Mustermann y, por lo tanto, no puede ser recuperado con éxito para generar la respuesta.

La imagen muestra un ejemplo gráfico de una consulta RAG con fragmentos resaltados.

En mi trabajo de máster abordé este problema e implementé el enfoque de «Contextual-RAG» con el corpus de protocolos plenarios del grupo de investigación DisLab de la Universidad Técnica de Darmstadt. El paso de contextualización tiene lugar después de dividir el texto en chunks y antes de convertirlos en embeddings. Cada chunk se enriquece con contexto relevante, procedente de declaraciones anteriores o posteriores, o incluso vinculado a la idea principal del texto completo. Así, cada chunk se complementa con pistas semánticas que antes no estaban explícitamente presentes, pero que ahora pueden coincidir con la consulta de un usuario. Esta contextualización se llevó a cabo con modelos lingüísticos locales disponibles públicamente. Los resultados permiten concluir que la aplicación de Contextual-RAG en la búsqueda de un corpus político alcanza hasta un 18 % más de rendimiento en recall que el uso de Basic-RAG. Es decir, se encuentran más resultados relevantes entre las top-k respuestas.

La imagen muestra un gráfico de barras con resultados de recall y MRR de diferentes enfoques RAG.

Los conocimientos y métodos obtenidos en este trabajo se incorporarán directamente al software empresarial Inno:docs. Inno:docs es un chatbot impulsado por IA que permite buscar datos de la empresa en lenguaje natural y proporciona respuestas basadas en hechos. El enfoque Contextual-RAG permite al sistema encontrar más documentos relevantes, ya que cada chunk tiene en cuenta el contexto completo del texto y no se almacena de forma aislada en la base de datos.

 

Imagen: Innomatik AG