En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información
aquí
Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
Contenido automatizado
Inteligencia artificial: Microsoft desarrolla una función que podría solucionar errores en tiempo real
Esta herramienta identificará los posibles fallos o alucinaciones comparando los resultados. La empresa asegura que se trata de un paso para tener una IA segura.
Microsoft presentó una nueva función de Corrección ligada al servicio Azure AI Content Safety. Foto: iStock
Microsoft dio un paso adelante en la mejora de la seguridad y la confiabilidad de la inteligencia artificial (IA) con el lanzamiento de una nueva función de Corrección dentro de su servicio Azure AI Content Safety. Esta innovación está diseñada para abordar y corregir los problemas de alucinación en los resultados generados por IA, proceso que incluye la identificación, marcado y reescritura automática de información incorrecta, en tiempo real.
En un contexto donde la confianza en la IA se ha vuelto crucial, Microsoft refuerza su compromiso a través de la iniciativa 'Trustworthy AI'. Esta no solo busca fomentar el uso de una IA segura entre los clientes, sino también elevar los estándares de privacidad y protección en las aplicaciones de IA.
Como parte de esta estrategia, Microsoft introdujo mejoras significativas en las capacidades de sus sistemas para mitigar los riesgos asociados a la tecnología.
La función de Corrección, específicamente, resuelve los comportamientos de alucinación que pueden surgir al emplear modelos de IA. Integrada en el Azure AI Content Safety, esta herramienta forma parte de un conjunto de soluciones avanzadas destinadas a garantizar una IA responsable. Otras funciones incluyen la detección de vulnerabilidades, el bloqueo de mensajes malintencionados y un sistema especializado en la identificación de alucinaciones.
La tecnológica continúa trabajando en su compromiso de garantizar una IA de confianza, en el marco de su iniciativa ‘Trustworthy AI’. Foto:iStock
Esta herramienta trabaja con una característica de 'conexión a tierra' introducida en marzo, diseñada para identificar alucinaciones de texto en aplicaciones que procesan documentos, como los que generan resúmenes o actúan como asistentes en cuestionarios. Ahora, con la función de Corrección en versión preliminar, esta escanea los resultados de IA, detecta imprecisiones y las corrige automáticamente antes de que el final observe cualquier fallo.
Es crucial destacar que la herramienta compara los resultados de la IA con los documentos originales del cliente para identificar errores. Además, proporciona explicaciones sobre por qué una respuesta es considerada incorrecta. Sin embargo, desde Microsoft se advierte que la función de Corrección no es infalible, ya que depende de modelos de lenguaje que pueden contener errores inherentes.
Un portavoz de Microsoft, en declaraciones a 'TechCrunch', señaló que, aunque la detección de base no garantiza la precisión total, sí ayuda a alinear los resultados generativos con los documentos fundamentales. Este esfuerzo es parte de la misión de Microsoft de disipar las preocupaciones que han limitado la adopción de GenAI en áreas críticas y facilitar una implementación más amplia de interfaces conversacionales.
*Este contenido fue hecho con la asistencia de la inteligencia artificial, basado en información de Europa Press, y contó con la revisión del periodista y un editor.