En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información
aquí
Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
Nueva York utiliza Inteligencia Artificial para 'predecir' crímenes
El uso de IA en la vigilancia en línea plantea preguntas sobre la privacidad de los s.
La llegada de la Inteligencia Artificial (IA) sigue dando de qué hablar. Sus distintos programas se han incluido en varias áreas que abarcan desde la publicidad, el cine y los empleos, hasta las investigaciones criminales.
En Estados Unidos, específicamente en Nueva York, un nuevo proceso para prevenir delitos sale a la luz y genera varias críticas sobre la privacidad de los cibernautas. Las autoridades están utilizando IA para análisis de rastreo en redes sociales.
El Proyecto de Supervisión de Tecnología de Vigilancia (Stop), reveló que la Policía de Nueva York ha destinado millones de dólares en la adquisición de productos y servicios de inteligencia artificial para ampliar sus capacidades de seguimiento y análisis de publicaciones en redes sociales.
Estos sistemas de inteligencia artificial se utilizan para analizar el comportamiento humano en línea y así, detectar y predecir fraudes y delitos. Según la organización mencionada, dedicada a combatir la vigilancia masiva y proteger la privacidad, la cifra asciende a 9 millones de dólares en contratos con Voyager Labs.
Si bien la policía de Nueva York ha confirmado que emplea tecnologías de análisis de redes sociales para vigilar a sospechosos de una variedad de delitos, la entidad ha aclarado que no usa las herramientas predictivas ofrecidas por Voyager Labs.Sin embargo, afirmaron que su objetivo es vigilar personas que puedan cometer violencia armada, terrorismo y trata de personas.
William Colston, vicepresidente de marketing global de Voyager Labs, afirmó que su empresa solo utiliza datos públicos disponibles y que su software no pretende reemplazar la supervisión y el análisis realizados por especialistas humanos.
"Voyager Labs usa un equipo de nivel mundial de investigadores en IA, científicos e ingenieros de datos, incluidos pioneros de aprendizaje automático y profundo, visión por computadora y comprensión del lenguaje natural (NLU)", explican en su página web.
Sin embargo, el Proyecto de Supervisión de Tecnología de Vigilancia sugieren que la compañía ofrece herramientas que pueden predecir futuros delitos y asignar puntuaciones de riesgo a s en redes sociales en función de sus vínculos o afinidades con el fundamentalismo islámico o el extremismo, según explica el Departamento de Policía de los Ángeles.
Chat Inteligencia Artificial. Foto:EFE/iStock
Aunque el análisis de redes sociales por parte de las fuerzas de seguridad no es una práctica nueva, expertos advierten que puede plantear cuestiones éticas y legales cuando se utiliza para acceder a información privada, hacer inferencias o predecir la delincuencia futura basándose en contenido publicado en redes sociales.
Meta, la empresa matriz de Facebook e Instagram, solicitó a la justicia, en enero de este año, que se le impida a Voyager Labs acceder a sus aplicaciones, argumentando que empresas como Voyager forman parte de una industria que recopila información de manera encubierta, lo que podría afectar los derechos civiles de las personas.
El uso creciente de la inteligencia artificial en la vigilancia en línea plantea importantes preguntas sobre la privacidad y la ética, y sigue siendo un tema de debate en Nueva York y en todo el mundo.