En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información
aquí
Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión
¡Hola! Parece que has alcanzado tu límite diario de 3 búsquedas en nuestro chat bot como registrado.
¿Quieres seguir disfrutando de este y otros beneficios exclusivos?
Adquiere el plan de suscripción que se adapte a tus preferencias y accede a ¡contenido ilimitado! No te
pierdas la oportunidad de disfrutar todas las funcionalidades que ofrecemos. 🌟
¡Hola! Haz excedido el máximo de peticiones mensuales.
Para más información continua navegando en eltiempo.com
Error 505
Estamos resolviendo el problema, inténtalo nuevamente más tarde.
Procesando tu pregunta... ¡Un momento, por favor!
¿Sabías que registrándote en nuestro portal podrás acceder al chatbot de El Tiempo y obtener información
precisa en tus búsquedas?
Con el envío de tus consultas, aceptas los Términos y Condiciones del Chat disponibles en la parte superior. Recuerda que las respuestas generadas pueden presentar inexactitudes o bloqueos, de acuerdo con las políticas de filtros de contenido o el estado del modelo. Este Chat tiene finalidades únicamente informativas.
De acuerdo con las políticas de la IA que usa EL TIEMPO, no es posible responder a las preguntas relacionadas con los siguientes temas: odio, sexual, violencia y autolesiones
Explicativo
Evite hacerle estas preguntas a ChatGPT, los delincuentes podrían usarlas para robar sus datos personales
Un estudio reciente advierte sobre los riesgos de compartir información personal, médica o confidencial con herramientas de inteligencia artificial.
Es importante ser responsable con el uso de estas herramientas. Foto: iStock
En un contexto donde la inteligencia artificial (IA) ha transformado la manera en que millones de personas acceden a información, se comunican y resuelven problemas, expertos en seguridad digital advierten sobre los riesgos de formular ciertas preguntas a herramientas como ChatGPT.
De acuerdo con expertos en ciberseguridad, algunas consultas pueden generar respuestas inexactas, poner en riesgo la privacidad del o exponer datos sensibles a terceros no autorizados.
Advertencia sobre el uso de la IA
Aunque ChatGPT de OpenAI ha ganado popularidad por su facilidad de uso y su capacidad para generar textos, resolver dudas o programar, no todas las preguntas son seguras ni apropiadas. Una compañía especializada en ciberseguridad identificó cinco tipos de preguntas que deberían evitarse por razones éticas, de seguridad y eficacia.
Camilo Gutiérrez Amaya, jefe del laboratorio de investigación de ESET Latinoamérica, explicó a 'Semana' que compartir información personal o sensible puede tener consecuencias si una cuenta es comprometida por ciberdelincuentes: “Si un ciberdelincuente consigue acceder a una cuenta, tendrá a toda la información que se comparta con la herramienta”.
1. Preguntas que implican compartir información confidencial o personal
Nunca se deben compartir datos como nombres, direcciones, números de teléfono, correos electrónicos, contraseñas, cuentas bancarias o números de seguridad social con ChatGPT.
Aunque parezca una conversación privada, la herramienta no opera en un entorno cifrado de extremo a extremo y la información podría ser usada de forma indebida si es comprometida.
2. Información corporativa o empresarial
La recomendación se extiende a los empleados que utilizan IA en su trabajo. Compartir reportes financieros, estrategias comerciales o detalles de clientes podría poner en riesgo datos corporativos, ya que la IA no distingue automáticamente entre información pública y privada.
Evite compartir datos sensibles con la IA. Foto:iStock
3. Consultas sobre salud, asesoría legal o financiera
Según 'The Times of India', uno de cada cinco estadounidenses ha buscado consejo médico en un chatbot, y una encuesta de Tebra mostró que cerca del 25 por ciento preferiría estas herramientas frente a la terapia tradicional.
No obstante, los expertos advierten que ChatGPT no reemplaza a médicos, abogados ni asesores financieros. El riesgo radica en que la IA no tiene al contexto completo ni capacidad de análisis clínico o legal, lo que puede conducir a decisiones erradas.
4. Preguntas que exigen juicios, opiniones o emociones
ChatGPT puede simular una conversación empática, pero no posee conciencia ni sentimientos. Preguntar cosas como “¿Qué harías tú?” o “¿Te parezco interesante?” puede generar respuestas estructuradas, pero no auténticas, lo que puede llevar a malinterpretaciones.
Las decisiones trascendentales sobre salud mental, relaciones personales o trayectorias profesionales no deberían basarse exclusivamente en las respuestas de una IA.
Según expertos, estas situaciones requieren un análisis que considere tanto datos objetivos como elementos emocionales y subjetivos.
No base sus decisiones en la IA. Foto:iStock
Riesgo de exposición y almacenamiento
Otro aspecto señalado por 'The Times of India' es que las conversaciones con IA pueden almacenarse y no siempre están protegidas contra el externo. Esto significa que cualquier información compartida, incluso en chats temporales, puede eventualmente ser recuperada o utilizada sin el conocimiento del .
De este modo, las herramientas de inteligencia artificial pueden ser útiles para organizar ideas o acceder a información general, pero su uso debe ser cuidadoso y consciente. Evitar compartir datos sensibles o buscar asesoría especializada en temas complejos es clave para usar la IA de forma segura y responsable.
*Este contenido fue escrito con la asistencia de una inteligencia artificial, basado en información de conocimiento público divulgado a medios de comunicación. Además, contó con la revisión de la periodista y una editora.