En este portal utilizamos datos de navegación / cookies propias y de terceros para gestionar el portal, elaborar información estadística, optimizar la funcionalidad del sitio y mostrar publicidad relacionada con sus preferencias a través del análisis de la navegación. Si continúa navegando, usted estará aceptando esta utilización. Puede conocer cómo deshabilitarlas u obtener más información aquí

CLUB VIVAMOS
Suscríbete
Disfruta de los beneficios de El Tiempo
SUSCRÍBETE CLUB VIVAMOS

¡Hola !, Tu correo ha sido verficado. Ahora puedes elegir los Boletines que quieras recibir con la mejor información.

Bienvenido , has creado tu cuenta en EL TIEMPO. Conoce y personaliza tu perfil.

Hola Clementine el correo [email protected] no ha sido verificado. Verificar Correo

icon_alerta_verificacion

El correo electrónico de verificación se enviará a

Revisa tu bandeja de entrada y si no, en tu carpeta de correo no deseado.

SI, ENVIAR

Ya tienes una cuenta vinculada a EL TIEMPO, por favor inicia sesión con ella y no te pierdas de todos los beneficios que tenemos para tí. Iniciar sesión

Hola, bienvenido

¿Cual es la ciudad colombiana clasificada como la más peligrosa del mundo?
¿Cómo va el juicio al expresidente Álvaro Uribe?
¿Accidente de bus en Calarcá?
Frío inusual en Bogotá explicado por el Ideam

Explicativo

Evite hacerle estas preguntas a ChatGPT, los delincuentes podrían usarlas para robar sus datos personales

Un estudio reciente advierte sobre los riesgos de compartir información personal, médica o confidencial con herramientas de inteligencia artificial.

ChatGPT

Es importante ser responsable con el uso de estas herramientas. Foto: iStock

Alt thumbnail

Actualizado:

Compartir
Whatsapp iconFacebook iconX icon
En un contexto donde la inteligencia artificial (IA) ha transformado la manera en que millones de personas acceden a información, se comunican y resuelven problemas, expertos en seguridad digital advierten sobre los riesgos de formular ciertas preguntas a herramientas como ChatGPT. 
De acuerdo con expertos en ciberseguridad, algunas consultas pueden generar respuestas inexactas, poner en riesgo la privacidad del o exponer datos sensibles a terceros no autorizados.

Advertencia sobre el uso de la IA

Aunque ChatGPT de OpenAI ha ganado popularidad por su facilidad de uso y su capacidad para generar textos, resolver dudas o programar, no todas las preguntas son seguras ni apropiadas. Una compañía especializada en ciberseguridad identificó cinco tipos de preguntas que deberían evitarse por razones éticas, de seguridad y eficacia.
Camilo Gutiérrez Amaya, jefe del laboratorio de investigación de ESET Latinoamérica, explicó a 'Semana' que compartir información personal o sensible puede tener consecuencias si una cuenta es comprometida por ciberdelincuentes: “Si un ciberdelincuente consigue acceder a una cuenta, tendrá a toda la información que se comparta con la herramienta”.
ChatGPT

Tenga cuidado con lo que comparte. Foto:iStock

1. Preguntas que implican compartir información confidencial o personal

Nunca se deben compartir datos como nombres, direcciones, números de teléfono, correos electrónicos, contraseñas, cuentas bancarias o números de seguridad social con ChatGPT. 
Aunque parezca una conversación privada, la herramienta no opera en un entorno cifrado de extremo a extremo y la información podría ser usada de forma indebida si es comprometida.

2. Información corporativa o empresarial

La recomendación se extiende a los empleados que utilizan IA en su trabajo. Compartir reportes financieros, estrategias comerciales o detalles de clientes podría poner en riesgo datos corporativos, ya que la IA no distingue automáticamente entre información pública y privada.
.

Evite compartir datos sensibles con la IA. Foto:iStock

3. Consultas sobre salud, asesoría legal o financiera

Según 'The Times of India', uno de cada cinco estadounidenses ha buscado consejo médico en un chatbot, y una encuesta de Tebra mostró que cerca del 25 por ciento preferiría estas herramientas frente a la terapia tradicional.
No obstante, los expertos advierten que ChatGPT no reemplaza a médicos, abogados ni asesores financieros. El riesgo radica en que la IA no tiene al contexto completo ni capacidad de análisis clínico o legal, lo que puede conducir a decisiones erradas.

4. Preguntas que exigen juicios, opiniones o emociones

ChatGPT puede simular una conversación empática, pero no posee conciencia ni sentimientos. Preguntar cosas como “¿Qué harías tú?” o “¿Te parezco interesante?” puede generar respuestas estructuradas, pero no auténticas, lo que puede llevar a malinterpretaciones.

5. Decisiones personales importantes

Las decisiones trascendentales sobre salud mental, relaciones personales o trayectorias profesionales no deberían basarse exclusivamente en las respuestas de una IA. 
Según expertos, estas situaciones requieren un análisis que considere tanto datos objetivos como elementos emocionales y subjetivos.
s ya pueden chatear con Chat GPT desde WhatsApp: así puede acceder desde Colombia

No base sus decisiones en la IA. Foto:iStock

Riesgo de exposición y almacenamiento

Otro aspecto señalado por 'The Times of India' es que las conversaciones con IA pueden almacenarse y no siempre están protegidas contra el externo. Esto significa que cualquier información compartida, incluso en chats temporales, puede eventualmente ser recuperada o utilizada sin el conocimiento del .
De este modo, las herramientas de inteligencia artificial pueden ser útiles para organizar ideas o acceder a información general, pero su uso debe ser cuidadoso y consciente. Evitar compartir datos sensibles o buscar asesoría especializada en temas complejos es clave para usar la IA de forma segura y responsable.
  
*Este contenido fue escrito con la asistencia de una inteligencia artificial, basado en información de conocimiento público divulgado a medios de comunicación. Además, contó con la revisión de la periodista y una editora. 

Más noticias en EL TIEMPO

SOFÍA ARIAS MARTÍNEZ
REDACCIÓN ALCANCE DIGITAL
EL TIEMPO

Sigue toda la información de Cultura en Facebook y X, o en nuestra newsletter semanal.

Compartir
Whatsapp iconFacebook iconX icon

Conforme a los criterios de

Logo Trust Project
Saber más