El uso cotidiano de chatbots de inteligencia artificial crece de forma acelerada, pero muchos usuarios desconocen que parte de la información que comparten puede emplearse para entrenar estos sistemas. Ante este escenario, las principales plataformas han incorporado opciones que permiten limitar este uso y reforzar la protección de los datos personales, en un contexto donde la privacidad digital cobra mayor relevancia.
Herramientas como ChatGPT, Gemini, Claude y Perplexity ofrecen configuraciones para impedir que las conversaciones sean utilizadas en el entrenamiento de modelos. Esta medida no afecta la calidad de las respuestas, pero sí disminuye el riesgo de que información sensible quede integrada en sistemas de inteligencia artificial.

Estos servicios operan mediante modelos de lenguaje de gran escala (LLM), que requieren grandes volúmenes de datos para mejorar su desempeño. El proceso de entrenamiento incluye información proveniente tanto de fuentes públicas como de interacciones con usuarios, lo que ha generado inquietudes en torno a la privacidad.
Cada dato o instrucción ingresada puede convertirse en material de entrenamiento, lo que implica que información personal, profesional o confidencial podría utilizarse para perfeccionar estos sistemas. Aunque las empresas aseguran aplicar mecanismos de anonimización, no existen garantías absolutas de que esos datos no puedan ser reidentificados en el futuro.
Leer también: Secretario particular de Carlos Manzo falta a tres citatorios de la Fiscalía de Michoacán por caso Uruapan
Frente a ello, existen acciones concretas para reducir la exposición de información. Para desactivar esta función, en ChatGPT se debe ingresar al perfil, ir a “Configuración”, acceder a “Controles de datos” y desactivar “Mejorar el modelo para todos”; en Gemini, entrar a la configuración de actividad, cambiar la opción a “Desactivar” y confirmar; en Claude, acceder al perfil, ir a privacidad y desactivar “Ayudar a mejorar Claude”; mientras que en Perplexity, se debe ir a “Configuración”, luego “Preferencias” y desactivar “Retención de datos de IA”.
Tras realizar estos ajustes, las plataformas dejan de utilizar las conversaciones para entrenar sus modelos, al menos según sus políticas oficiales, aunque algunas compañías pueden conservar datos por un periodo determinado por razones legales o de seguridad. El riesgo aumenta cuando se comparten datos sensibles, como información de salud, finanzas o temas laborales, especialmente en entornos empresariales donde puede existir exposición de información estratégica.

Especialistas recomiendan complementar estas medidas con buenas prácticas, como evitar compartir datos personales innecesarios, anonimizar documentos antes de subirlos y revisar periódicamente las políticas de privacidad. Desactivar el uso de datos para entrenamiento no elimina por completo la exposición, pero sí representa un paso importante para recuperar el control de la privacidad en un entorno cada vez más dominado por sistemas inteligentes.


