Lo que digas puede ser usado en tu contra: el vacío legal en la privacidad de la IA

Usuarios de ChatGPT y otros chatbots conversacionales no cuentan con protección legal sobre lo que comparten. Descubre por qué tus palabras podrían ser utilizadas como evidencia judicial y qué riesgos enfrentas al usar estas herramientas.

masclaro.mx
today 29/07/2025

Por Mario Victorino


En medio del auge de los modelos de inteligencia artificial conversacional como ChatGPT, usuarios de todo el mundo enfrentan una realidad inquietante: lo que comparten con estos sistemas no está protegido legalmente, y puede ser utilizado en su contra en contextos judiciales o administrativos.

La revelación de que las conversaciones con estas plataformas carecen de confidencialidad jurídica sacudió a especialistas en tecnología, derechos digitales y justicia. A diferencia de una consulta médica, legal o psicológica, no existe un marco legal que respalde el carácter privado de lo que se comunica con un chatbot, incluso si el usuario trata temas sensibles, personales o comprometidos.


⚖️ ¿Qué puede suceder con tus conversaciones?

La falta de protección legal implica que, ante una orden judicial válida, empresas como OpenAI podrían estar obligadas a entregar el historial completo de chats de un usuario. Este contenido podría ser utilizado como evidencia en investigaciones civiles o penales, independientemente del contexto en que fue escrito.

Aunque algunos desarrolladores aseguran que estos sistemas no almacenan datos identificables, los términos de uso permiten utilizar las conversaciones para entrenar modelos, realizar mejoras o responder a solicitudes legales. Esto convierte al historial del usuario en una fuente potencialmente accesible para terceros.


🇲🇽 Riesgos legales en México

En México, la Ley Federal de Protección de Datos Personales en Posesión de los Particulares autoriza a las autoridades a requerir información sin el consentimiento del usuario, siempre que exista una orden judicial fundamentada. Esto incluye contenido alojado por plataformas internacionales, que deben cooperar con los marcos legales locales.

Dado que muchas personas utilizan estos sistemas como espacio para desahogarse, buscar consejos o resolver dudas íntimas, los riesgos de compartir datos personales o decisiones legales son significativos.


🛡️ Recomendaciones para los usuarios

Trata a los chatbots como espacios públicos, no privados.

Evita compartir información sensible, legalmente comprometedora o emocionalmente vulnerable.

Revisa los términos de servicio antes de interactuar con cualquier IA.

Utiliza canales seguros y confidenciales cuando necesites asesoría especializada.