ChatGPT es un poderoso asistente de IA(nueva ventana) usado diariamente por millones de usuarios cada día, pero ¿es seguro usarlo? Es propiedad y está operado por OpenAI, una de las mayores empresas tecnológicas del mundo. Y como muchas plataformas de Big Tech, OpenAI recopila grandes cantidades de datos de usuario. Esos datos no están protegidos con cifrado de acceso cero, por lo que la empresa puede divulgarlos a socios comerciales (incluidas empresas de publicidad y analítica), al gobierno y a hackers en caso de una vulneración de datos.
Detrás de escena, los modelos de lenguaje de gran tamaño (LLM) de OpenAI aprenden constantemente de lo que usted escribe. Preguntas sensibles, como consultar sobre síntomas de salud, asuntos legales o propiedad intelectual, pueden alimentar sistemas complejos de perfilado o ayudar a entrenar modelos de IA usados mucho más allá de su intención original.
Las preocupaciones sobre cómo las empresas de IA manejan los datos de los usuarios están creciendo. En marzo de 2026, más de 2,5 millones de usuarios(nueva ventana) se comprometieron a dejar ChatGPT después de que una controvertida alianza con el gobierno de EE. UU. generara preguntas sobre cómo se despliegan y gobiernan los sistemas de IA. Es un recordatorio de que, cuando interactúa con un asistente de IA sin fuertes protecciones de privacidad, puede estar compartiendo más información de la que cree.
- ¿Es seguro ChatGPT? Los riesgos de usar IA como ChatGPT y otras Big Tech
- Cosas que nunca debería compartir con ChatGPT
- Cómo mantenerse seguro al usar ChatGPT
- Cambie a un asistente de IA privado
¿Es seguro ChatGPT? Los riesgos de usar IA como ChatGPT y otras Big Tech
Antes de elegir herramientas de IA como ChatGPT, Gemini, Meta AI, Copilot y DeepSeek, vale la pena comprender sus riesgos de seguridad y privacidad:
| Riesgo | Impacto potencial | Por qué importa |
| Recopilación y registro de datos | Las indicaciones, cargas de archivos y patrones de interacción pueden almacenarse | Puede usarse para entrenamiento de IA, perfilado de comportamiento o revisión humana |
| Falta de cifrado de acceso cero | OpenAI y sus socios pueden acceder a las conversaciones | Aumenta el riesgo de exponer datos sensibles |
| Preocupaciones regulatorias y de PI | Exposición a GDPR/HIPAA o filtraciones de datos propietarios | Responsabilidad legal y consecuencias financieras |
| Sistema de código cerrado | Transparencia limitada sobre el manejo de datos | Requiere confiar en OpenAI |
| Anuncios dentro de la aplicación | Mayor rastreo y perfilado | No está claro cómo los datos del chat alimentan anuncios personalizados |
Privacidad personal
Esto es lo que arriesga al usar ChatGPT:
- ChatGPT puede recopilar la información que usted ingresa, como preguntas, respuestas y cómo interactúa con la herramienta, para entrenar sus modelos de IA. Si carga un currículum, un documento legal, un informe médico u otro archivo con datos personales, ese contenido también puede almacenarse y procesarse.
- Incluso si nunca ingresa su nombre u otros datos personales, sus prompts pueden revelar patrones con el tiempo, como preocupaciones de salud, dudas religiosas, inclinaciones políticas, situación familiar o estado emocional. Combinados con su dirección IP(nueva ventana) y otros identificadores técnicos, estos patrones pueden usarse para construir perfiles de comportamiento detallados.
- Es posible que pueda excluirse del entrenamiento de IA, pero sus conversaciones siguen registrándose y detalles sensibles podrían ser vistos por revisores humanos si se marcan, como cuando usted envía comentarios.
- Su historial de chat está protegido mientras se envía y almacena, pero no está protegido con cifrado de acceso cero, por lo que OpenAI o un tercero aún pueden acceder a sus conversaciones anteriores.
- En julio de 2025, miles de conversaciones compartidas de ChatGPT aparecieron en los resultados de búsqueda de Google(nueva ventana), exponiendo intercambios profundamente personales que los usuarios probablemente asumían que eran privados. OpenAI pronto retiró la función y dijo que estaba trabajando con Google para desindexar los resultados, pero el incidente resalta lo fácilmente que las interacciones con IA pueden pasar al dominio público sin que usted lo note.
- A principios de 2026, OpenAI introdujo anuncios para usuarios de ChatGPT en los planes gratuito y ChatGPT Go. A pesar de las garantías de que los anuncios no influirán en las respuestas ni implicarán compartir datos personales con anunciantes, el movimiento sigue un patrón bien establecido de Big Tech en el que la publicidad finalmente se normaliza tras las preocupaciones iniciales sobre privacidad.
Riesgo empresarial
OpenAI es una empresa estadounidense, por lo que usar ChatGPT puede generar preocupaciones de protección de datos y riesgos de filtración de información sensible. Si su empresa está en Europa o en otro lugar, sus datos aún podrían estar sujetos a la jurisdicción de EE. UU. ya que son procesados por una empresa estadounidense. Esto es lo que significa:
- Sin fuertes garantías de protección de datos, su organización corre el riesgo de recibir multas o escrutinio regulatorio bajo leyes como GDPR y HIPAA(nueva ventana).
- Usted corre riesgo de filtraciones al entrenar modelos de IA con datos de su empresa. Por ejemplo, los empleados podrían ingresar código propietario, contratos confidenciales o información de clientes en ChatGPT, exponiendo potencialmente propiedad intelectual, secretos comerciales o datos de clientes.
- OpenAI puede compartir datos con socios, proveedores, otros terceros o mediante integraciones de aplicaciones, que podrían tener protecciones de privacidad más débiles o políticas de datos distintas. En 2025, una vulneración que involucró a uno de los proveedores de analítica de OpenAI expuso información identificable sobre clientes de API.
- Bajo leyes de EE. UU. como la Patriot Act o FISA (Foreign Intelligence Surveillance Act), se puede obligar a las empresas a proporcionar datos a agencias gubernamentales, a menudo con órdenes de secreto que les impiden notificar a los usuarios.
Falta de transparencia
Los anteriores son riesgos conocidos. Pero lo especialmente riesgoso de ChatGPT (y de otro software de código cerrado) es lo que no se le permite saber.
- El código de las aplicaciones de ChatGPT no es de código abierto, por lo que no existe supervisión pública sobre cómo funciona, qué registra o cómo procesa sus datos entre bastidores. Usted debe depender de las políticas de OpenAI y confiar en que el sistema maneje los datos de forma responsable.
- Aunque OpenAI ha lanzado modelos de pesos abiertos que pueden examinarse públicamente, los modelos de IA que usa ChatGPT no son de código abierto, por lo que usted no puede comprobar cómo se preentrenaron los datos en grandes conjuntos de datos.
Cosas que nunca debería compartir con ChatGPT

Aunque ChatGPT puede ser útil, nunca debería tratarlo como una bóveda segura para información sensible. Evite ingresar cualquier cosa que pudiera perjudicarle a usted, a su empresa o a otras personas si se almacenara, revisara o se expusiera accidentalmente:
Contraseñas y datos de autenticación, como contraseñas de cuentas, códigos de autenticación de dos factores (2FA), códigos de autenticación de respaldo o claves API privadas.
Números de identificación gubernamental, incluidos números de seguridad social, identificación nacional, pasaporte, licencia de conducir y números de identificación fiscal.
Información financiera y bancaria, como números de tarjetas de crédito o débito, IBAN, credenciales de banca en línea, inicios de sesión de cuentas de inversión o claves privadas de carteras de Bitcoin.
Datos personales altamente sensibles que podrían usarse para identificarle o rastrearle a usted o a su familia, como dirección de casa y número de teléfono, fecha de nacimiento o fotos o documentos privados.
Información de salud, como informes médicos, registros de diagnóstico, números de seguro, identificaciones de pacientes o historiales médicos detallados vinculados a su identidad.
Datos confidenciales del trabajo o de la empresa, incluidos código fuente propietario, documentos de estrategia interna, contratos confidenciales, bases de datos de clientes, detalles de clientes, proyecciones financieras, informes no publicados o NDA.
Información legal y privilegiada, como comunicaciones entre abogado y cliente, estrategias de casos legales, documentos de evidencia o conversaciones confidenciales de conciliación.
Cómo mantenerse seguro al usar ChatGPT
No tiene que evitar por completo las herramientas de IA, pero debería tratarlas como servicios de cara al público en lugar de espacios de trabajo privados. Unos pocos hábitos simples pueden reducir significativamente su riesgo:
- Evite compartir información sensible que no querría que se almacenara, revisara o expusiera públicamente.
- Elimine detalles identificativos o sustitúyalos por marcadores de posición o ejemplos ficticios.
- Solo cargue archivos que no contengan información sensible o confidencial.
- Trate los chats de IA como correos electrónicos o tickets de soporte que podrían ser vistos por otras personas.
- Revise los ajustes de privacidad y desactive configuraciones como historial de chat, memoria o entrenamiento de IA.
- Elimine las conversaciones que ya no necesite para reducir cuánta información personal permanece asociada a su cuenta.
Cambie a un asistente de IA privado
Si le preocupa compartir información personal o empresarial con herramientas de IA, pruebe Lumo. Nuestra alternativa privada a ChatGPT nunca registra sus conversaciones ni las usa para entrenamiento de modelos. Sus datos están protegidos con cifrado asimétrico bidireccional (una forma de cifrado de extremo a extremo) y se procesan en servidores europeos controlados por Proton.
Cuando usa Lumo con una cuenta de Proton, sus conversaciones están protegidas con cifrado de acceso cero, lo que significa que solo usted puede leerlas, ni siquiera Proton. Para máxima privacidad, el modo Ghost le permite usar Lumo sin guardar ningún historial.
Lumo usa modelos de código abierto, por lo que cualquiera puede verificar que no haya rastreo oculto ni recopilación de datos.
Pruebe Lumo ahora y vea cómo es la IA cuando su privacidad es lo más importante. Y cuando esté listo para llevar ese mismo nivel de privacidad a su lugar de trabajo, Lumo for Business ayuda a su equipo a colaborar de forma segura y mantenerse productivo sin comprometer los datos confidenciales de la empresa.
También puede descargar Lumo desde Google Play(nueva ventana) o la App Store(nueva ventana).






