Las grandes empresas tecnológicas construyeron imperios de billones de dólares convirtiendo nuestras vidas personales en una mercancía. La inteligencia artificial está sobrealimentando su modelo de negocio de capitalismo de vigilancia al integrarse en las herramientas que usamos todos los días, a menudo sin darnos explicaciones claras ni la capacidad de optar por no participar.

Los potentes modelos grandes de lenguaje (LLM) recopilan datos aún más detallados e infieren más sobre ti de lo que antes era imaginable. La IA se está integrando en una amplia gama de plataformas(ventana nueva), desde la búsqueda hasta el almacenamiento de fotos e incluso el sistema operativo de tu dispositivo, lo que dificulta el seguimiento y, mucho menos, el consentimiento de esta recopilación de datos. Esto, a su vez, permite a empresas como Google, Meta y Microsoft crear perfiles personales más completos, obtener más beneficios de los datos y ejercer más control sobre la información y las narrativas que ves.

Estas empresas pueden compartir o vender tu información privada con corredores de datos y otros terceros. Los gobiernos pueden aprovechar estos datos mediante citaciones(ventana nueva) o incluso formas más subrepticias de vigilancia. Y los datos personales pueden quedar expuestos en una vulneración de datos, como ha sucedido una(ventana nueva) y otra(ventana nueva) vez con servicios como ChatGPT.

El resultado es una recopilación de datos rápida y a gran escala, con aún menos controles sobre las empresas para obtener el consentimiento o considerar las consecuencias de la tecnología. Las leyes de protección de datos que rodean a la IA están notoriamente muy por detrás de la industria(ventana nueva).

Necesitamos urgentemente una alternativa privada, por lo que hemos creado un nuevo asistente de IA confidencial, Lumo(ventana nueva), que no guarda ningún registro de tus conversaciones. Tus chats guardados solo están disponibles para ti, protegidos por cifrado de acceso cero. Cuando se trata de tus datos, tienes una elección, pero más personas necesitan comprender los riesgos del statu quo.

La IA hace a las grandes tecnológicas aún más poderosas

La IA permite a Google y Meta escalar y afianzar sus monopolios existentes, especialmente en publicidad y explotación de datos personales, pero a una escala mucho más rápida y grande.

Meta, por ejemplo, está integrando profundamente la IA para revitalizar su negocio publicitario, escaneando tus publicaciones e incluso añadiendo Meta AI(ventana nueva) a sus productos de chat cifrados de extremo a extremo como WhatsApp en un aparente intento de extraer más datos personales de la plataforma. Google ha apostado por la IA primero con su negocio publicitario(ventana nueva), por lo que cada anuncio está optimizado para manipularte personalmente. Y Gemini de Google está ahora profundamente integrado en todo su ecosistema, dando a su IA un pase libre para recopilar datos de teléfonos Android y aplicaciones de Google.

La IA es similar a la búsqueda, pero mucho más íntima y profundamente arraigada en tu vida. Mientras que el seguimiento de búsqueda utiliza consultas simples y clics para predecir tus intereses, la IA utiliza el procesamiento del lenguaje natural e incluso el reconocimiento de imágenes para predecir las marcas, mensajes, emociones e imágenes que resonarán más profundamente contigo. Algunas personas incluso se están involucrando emocionalmente(ventana nueva) con los chatbots de IA debido a lo mucho que pueden imitar la conexión humana, algo que nunca sucedió con los motores de búsqueda.

Una agencia de publicidad presume(ventana nueva) de que la publicidad impulsada por IA es un “cambio sísmico” que da a los clientes el poder de “calibrar el sentimiento y las preferencias” e incluso “procesar datos visuales, como imágenes y vídeos, para identificar logotipos de marcas y uso de productos, permitiendo una segmentación de anuncios específica del contexto”. Imagina si los productos de belleza pudieran dirigirse a tu hijo en el momento en que expresa ansiedad a un amigo, o si los políticos pudieran desplegar anuncios optimizados por IA para aprovecharse de los miedos privados de los votantes.

Las grandes tecnológicas ya son más poderosas que los gobiernos; imagina lo que podrían lograr con una IA desenfrenada.

Tus chats se están filtrando

Tu privacidad está en juego, pero también tu seguridad. La IA crea un grupo masivo y centralizado de información íntima que es cada vez más vulnerable a ser expuesta de diversas maneras.

Esto ya ha sucedido:

Siempre que los datos personales se almacenan sin cifrado de extremo a extremo o de acceso cero en los servidores de una empresa, esos datos son vulnerables a ser filtrados. Los registros de chat son un objetivo increíblemente atractivo para los hackers, y los gobiernos. Un tribunal de EE. UU. ya ha ordenado a OpenAI retener todos los registros de chat de los usuarios(ventana nueva) (lo cual la empresa está combatiendo actualmente). Esos datos estarían entonces disponibles para el gobierno bajo demanda. EE. UU. ya tiene una variedad de métodos para espiar secretamente a los usuarios, desde escuchas telefónicas sin orden judicial hasta solicitudes de datos que las grandes empresas tecnológicas están obligadas a obedecer.

Cuantos más datos absorben los sistemas de IA, más arriesgan revelar, ya sea a través de filtraciones accidentales, resultados sesgados o presión gubernamental.

No son solo datos, es influencia

Probablemente no hace falta decirlo: las empresas y los operativos políticos que te apuntan con anuncios no buscan lo mejor para ti.

La IA lleva esa manipulación a un nivel completamente nuevo. A diferencia de los medios de comunicación masivos, que puedes elegir ignorar, la IA está entretejida en tu vida cotidiana, respondiendo a tus preguntas y ofreciendo sugerencias en la aplicación que ni siquiera querías. No es solo reactiva; es proactiva. Y cuando es construida por empresas o explotada por gobiernos con agendas específicas, eso la hace increíblemente poderosa y peligrosa.

Ya estamos viendo cómo se ve eso. En China, se ha demostrado que DeepSeek evita o borra temas políticamente sensibles. Pregunta sobre las protestas de la Plaza de Tiananmen y te toparás con un muro(ventana nueva), no porque la IA no lo sepa, sino porque su jurisdicción significa que no se le permite decírtelo.

Este no es un problema exclusivo de China. El chatbot Grok de Elon Musk levantó cejas por tomar posturas políticas claras(ventana nueva) y ofrecer resultados muy diferentes dependiendo de cómo se configurara su “dial” interno. También se ha descubierto que consulta las propias opiniones de Musk(ventana nueva) sobre un tema antes de compartir su respuesta. Esto muestra cómo la orientación de la IA puede moldearse para impulsar ciertos puntos de vista, sutilmente o no, lo que se volverá cada vez más problemático a medida que confiemos más en la IA para la educación y la información sin verificar las fuentes primarias.

Entonces, si la IA está moldeando lo que ves, lo que piensas y cómo te sientes, ¿quién decide qué versión de la verdad obtienes?

IA construida para las personas, no para el lucro

Si queremos una IA que no esté moldeada por las grandes tecnológicas o la política autoritaria y que proteja tus datos de hackers y filtraciones, necesitamos construir algo diferente. Eso significa apoyar herramientas de IA privadas e independientes sin motivos ocultos ni agendas escondidas.

Lumo es un paso en esa dirección. Está construido en Europa, sin inversiones de Silicon Valley ni vigilancia extranjera, y supervisado por la organización sin ánimo de lucro Proton Foundation, que está obligada por sus estatutos a promover la privacidad de nuestra comunidad. Dado que nuestra empresa fue fundada por científicos que se conocieron en el CERN en 2014, hemos sido financiados exclusivamente por nuestros usuarios, no por inversores ni anunciantes. Esto asegura que nuestros valores y misión permanezcan alineados con las personas a las que servimos.

Diseñamos Lumo para ser privado por defecto, lo que significa que no guarda registros de chat, y tus chats se almacenan con cifrado de acceso cero, por lo que solo tú puedes verlos. Lumo también está construido sobre modelos de código abierto, y tus datos nunca se usan para entrenar a la IA.

Lumo es solo el comienzo. Si queremos un futuro donde la IA sirva a las personas, no al lucro, no al poder, debemos exigirlo. Al elegir alternativas privadas hoy, ayudas a dar forma a un internet que es más transparente, más democrático y más respetuoso con tus derechos. Las herramientas están aquí. La elección es tuya.