Las grandes empresas tecnológicas construyeron imperios de billones de dólares convirtiendo nuestras vidas personales en una mercancía. La inteligencia artificial está sobrealimentando su modelo de negocio de capitalismo de vigilancia al integrarse en las herramientas que usamos todos los días, a menudo sin darnos explicaciones claras o la capacidad de optar por no participar.

Los potentes modelos grandes de lenguaje (LLM) recopilan datos aún más detallados e infieren más sobre usted de lo que antes era imaginable. La IA se está integrando en una amplia gama de plataformas(nueva ventana), desde la búsqueda hasta el almacenamiento de fotos e incluso el sistema operativo de su dispositivo, lo que dificulta el seguimiento y mucho menos el consentimiento de esta recopilación de datos. Esto, a su vez, permite a empresas como Google, Meta y Microsoft construir perfiles personales más completos, beneficiarse más de los datos y ejercer más control sobre la información y las narrativas que usted ve.

Estas empresas pueden compartir o vender su información privada a corredores de datos y otros terceros. Los gobiernos pueden aprovechar estos datos mediante citaciones(nueva ventana) o formas aún más subrepticias de vigilancia. Y los datos personales pueden exponerse en una vulneración de datos, como ha sucedido una(nueva ventana) y otra(nueva ventana) vez con servicios como ChatGPT.

El resultado es una recopilación de datos rápida y a gran escala, con aún menos controles sobre las empresas para obtener el consentimiento o considerar las consecuencias de la tecnología. Las leyes de protección de datos que rodean a la IA están notoriamente muy por detrás de la industria(nueva ventana).

Necesitamos urgentemente una alternativa privada, por lo que construimos un nuevo asistente de IA confidencial, Lumo(nueva ventana), que no guarda ningún registro de sus conversaciones. Sus chats guardados están disponibles solo para usted, protegidos por cifrado de acceso cero. Cuando se trata de sus datos, usted tiene una opción, pero más personas necesitan comprender los riesgos del status quo.

La IA hace que las grandes tecnológicas sean aún más poderosas

La IA permite a Google y Meta escalar y afianzar sus monopolios existentes, especialmente en publicidad y explotación de datos personales, pero a una escala mucho más rápida y grande.

Meta, por ejemplo, está integrando profundamente la IA para revitalizar su negocio publicitario, escaneando sus publicaciones e incluso agregando Meta AI(nueva ventana) a sus productos de chat cifrados de extremo a extremo como WhatsApp en un intento aparente de extraer más datos personales de la plataforma. Google se ha vuelto primero IA con su negocio publicitario(nueva ventana), por lo que cada anuncio está optimizado para manipularlo personalmente. Y Gemini de Google ahora está profundamente integrado en todo su ecosistema, dando a su IA un pase libre para recopilar datos de teléfonos Android y aplicaciones de Google.

La IA es similar a la búsqueda, pero mucho más íntima y profundamente arraigada en su vida. Mientras que el seguimiento de búsqueda utiliza consultas simples y clics para predecir sus intereses, la IA utiliza el procesamiento del lenguaje natural e incluso el reconocimiento de imágenes para predecir las marcas, mensajes, emociones e imágenes que resonarán más profundamente con usted. Algunas personas incluso se están involucrando emocionalmente(nueva ventana) con chatbots de IA debido a lo cerca que pueden imitar la conexión humana, algo que nunca sucedió con los motores de búsqueda.

Una agencia de publicidad se jacta(nueva ventana) de que la publicidad impulsada por IA es un “cambio sísmico” que da a los clientes el poder de “medir el sentimiento y las preferencias” e incluso “procesar datos visuales, como imágenes y videos, para identificar logotipos de marcas y uso de productos, permitiendo una orientación de anuncios específica del contexto”. Imagine si los productos de belleza pudieran dirigirse a su hijo en el momento en que expresa ansiedades a un amigo, o si los políticos pudieran desplegar anuncios optimizados por IA para aprovecharse de los miedos privados de los votantes.

Las grandes tecnológicas ya son más poderosas que los gobiernos; imagine lo que podrían lograr con una IA desenfrenada.

Sus chats se están filtrando

Su privacidad está en juego, pero también su seguridad. La IA crea un grupo masivo y centralizado de información íntima que es cada vez más vulnerable a ser expuesta de diversas maneras.

Esto ya ha sucedido:

Siempre que los datos personales se almacenan sin cifrado de extremo a extremo o cifrado de acceso cero en los servidores de una empresa, esos datos son vulnerables a ser filtrados. Los registros de chat son un objetivo increíblemente atractivo para los hackers, y los gobiernos. Un tribunal de EE. UU. ya ha ordenado a OpenAI que retenga todos los registros de chat de los usuarios(nueva ventana) (lo que la empresa está combatiendo actualmente). Esos datos estarían disponibles para el gobierno a pedido. EE. UU. ya tiene una variedad de métodos para espiar secretamente a los usuarios, desde escuchas telefónicas sin orden judicial hasta solicitudes de datos que las grandes empresas tecnológicas están obligadas a obedecer.

Cuantos más datos absorben los sistemas de IA, más se arriesgan a revelar, ya sea a través de filtraciones accidentales, resultados sesgados o presión gubernamental.

No son solo datos, es influencia

Esto probablemente no hace falta decirlo: las empresas y los operativos políticos que lo atacan con anuncios no están velando por sus mejores intereses.

La IA lleva esa manipulación a un nivel completamente nuevo. A diferencia de los medios de comunicación masivos, que puede elegir desconectar, la IA está entretejida en su vida cotidiana, respondiendo sus preguntas y ofreciendo sugerencias en la aplicación que ni siquiera quería. No es solo reactiva; es proactiva. Y cuando es construida por empresas o explotada por gobiernos con agendas específicas, eso la hace increíblemente poderosa y peligrosa.

Ya estamos viendo cómo se ve eso. En China, se ha demostrado que DeepSeek evita o borra temas políticamente sensibles. Pregunte sobre las protestas de la Plaza de Tiananmen y se topará con una pared(nueva ventana), no porque la IA no lo sepa, sino porque su jurisdicción significa que no se le permite decírselo.

Este no es un problema exclusivo de China. El chatbot Grok de Elon Musk levantó cejas por tomar posturas políticas claras(nueva ventana) y ofrecer resultados muy diferentes dependiendo de cómo se configurara su “dial” interno. También se ha descubierto que consulta las propias opiniones de Musk(nueva ventana) sobre un tema antes de compartir su respuesta. Esto muestra cómo la guía de la IA puede formarse para impulsar ciertas visiones, sutilmente o no, lo que se volverá cada vez más problemático a medida que dependamos más de la IA para la educación y la información sin verificar las fuentes primarias.

Entonces, si la IA está dando forma a lo que ve, lo que piensa y cómo se siente, ¿quién decide qué versión de la verdad obtiene?

IA construida para personas, no para el lucro

Si queremos una IA que no esté moldeada por las grandes tecnológicas o la política autoritaria y que proteja sus datos de hackers y filtraciones, necesitamos construir algo diferente. Eso significa apoyar herramientas de IA privadas e independientes sin motivos ocultos ni agendas ocultas.

Lumo es un paso en esa dirección. Está construido en Europa, sin inversiones de Silicon Valley ni vigilancia extranjera, y supervisado por la organización sin fines de lucro Proton Foundation, que está obligada por su estatuto a promover la privacidad de nuestra comunidad. Dado que nuestra empresa fue fundada por científicos que se conocieron en el CERN en 2014, hemos sido financiados exclusivamente por nuestros usuarios, no por inversores o anunciantes. Esto asegura que nuestros valores y misión permanezcan alineados con las personas a las que servimos.

Diseñamos Lumo para que sea privado por defecto, lo que significa que no guarda registros de chat, y sus chats se almacenan con cifrado de acceso cero, por lo que solo usted puede verlos. Lumo también está construido sobre modelos de código abierto, y sus datos nunca se utilizan para entrenar a la IA.

Lumo es solo el comienzo. Si queremos un futuro donde la IA sirva a las personas —no al lucro, no al poder— debemos exigirlo. Al elegir alternativas privadas hoy, ayuda a dar forma a un internet que es más transparente, más democrático y más respetuoso de sus derechos. Las herramientas están aquí. La elección es suya.