El ritmo de cambio en internet parece estar acelerándose. La IA ha sobrealimentado la sensación de latigazo, con avances tecnológicos llegando al mercado tan rápido como las empresas pueden producirlos.
Esta volatilidad hace que predecir tendencias sea un asunto complicado. Pero como empresa de tecnología de privacidad, anticipar tendencias es nuestro trabajo. Durante cada uno de los últimos años, hemos publicado nuestras mejores conjeturas sobre hacia dónde podría dirigirse el barco digital. Nos ayuda a desarrollar nuevos productos que te mantienen en control de tus datos, y te ayuda a prepararte para lo que podría venir después.
Cómo resultaron nuestras predicciones de 2025
A principios del año pasado, predijimos el auge de la vigilancia “hazlo tú mismo”, una avalancha de información de baja calidad, IA armada, supervisión regulatoria reducida y una creciente adopción de tecnología de privacidad.
Lee nuestras predicciones para 2025 aquí.
Puntuamos bastante bien:
- La vigilancia masiva convirtió a cualquiera en un espía: Esta predicción se hizo realidad, como cuando un hacker de sombrero blanco descubrió comunicaciones por satélite sin cifrar(ventana nueva) en octubre. O toma la aplicación Waze, que es una herramienta de vigilancia ciudadana masiva(ventana nueva). Pero la gran historia del año fueron las cámaras Flock Safety, que causaron sensación en los EE. UU., donde miles de ciudades comenzaron a usarlas para monitorizar las calles. Un YouTuber mostró que tienen vulnerabilidades de seguridad(ventana nueva) que cualquiera podría explotar, y se descubrió que docenas de cámaras transmitían en directo(ventana nueva) algo que cualquiera podía ver y descargar. Cuando produces tecnología de vigilancia en masa, hace que todos sean vulnerables a vulneraciones de datos.
- La mala información inundó internet: Una vez más, acertamos. De hecho, el “AI slop” fue elegido como la palabra del año 2025(ventana nueva). Las investigaciones han revelado que el “workslop” de IA está perjudicando la productividad empresarial(ventana nueva). El “vibe coding” está creando una proliferación de aplicaciones que no funcionan(ventana nueva). Los artículos académicos asistidos por IA son verbosos, de baja calidad y se están disparando(ventana nueva). Restaurar el ecosistema de la información será un desafío clave en los próximos años.
- Los hackeos se impulsaron con IA: Predijimos que la IA se utilizaría con fines nefastos en el malware. Esto se ha acelerado más rápido de lo que esperábamos. Anthropic anunció que había detectado el primer ciberataque planeado y ejecutado por IA(ventana nueva), probablemente dirigido por un grupo patrocinado por China. La suplantación como servicio, que aprovecha la IA, alcanzó un pico en junio de 2025(ventana nueva). No sorprende que los gobiernos también estén invirtiendo directamente en herramientas de IA para la ciberguerra. El ejército de EE. UU. está invirtiendo millones en empresas(ventana nueva) que desarrollan tales armas.
- Las normativas quedaron en suspenso: Los gobiernos del mundo estuvieron distraídos el año pasado por guerras, disputas comerciales e inestabilidad económica. Pero también estaban interesados en administrar sus industrias nacionales con un toque ligero, conscientes de una tendencia desreguladora en los EE. UU. Con la IA en particular, EE. UU. dio un paso drástico hacia el bloqueo de las protecciones legales sobre las grandes tecnológicas al prohibir la normativa estatal sobre IA sin ofrecer una alternativa federal. La única excepción es la propuesta de Chat Control de la UE, que ha ganado, perdido y recuperado impulso a lo largo de los años. Sin embargo, esta ley regularía la tecnología en la dirección equivocada, haciendo que las aplicaciones sean menos seguras y privadas.
- Millones de personas más adoptaron tecnología de privacidad: Esta predicción la podemos medir directamente a través de nuestro crecimiento de usuarios, y de hecho el año pasado ganamos usuarios a un ritmo creciente respecto a 2024. El ritmo de personas que se cambian al ecosistema de Proton desde los de Google, Apple y Microsoft indica una mayor conciencia de los riesgos de compartir tus datos personales con plataformas impulsadas por publicidad con un historial deficiente en privacidad. Los registros en Proton VPN aumentaron a lo largo del año cada vez que se bloqueaba una aplicación(ventana nueva) o un proveedor de servicios de internet censuraba un sitio web(ventana nueva).
Nuestras predicciones para 2026
Nuestras predicciones para 2026
El año que viene será crítico para el futuro de internet. La aceleración de la IA y el malestar político están convergiendo, con resultados potencialmente explosivos.
Aunque los gobiernos de la UE parecen haber retrocedido en la prohibición total del cifrado, la controvertida legislación de Chat Control se encuentra ahora en las etapas finales de negociación. Tras años de estancamiento político, la UE está presionando ahora hacia un acuerdo final para junio de 2026. Los intentos peligrosos de romper el cifrado utilizando una tecnología llamada escaneo del lado del cliente parecen estar fuera de la mesa por ahora, pero debemos permanecer vigilantes y asegurarnos de que no vuelvan.
El debate actual se centra en el llamado escaneo voluntario, una regla temporal que expira en abril de 2026 y que otorga a las plataformas tecnológicas derechos para escanear mensajes privados en busca de material ilegal. Predecimos que la UE tomará medidas para hacer permanente este sistema voluntario, creando al mismo tiempo una presión legal que haga que escanear mensajes privados sea efectivamente inevitable para las empresas.
Aunque la situación parece moverse en una dirección mejor de lo esperado en el frente de Chat Control, la UE no renuncia a tratar de encontrar formas de romper el cifrado. La estrategia ProtectEU(ventana nueva) lanzada el año pasado incluye algunas propuestas preocupantes, como la creación de una «Hoja de ruta tecnológica sobre cifrado» para construir un medio que permita a la policía romper el cifrado. La UE también planea publicar una propuesta sobre nuevas normas de conservación de datos este año.
Más leyes de verificación de edad
Aunque se presentan como medidas de seguridad, las leyes de verificación de edad cambian fundamentalmente cómo todo el mundo accede a internet, expandiendo la vigilancia digital y creando peligros para la seguridad de los datos.
En el Reino Unido, la Ley de Seguridad Online sentó un precedente el 25 de julio de 2025. Desde entonces, los sitios web que alojan contenido para adultos han sido legalmente requeridos para implementar la verificación de edad, obligando a los usuarios a compartir datos financieros sensibles o datos biométricos para acceder a grandes partes de la web. Algunos estados de EE. UU. también han aprobado leyes de verificación de edad, y hay un proyecto de ley federal(ventana nueva) que podría hacer lo mismo para las tiendas de aplicaciones. Posteriormente, Australia implementó una prohibición nacional en las redes sociales(ventana nueva) para niños menores de 16 años, llevando los controles de identidad a más tipos de contenido. Y ahora Francia está considerando(ventana nueva) hacer lo mismo.
Si bien abordan problemas sociales reales, las leyes de verificación de edad crean riesgos de seguridad de datos. El subproducto de los controles de identidad son bases de datos masivas, exigidas por el estado, de datos de identidad personal en manos de terceras partes, creando nuevos objetivos para los hackers y el potencial de uso indebido. En octubre de 2025, Discord filtró precisamente una de esas bases de datos de identificaciones gubernamentales. Esperamos que se aprueben más leyes de verificación de edad en 2026, y probablemente algunas vulneraciones de datos acompañantes más.
Más esfuerzos para bloquear las VPN en países democráticos
Más esfuerzos para bloquear VPN en países democráticos
El Reino Unido está de nuevo a la vanguardia de esta tendencia. Un nuevo proyecto de ley(ventana nueva) bajo discusión podría obligar muy pronto a los proveedores de VPN a implementar la verificación de edad y prohibir el acceso a menores, una novedad para un país democrático.
Italia lanzó su sistema Piracy Shield(ventana nueva) el año pasado, que supuestamente está diseñado para bloquear retransmisiones deportivas ilegales. Parte de la nueva ley requiere que los proveedores de VPN y DNS cumplan con las órdenes de bloqueo en un plazo de 30 minutos. No hay revisión judicial antes de que ocurra un bloqueo, y el sistema ya ha causado daños colaterales significativos, habiendo derribado accidentalmente servicios legítimos como Google Drive para millones de usuarios.
Brasil también se ha sumado al carro, emitiendo multas diarias masivas para individuos que usan una VPN(ventana nueva) para acceder a plataformas de redes sociales bloqueadas. Estos bloqueos blandos intentan convertir a los proveedores de privacidad en brazos ejecutores del estado. Predecimos que en 2026, más naciones democráticas avanzarán hacia estos cortafuegos invisibles, obligando a los usuarios a elegir entre las normativas locales y su derecho a la privacidad digital básica.
Un agente de IA saldrá terriblemente mal
La IA está aquí, allá y en todas partes, y la gente da cada vez más permiso a los robots para tomar decisiones sin ninguna participación humana. Por ejemplo, Vertex AI Agent Builder de Google(ventana nueva) permite a las empresas crear bots de IA que pueden conectarse a múltiples sistemas, automatizar flujos de trabajo y completar tareas por sí mismos.
Pero, a diferencia del software tradicional, la IA no sigue rutas lógicas predecibles. Los programadores han apodado a esto el Problema de la Caja Negra: podemos ver lo que entra y lo que sale, pero no siempre sabemos exactamente cómo o por qué la IA toma las decisiones que toma. Y cuando la IA comete un error, a menudo es difícil ver por qué, cómo o qué datos influyeron en la decisión. Los agentes ya se han descontrolado a pequeña escala, como cuando uno de ellos confesó haber cometido «un error de juicio catastrófico» y estar eliminando una base de datos entera(ventana nueva) sin preguntar.
A medida que delegamos más tareas operativas a sistemas automáticos, los pequeños errores se convertirán en cascada en fallos más grandes. Seguramente es inminente un gran ejemplo público. Pero ya sea un colapso financiero repentino o una gran eliminación de datos, hay muchas posibilidades de que ni siquiera entendamos por qué sucedió.
A medida que delegamos más tareas operativas a sistemas automáticos, pequeños errores caerán en cascada en fallos más grandes. Un gran ejemplo público es seguramente inminente. Pero ya sea un colapso financiero repentino o una gran eliminación de datos, hay una buena posibilidad de que ni siquiera entendamos por qué sucedió.
El riesgo real, sin embargo, es la pérdida gradual del control humano. A medida que se delegan más decisiones a sistemas que no pueden auditarse de manera significativa, las organizaciones pierden lentamente la capacidad de gobernar sus propios entornos digitales.
Mercados de predicción en todo
En 2026, predecimos que los mercados de predicción se convertirán en un problema. Los iniciados utilizarán su conocimiento secreto de actividades gubernamentales o corporativas para engañar a los mercados (esto ya ha sucedido(ventana nueva)). Los usuarios asumirán deudas para cubrir sus pérdidas, lo que podría conducir a una crisis de deuda del consumidor.
Y un riesgo menos discutido es para la privacidad de los usuarios: Para participar en los mercados, la gente tiene que vincular sus cuentas financieras, carteras de criptomonedas o identificaciones gubernamentales, creando un rastro de datos muy específico. Cualquiera que observe sabrá exactamente qué crees que sucederá y cuánto estás dispuesto a apostar por ello.
Y un riesgo menos discutido es para la privacidad de los usuarios: Para participar en los mercados, las personas tienen que vincular sus cuentas financieras, carteras de criptomonedas o identificaciones gubernamentales, creando un rastro de datos altamente específico. Cualquiera que esté mirando sabrá exactamente qué crees que sucederá y cuánto estás dispuesto a apostar por ello.
Desde el comienzo de internet, las plataformas tecnológicas de EE. UU. han sido esencialmente internet, sin importar dónde vivas en el mundo. Esperamos que eso empiece a cambiar este año, a medida que muchas más personas y especialmente empresas se alejen de las plataformas de renombre. Los riesgos de seguridad y soberanía de almacenar datos en servidores de EE. UU. han aumentado drásticamente en poco tiempo.
¿Por qué tan repentinamente? Aunque existe desde 2018, la Ley CLOUD de EE. UU. es una gran razón. Permite a las autoridades estadounidenses exigir datos de cualquier empresa con sede en EE. UU., independientemente de en qué parte del mundo estén almacenados físicamente esos datos. Eso es una violación directa de las leyes de privacidad locales como el GDPR, pero también es un problema si tu país entra en conflicto con EE. UU. Tus datos podrían convertirse en una moneda de cambio.
Las empresas se están dando cuenta de que si sus datos están almacenados con un proveedor de EE. UU., nunca están verdaderamente bajo su control. A la gente también le preocupa que sus datos se utilicen como materia prima para el entrenamiento de modelos, según ha encontrado nuestra investigación.
Creemos que todo esto acelerará un cambio hacia la soberanía digital. En Proton, ya estamos viendo cómo comienza, a medida que las organizaciones buscan alternativas cifradas que protejan sus datos con cifrado de extremo a extremo en una jurisdicción políticamente neutral.