El “problema de alineación” de la IA plantea que a medida que los sistemas de IA se vuelvan más inteligentes, será más difícil alinear sus objetivos con los de sus desarrolladores. Un sistema de IA podría, en teoría, “volverse rebelde”, ideando estrategias indeseables e impredecibles para lograr un objetivo.

El maximizador de clips(ventana nueva) es un experimento mental que explora este concepto: Si a una IA superinteligente se le asignara el único propósito de crear clips, podría apoderarse de los recursos del mundo para lograr su objetivo a toda costa, convirtiendo todo en clips. Eventualmente podría incluso darse cuenta de que los humanos, tratando de detener a la IA, eran una distracción y eliminarnos: claramente una desalineación entre los intereses de la IA y los humanos.

Aunque obviamente extravagante, el problema de los clips se ha convertido en un punto de referencia de la cultura pop para la IA. En la vida real, las restricciones y reglas impiden que los sistemas vayan más allá de sus propósitos previstos. Pero muchos fundadores y directores ejecutivos de grandes tecnológicas usan este hipotético para crear revuelo en torno a sus modelos de lenguaje grandes (LLM). ¿Tienen realmente los chatbots el poder de extinguir a la humanidad? No. Pero los hace parecer impresionantes y, lo que es más importante, oculta el verdadero problema de alineación de la IA que nos está perjudicando ahora mismo: Los LLM de las grandes tecnológicas están invadiendo nuestra privacidad, robando nuestros datos y devaluando nuestra economía de la información. Es tanto una estrategia de ventas como una distracción, diseñada para mantenernos mirando hacia el futuro en lugar de mirar el control que estamos cediendo en el presente.

¿Estamos en camino hacia un futuro distópico?

Cuando los fundadores hacen declaraciones amplias y especulativas sobre lo que sus productos “podrían” hacer, esto es principalmente un método para crear oportunidades de negocio y crear valor para sus accionistas. Los LLM y la IA generativa son productos comerciales. Es de interés para sus propietarios que creas que su herramienta es revolucionaria.

Los medios de comunicación están ansiosos por impulsar historias sensacionalistas, como el potencial de que las herramientas de IA ayuden a los usuarios a crear armas biológicas(ventana nueva) o mentir a los desarrolladores(ventana nueva), como si la IA generativa tuviera mente propia (no la tiene). Es fácil conseguir clics con titulares sobre opiniones extremas o infundadas, pero tales puntos de vista no son un retrato preciso de la tecnología de IA que existe hoy.

En cambio, los LLM son simplemente máquinas de predicción de palabras. Son programas informáticos que digieren cantidades masivas de texto, “aprendiendo” patrones del lenguaje humano, y luego construyen respuestas probabilísticas a las entradas del usuario. No tienen pensamientos propios, y ni siquiera entienden el lenguaje. De hecho, primero deben convertir las palabras en números antes de que puedan procesar la información. Las limitaciones de los LLM han sido bien documentadas por Gary Marcus(ventana nueva) y muchos otros investigadores.

Nuevas herramientas para el capitalismo de vigilancia

Los LLM no causarán el apocalipsis, pero son bastante buenos en otra cosa: recopilar información extremadamente matizada sobre ti. Es por eso que los LLM son una mina de oro de datos para las empresas y un objetivo atractivo para los delincuentes.

Los LLM impulsan chatbots como ChatGPT, Copilot, Claude y Grok, que funcionan como motores de búsqueda. Aparentemente, puedes usar estos chatbots para lo que quieras: Pueden ayudarte a crear listas de la compra, organizar tu calendario, escribir correos electrónicos o escribir código. Son tu asistente personal, tu profesor, tu confidente o cualquier otra cosa que les pidas que sean.

Cientos de millones de personas en todo el mundo ya están compartiendo sus preguntas, ideas, pensamientos y secretos más profundos con chatbots. Están animados a hacerlo por las empresas que los dirigen: Sam Altman, CEO de OpenAI, señaló recientemente(ventana nueva) que la Generación Z “realmente no toma decisiones de vida sin preguntar a ChatGPT qué deberían hacer”. Llamar la atención y fomentar este nivel de confianza y dependencia en un chatbot con fines de lucro y poco fiable es profundamente irresponsable. Las grandes tecnológicas quieren que mediemos nuestras vidas y pensamientos a través de sus servicios porque entonces tienen voz y voto en cómo gastamos nuestro dinero, qué hacemos y qué pensamos.

Las empresas detrás de los LLM también venden sus productos como soluciones de productividad para gobiernos y empresas, prometiendo ahorrar tiempo y esfuerzo a sus usuarios al tiempo que introducen nuevas oportunidades para que seas vigilado. En el Reino Unido, el sistema de IA del Ministerio de Justicia “predice” el riesgo de reincidencia(ventana nueva) de los prisioneros. Los oficiales de policía están usando chatbots(ventana nueva) para redactar informes de delitos. Combinar poderes estatales con algoritmos sesgados(ventana nueva) es peligroso y refuerza los prejuicios existentes.

Explotando tus datos con fines de entrenamiento

Los LLM funcionan con modelos de IA entrenados por enormes conjuntos de datos, y para mejorar sus servicios requieren más y más datos. Desafortunadamente, estos datos provienen de ti: tus chats, tus fotos, tus búsquedas web. Las empresas no siempre pedirán tu permiso ni dejarán claro qué están recopilando de ti.

Por ejemplo, Meta AI quiere escanear (ventana nueva)fotos(ventana nueva) en tu biblioteca que ni siquiera has subido a sus plataformas para analizar tus datos faciales. Muchos usuarios se sintieron perturbados por el anuncio de que Microsoft Copilot AI(ventana nueva) tomaría capturas de pantalla de sus dispositivos cada pocos minutos. Tus fotos, tus mensajes a tus amigos y seres queridos, y tus pensamientos más personales son puntos de datos valiosos que las empresas quieren.

Mirando la política de privacidad(ventana nueva) de OpenAI, vemos que ChatGPT encontrará y almacenará:

  • Identificadores, como tu nombre, detalles de contacto, dirección IP y otros identificadores de dispositivo
  • Información comercial, como tu historial de transacciones
  • Información de actividad de red, como contenido y cómo interactúas con ChatGPT
  • La ubicación general desde la cual accedes a ChatGPT

Esta información puede ser divulgada a gobiernos, proveedores, afiliados, proveedores de servicios y otros terceros.

Esencialmente, un LLM llega a conocerte. Al igual que un motor de búsqueda, llega a comprender tus hábitos, tus preferencias, tus intereses y cada aspecto de ti que pueda deducir de tu comportamiento. Las grandes tecnológicas siempre priorizarán encontrar nuevas formas de adquirir tus datos personales porque es rentable. Y esperan que no te des cuenta.

Solo piensa en las tendencias que han barrido las redes sociales en los últimos años: animaciones personalizadas al estilo Studio Ghibli(ventana nueva) imitaron el estilo distintivo de Hayao Miyazaki en contra de su voluntad y muñecas personalizadas en caja por IA(ventana nueva) inspiradas en juguetes clásicos como Barbie crearon ideas visuales sobre los gustos personales de la gente. Esta tendencia en las redes sociales puede haber parecido diversión inofensiva, pero las herramientas de IA utilizadas para crear estas imágenes pudieron cosechar fotos e información sobre personas que sus empresas matrices pueden usar con fines publicitarios y potencialmente vender a terceros. Estos son solo dos de los muchos ejemplos de las grandes tecnológicas ingiriendo silenciosamente tus datos personales a cambio de participar en una tendencia fugaz.

Hay una solución mejor para los LLM

Después de leer sobre todos estos riesgos, podrías llegar a pensar que los LLM son inherentemente peligrosos. Pero ese no es el caso en absoluto. Las grandes empresas tecnológicas construyeron sus sistemas de IA para ser invasivos y hambrientos de datos a propósito. Es posible construir una IA que proteja la privacidad de las personas y mantenga los datos seguros por defecto. Lo sabemos porque lo hicimos con Lumo, nuestro asistente de IA(ventana nueva) que prioriza la privacidad.

Así es como Lumo resuelve el verdadero problema de alineación de la IA:

  • Lumo no guarda registros de tus conversaciones. Cada chat se elimina de nuestros servidores tan pronto como el modelo termina de procesar tu consulta y respuesta.
  • Los historiales de chat se almacenan con cifrado de acceso cero. Al bloquear tus datos con tu clave secreta, Proton nunca tiene acceso y, por lo tanto, nunca puede compartir o filtrar accidentalmente tus datos.
  • No entrenamos los modelos con tus chats. El uso de conversaciones para entrenar modelos de IA pone tus datos en riesgo de resurgir en futuras salidas. Las conversaciones con Lumo son solo tuyas.
  • Lumo es de código abierto y utiliza solo modelos de código abierto. Debido a que nuestra base de código es pública, cualquiera puede verificar que nuestras aplicaciones hacen exactamente lo que afirmamos.
  • Estamos basados en una jurisdicción que respeta la privacidad. A diferencia de las IA de grandes tecnológicas con sede en EE. UU. que están sujetas a leyes de vigilancia invasivas, Lumo tiene su sede en Europa y está protegida por fuertes leyes de privacidad.

En todos los niveles, Lumo está diseñado para proporcionar la misma utilidad que otros LLM sin las externalidades arriesgadas. Las grandes tecnológicas podrían construir sus IA de la misma manera. Simplemente eligen no hacerlo porque tus datos son su moneda.

¿Es la alineación de la IA realmente una amenaza?

La verdad es simplemente menos emocionante de lo que a los directores ejecutivos de grandes tecnológicas les gustaría que creyéramos. Parece menos probable que una IA capacite a las personas para crear armas biológicas o gaste todos nuestros recursos globales haciendo clips de lo que simplemente seguirá las directivas que las grandes tecnológicas ya siguen: Robar y explotar datos privados.

No te creas el bombo sobre la alineación de la IA. No es la amenaza en la que ninguno de nosotros debería centrarse. La vigilancia, la explotación de individuos y empresas más pequeñas, y un ecosistema de información comprometido son las preocupaciones apremiantes a las que realmente deberíamos prestar atención cuando se trata de IA.