El “problema de alineación” de la IA plantea que a medida que los sistemas de IA se vuelven más inteligentes, será más difícil alinear sus objetivos con los de sus desarrolladores. Un sistema de IA podría, en teoría, “volverse rebelde”, ideando estrategias indeseables e impredecibles para lograr un objetivo.

El maximizador de clips(nueva ventana) es un experimento mental que explora este concepto: si una IA superinteligente tuviera la tarea de crear clips con el único propósito, podría apropiarse de los recursos del mundo para lograr su objetivo a toda costa, convirtiendo todo en clips. Eventualmente podría incluso darse cuenta de que los humanos, tratando de detener a la IA, eran una distracción y eliminarnos: claramente una desalineación entre la IA y los intereses humanos.

Aunque obviamente es extravagante, el problema del clip se ha convertido en un punto de referencia de la cultura pop para la IA. En la vida real, las restricciones y las reglas impiden que los sistemas vayan más allá de sus propósitos previstos. Pero muchos fundadores y directores ejecutivos de las grandes tecnológicas utilizan esta hipótesis para generar rumores en torno a sus grandes modelos de lenguaje (LLM). ¿Tienen realmente los chatbots el poder de extinguir a la humanidad? No. Pero los hace sonar impresionantes y, lo que es más importante, oculta el verdadero problema de alineación de la IA que nos está perjudicando en este momento: Los LLM de las grandes tecnológicas están invadiendo nuestra privacidad, robando nuestros datos y devaluando nuestra economía de la información. Es tanto una estrategia de ventas como una distracción, diseñada para que miremos hacia el futuro en lugar de mirar el control que estamos cediendo en el presente.

¿Estamos en camino a un futuro distópico?

Cuando los fundadores hacen declaraciones amplias y especulativas sobre lo que sus productos “podrían” hacer, esto es principalmente un método para crear oportunidades de negocio y generar valor para sus accionistas. Los LLM y la IA generativa son productos comerciales. A sus propietarios les interesa que usted crea que su herramienta es revolucionaria.

Los medios de comunicación están ansiosos por promover historias sensacionalistas, como el potencial de las herramientas de IA para ayudar a los usuarios a crear armas biológicas(nueva ventana) o mentir a los desarrolladores(nueva ventana), como si la IA generativa tuviera mente propia (no la tiene). Es fácil conseguir clics con titulares sobre opiniones extremas o infundadas, pero tales puntos de vista no son una representación precisa de la tecnología de IA que existe hoy en día.

En cambio, los LLM son simplemente máquinas de predicción de palabras. Son programas de computadora que digieren cantidades masivas de texto, “aprendiendo” patrones del lenguaje humano y luego construyen respuestas probabilísticas a las entradas del usuario. No tienen pensamientos propios y ni siquiera entienden el lenguaje. De hecho, primero deben convertir palabras en números antes de que puedan procesar la información. Las limitaciones de los LLM han sido bien documentadas por Gary Marcus(nueva ventana) y muchos otros investigadores.

Nuevas herramientas para el capitalismo de vigilancia

Los LLM no causarán el apocalipsis, pero son bastante buenos en algo más: recopilar información extremadamente matizada sobre usted. Es por eso que los LLM son una mina de oro de datos para las empresas y un objetivo atractivo para los delincuentes.

Los LLM potencian chatbots como ChatGPT, Copilot, Claude y Grok, que funcionan como motores de búsqueda. Aparentemente, usted puede usar estos chatbots para lo que quiera: pueden ayudarle a crear listas de compras, organizar su calendario, escribir correos electrónicos o escribir código. Son su asistente personal, su maestro, su confidente o cualquier otra cosa que les pida que sean.

Cientos de millones de personas en todo el mundo ya están compartiendo sus preguntas, ideas, pensamientos y secretos más profundos con chatbots. Se les anima a hacerlo por las empresas que los dirigen: Sam Altman, CEO de Open AI, señaló recientemente(nueva ventana) que la Generación Z “realmente no toma decisiones de vida sin preguntar a ChatGPT qué deberían hacer”. Señalar y fomentar este nivel de confianza y dependencia en un chatbot con fines de lucro y poco fiable es profundamente irresponsable. Las grandes tecnológicas quieren que mediemos nuestras vidas y pensamientos a través de sus servicios porque entonces tienen voz y voto en cómo gastamos nuestro dinero, qué hacemos y qué pensamos.

Las empresas detrás de los LLM también venden sus productos como soluciones de productividad para gobiernos y empresas, prometiendo ahorrar tiempo y esfuerzo para sus usuarios mientras introducen nuevas oportunidades para que usted sea vigilado. En el Reino Unido, el sistema de IA del Ministerio de Justicia “predice” el riesgo de reincidencia(nueva ventana) de los prisioneros. Los oficiales de policía están usando chatbots(nueva ventana) para redactar informes de delitos. Combinar los poderes estatales con algoritmos sesgados(nueva ventana) es peligroso y refuerza los prejuicios existentes.

Explotación de sus datos con fines de entrenamiento

Los LLM se ejecutan en modelos de IA entrenados por enormes conjuntos de datos y, para mejorar sus servicios, requieren más y más datos. Desafortunadamente, estos datos provienen de usted: sus chats, sus fotos, sus búsquedas web. Las empresas no siempre le pedirán permiso ni dejarán claro qué están recopilando de usted.

Por ejemplo, Meta AI quiere escanear (nueva ventana)fotos(nueva ventana) en su biblioteca que ni siquiera ha cargado a sus plataformas para analizar sus datos faciales. Muchos usuarios se sintieron perturbados por el anuncio de que Copilot AI de Microsoft(nueva ventana) tomaría capturas de pantalla de sus dispositivos cada pocos minutos. Sus fotos, sus mensajes a sus amigos y seres queridos, y sus pensamientos más personales son puntos de datos valiosos que las empresas quieren.

Mirando la política de privacidad(nueva ventana) de Open AI, vemos que ChatGPT encontrará y almacenará:

  • Identificadores, como su nombre, detalles de contacto, dirección IP y otros identificadores de dispositivo
  • Información comercial, como su historial de transacciones
  • Información de actividad de red, como contenido y cómo interactúa con ChatGPT
  • La ubicación general desde la que accede a ChatGPT

Esta información puede ser divulgada a gobiernos, proveedores, afiliados, proveedores de servicios y otros terceros.

Esencialmente, un LLM llega a conocerle. Al igual que un motor de búsqueda, llega a comprender sus hábitos, sus preferencias, sus intereses y cada aspecto de usted que pueda deducir de su comportamiento. Las grandes tecnológicas siempre priorizarán encontrar nuevas formas de adquirir sus datos personales porque es rentable. Y esperan que usted no se dé cuenta.

Solo piense en las tendencias que han arrasado en las redes sociales en los últimos años: las animaciones personalizadas al estilo Studio Ghibli(nueva ventana) imitaron el estilo distintivo de Hayao Miyazaki en contra de su voluntad y las muñecas empaquetadas personalizadas por IA(nueva ventana) inspiradas en juguetes clásicos como Barbie crearon percepciones visuales sobre los gustos personales de la gente. Esta tendencia de las redes sociales puede haber parecido diversión inofensiva, pero las herramientas de IA utilizadas para crear estas imágenes fueron capaces de recolectar fotos e información sobre las personas que sus empresas matrices pueden usar con fines publicitarios y potencialmente vender a terceros. Estos son solo dos de los muchos ejemplos de las grandes tecnológicas ingiriendo silenciosamente sus datos personales a cambio de participar en una tendencia fugaz.

Hay una mejor solución para los LLM

Después de leer sobre todos estos riesgos, podría llegar a pensar que los LLM son inherentemente peligrosos. Pero ese no es el caso en absoluto. Las empresas de las grandes tecnológicas construyeron sus sistemas de IA para ser invasivos y ávidos de datos a propósito. Es posible construir una IA que proteja la privacidad de las personas y mantenga los datos seguros por defecto. Lo sabemos porque lo hicimos con Lumo, nuestro asistente de IA(nueva ventana) que prioriza la privacidad.

Así es como Lumo resuelve el verdadero problema de alineación de la IA:

  • Lumo no guarda registros de sus conversaciones. Cada chat se elimina de nuestros servidores tan pronto como el modelo termina de procesar su consulta y respuesta.
  • Los historiales de chat se almacenan con cifrado de acceso cero. Al bloquear sus datos con su clave secreta, Proton nunca tiene acceso y, por lo tanto, nunca puede compartir o filtrar accidentalmente sus datos.
  • No entrenamos los modelos con sus chats. Usar conversaciones para entrenar modelos de IA pone sus datos en riesgo de resurgir en resultados futuros. Las conversaciones con Lumo son solo suyas.
  • Lumo es de código abierto y utiliza solo modelos de código abierto. Debido a que nuestra base de código es pública, cualquiera puede verificar que nuestras aplicaciones hacen exactamente lo que afirmamos.
  • Estamos basados en una jurisdicción que respeta la privacidad. A diferencia de las IA de las grandes tecnológicas con sede en EE. UU. que están sujetas a leyes de vigilancia invasivas, Lumo tiene su sede en Europa y está protegido por fuertes leyes de privacidad.

En todos los niveles, Lumo está diseñado para proporcionar la misma utilidad que otros LLM sin las externalidades riesgosas. Las grandes tecnológicas podrían construir sus IA de la misma manera. Simplemente eligen no hacerlo porque sus datos son su divisa.

¿Es la alineación de la IA realmente una amenaza?

La verdad es simplemente menos emocionante de lo que a los directores ejecutivos de las grandes tecnológicas les gustaría que creyéramos. Parece menos probable que una IA capacite a las personas para crear armas biológicas o gastar todos nuestros recursos globales haciendo clips de lo que simplemente seguirá las directivas que las grandes tecnológicas ya siguen: Robar y explotar datos privados.

No crea en el bombo publicitario sobre la alineación de la IA. No es la amenaza en la que ninguno de nosotros debería centrarse. La vigilancia, la explotación de individuos y empresas más pequeñas, y un ecosistema de información comprometido son las preocupaciones apremiantes a las que realmente deberíamos prestar atención cuando se trata de IA.