O “problema de alinhamento” da IA postula que, à medida que os sistemas de IA se tornam mais inteligentes, ficará mais difícil alinhar seus objetivos com os de seus desenvolvedores. Um sistema de IA poderia, em teoria, “sair do controle”, criando estratégias indesejáveis e imprevisíveis para atingir um objetivo.

O maximizador de clipes de papel(nova janela) é um experimento mental que explora esse conceito: Se uma IA superinteligente fosse encarregada do único propósito de criar clipes de papel, ela poderia comandar os recursos do mundo para cumprir seu objetivo a qualquer custo, transformando tudo em clipes de papel. Eventualmente, ela poderia até perceber que os humanos, tentando parar a IA, eram uma distração e nos eliminar: claramente um desalinhamento entre os interesses da IA e os humanos.

Embora obviamente extravagante, o problema do clipe de papel tornou-se um ponto de contato da cultura pop para a IA. Na vida real, restrições e regras impedem que os sistemas vão além de seus propósitos pretendidos. Mas muitos fundadores e CEOs das Big Tech usam essa hipótese para criar burburinho em torno de seus grandes modelos de linguagem (LLMs). Os chatbots realmente têm o poder de extinguir a humanidade? Não. Mas isso os faz parecer impressionantes e, mais importante, oculta o verdadeiro problema de alinhamento da IA que está nos prejudicando agora: LLMs das Big Tech estão invadindo nossa privacidade, roubando nossos dados e desvalorizando nossa economia da informação. É tanto uma estratégia de vendas quanto um desvio de atenção, projetado para nos manter olhando para o futuro em vez de olhar para o controle que estamos cedendo no presente.

Estamos no caminho para um futuro distópico?

Quando os fundadores fazem declarações amplas e especulativas sobre o que seus produtos “poderiam” fazer, isso é principalmente um método para criar oportunidades de negócios e criar valor para seus acionistas. LLMs e IA generativa são produtos comerciais. É do interesse de seus proprietários que você acredite que a ferramenta deles é revolucionária.

Os meios de comunicação estão ansiosos para impulsionar histórias sensacionalistas, como o potencial de ferramentas de IA para ajudar usuários a criar armas biológicas(nova janela) ou mentir para desenvolvedores(nova janela), como se a IA generativa tivesse mente própria (ela não tem). É fácil conseguir cliques com manchetes sobre opiniões extremas ou infundadas, mas tais visões não são um retrato preciso da tecnologia de IA que existe hoje.

Em vez disso, LLMs são simplesmente máquinas de previsão de palavras. Eles são programas de computador que digerem grandes quantidades de texto, “aprendendo” padrões de linguagem humana e, em seguida, constroem respostas probabilísticas para entradas do usuário. Eles não têm pensamentos próprios e nem sequer entendem a linguagem. De fato, eles devem primeiro converter palavras em números antes de poderem processar informações. As limitações dos LLMs foram bem documentadas por Gary Marcus(nova janela) e muitos outros pesquisadores.

Novas ferramentas para o capitalismo de vigilância

LLMs não causarão o apocalipse, mas são muito bons em outra coisa: coletar informações extremamente detalhadas sobre você. É por isso que os LLMs são uma mina de ouro de dados para empresas e um alvo atraente para criminosos.

LLMs alimentam chatbots como ChatGPT, Copilot, Claude e Grok, que funcionam como motores de busca. Ostensivamente, você pode usar esses chatbots para o que quiser: eles podem ajudá-lo a criar listas de compras, organizar seu calendário, escrever e-mails ou escrever código. Eles são seu assistente pessoal, seu professor, seu confidente ou qualquer outra coisa que você peça para serem.

Centenas de milhões de pessoas em todo o mundo já estão compartilhando suas perguntas, ideias, pensamentos e segredos mais profundos com chatbots. Elas são incentivadas a fazer isso pelas empresas que os administram: Sam Altman, CEO da OpenAI, observou recentemente(nova janela) que a Geração Z “realmente não toma decisões de vida sem perguntar ao ChatGPT o que devem fazer.” Apontar e encorajar esse nível de confiança e dependência em um chatbot com fins lucrativos e não confiável é profundamente irresponsável. As Big Tech querem que mediemos nossas vidas e pensamentos através de seus serviços porque então elas têm uma palavra a dizer sobre como gastamos nosso dinheiro, o que fazemos e o que pensamos.

As empresas por trás dos LLMs também vendem seus produtos como soluções de produtividade para governos e empresas, prometendo economizar tempo e esforço para seus usuários enquanto introduzem novas oportunidades para você ser vigiado. No Reino Unido, o sistema de IA do Ministério da Justiça “prevê” o risco de reincidência(nova janela) de prisioneiros. Policiais estão usando chatbots(nova janela) para redigir relatórios de crimes. Combinar poderes estatais com algoritmos tendenciosos(nova janela) é perigoso e reforça preconceitos existentes.

Explorando seus dados para fins de treinamento

LLMs funcionam em modelos de IA treinados por enormes conjuntos de dados e, para melhorar seus serviços, eles exigem cada vez mais dados. Infelizmente, esses dados vêm de você: seus bate-papos, suas fotos, suas pesquisas na web. As empresas nem sempre pedirão sua permissão ou deixarão claro o que estão coletando de você.

Por exemplo, a Meta AI quer escanear (nova janela)fotos(nova janela) na sua biblioteca que você nem enviou para suas plataformas para analisar seus dados faciais. Muitos usuários ficaram perturbados com o anúncio de que a IA Copilot da Microsoft(nova janela) tiraria capturas de tela de seus dispositivos a cada poucos minutos. Suas fotos, suas mensagens para seus amigos e entes queridos e seus pensamentos mais pessoais são pontos de dados valiosos que as empresas querem.

Olhando para a política de privacidade(nova janela) da OpenAI, vemos que o ChatGPT encontrará e armazenará:

  • Identificadores, como seu nome, detalhes de contato, endereço IP e outros identificadores de dispositivo
  • Informações comerciais, como seu histórico de transações
  • Informações de atividade de rede, como conteúdo e como você interage com o ChatGPT
  • A localização geral de onde você acessa o ChatGPT

Essas informações podem ser divulgadas a governos, fornecedores, afiliados, provedores de serviços e outros terceiros.

Essencialmente, um LLM passa a conhecer você. Assim como um motor de busca, ele passa a entender seus hábitos, suas preferências, seus interesses e todos os aspectos de você que ele pode extrair do seu comportamento. As Big Tech sempre priorizarão encontrar novas maneiras de adquirir seus dados pessoais porque é lucrativo. E elas esperam que você não perceba.

Basta pensar nas tendências que varreram as redes sociais nos últimos anos: animações personalizadas no estilo Studio Ghibli(nova janela) imitaram o estilo distinto de Hayao Miyazaki contra a vontade dele e bonecas personalizadas embaladas por IA(nova janela) inspiradas em brinquedos clássicos como Barbie criaram insights visuais sobre os gostos pessoais das pessoas. Essa tendência de mídia social pode ter parecido uma diversão inofensiva, mas as ferramentas de IA usadas para criar essas imagens foram capazes de coletar fotos e informações sobre as pessoas que suas empresas-mãe podem usar para fins publicitários e potencialmente vender para terceiros. Esses são apenas dois de muitos exemplos de Big Tech ingerindo silenciosamente seus dados pessoais em troca de participação em uma tendência passageira.

Existe uma solução melhor para LLMs

Depois de ler sobre todos esses riscos, você pode chegar a pensar que os LLMs são inerentemente perigosos. Mas não é esse o caso. As empresas Big Tech construíram seus sistemas de IA para serem invasivos e famintos por dados de propósito. É possível construir IA que proteja a privacidade das pessoas e mantenha os dados seguros por padrão. Sabemos porque fizemos isso com o Lumo, nosso assistente de IA(nova janela) focado na privacidade.

Aqui está como o Lumo resolve o verdadeiro problema de alinhamento da IA:

  • O Lumo não mantém registros de suas conversas. Cada bate-papo é excluído de nossos servidores assim que o modelo termina de processar sua consulta e resposta.
  • Históricos de bate-papo são armazenados com criptografia de acesso zero. Ao bloquear seus dados com sua chave secreta, a Proton nunca tem acesso e, portanto, nunca pode compartilhar ou vazar acidentalmente seus dados.
  • Não treinamos os modelos com seus bate-papos. Usar conversas para treinar modelos de IA coloca seus dados em risco de ressurgir em saídas futuras. As conversas com o Lumo são apenas suas.
  • O Lumo é de código aberto e usa apenas modelos de código aberto. Como nossa base de código é pública, qualquer pessoa pode verificar se nossos aplicativos fazem exatamente o que afirmamos.
  • Estamos sediados em uma jurisdição que respeita a privacidade. Ao contrário das IAs de Big Tech baseadas nos EUA que estão sujeitas a leis de vigilância invasivas, o Lumo está sediado na Europa e protegido por fortes leis de privacidade.

Em todos os níveis, o Lumo é projetado para fornecer a mesma utilidade que outros LLMs sem as externalidades arriscadas. As Big Tech poderiam construir suas IAs da mesma maneira. Elas apenas escolhem não fazer porque seus dados são a moeda delas.

O alinhamento da IA é realmente uma ameaça?

A verdade é simplesmente menos emocionante do que os CEOs das Big Tech gostariam que acreditássemos. Parece menos provável que uma IA capacite as pessoas a criar armas biológicas ou gastar todos os nossos recursos globais fazendo clipes de papel do que simplesmente seguir as diretrizes que as Big Tech já seguem: Roubar e explorar dados privados.

Não acredite no hype sobre alinhamento de IA. Não é a ameaça na qual nenhum de nós deveria estar focando. Vigilância, exploração de indivíduos e empresas menores e um ecossistema de informações comprometido são as preocupações urgentes às quais devemos realmente prestar atenção quando se trata de IA.