O «problema de alinhamento» da IA postula que, à medida que os sistemas de IA se tornam mais inteligentes, será mais difícil alinhar os seus objetivos com os dos seus criadores. Um sistema de IA poderia, em teoria, «ficar fora de controlo», concebendo estratégias indesejáveis e imprevisíveis para atingir um objetivo.
O maximizador de clipes(nova janela) é uma experiência de pensamento que explora este conceito: Se uma IA superinteligente fosse encarregada do propósito único de criar clipes, poderia comandar os recursos do mundo para cumprir o seu objetivo a todo o custo, transformando tudo em clipes. Eventualmente poderia até perceber que os humanos, ao tentar parar a IA, eram uma distração e eliminar-nos: claramente um desalinhamento entre os interesses da IA e os humanos.
Embora obviamente extravagante, o problema dos clipes tornou-se um ponto de referência da cultura pop para a IA. Na vida real, restrições e regras impedem os sistemas de ir além dos seus propósitos pretendidos. Mas muitos fundadores e CEOs das grandes tecnológicas utilizam esta hipótese para criar burburinho em torno dos seus grandes modelos de linguagem (LLM). Será que os chatbots têm realmente o poder de extinguir a humanidade? Não. Mas fá-los parecer impressionantes e, mais importante, oculta o verdadeiro problema de alinhamento da IA que nos está a prejudicar agora: os LLM das grandes tecnológicas estão a invadir a nossa privacidade, a roubar os nossos dados e a desvalorizar a nossa economia de informação. É tanto uma estratégia de vendas como um desvio de atenção, concebido para nos manter a olhar para o futuro em vez de olhar para o controlo que estamos a ceder no presente.
Estamos a caminho de um futuro distópico?
Quando os fundadores fazem declarações amplas e especulativas sobre o que os seus produtos «poderiam» fazer, este é principalmente um método para criar oportunidades de negócio e criar valor para os seus acionistas. Os LLM e a IA generativa são produtos empresariais. É do interesse dos seus proprietários que acredite que a sua ferramenta é revolucionária.
Os meios de comunicação social estão ansiosos por impulsionar histórias sensacionalistas, como o potencial de ferramentas de IA para ajudar os utilizadores a criar armas biológicas(nova janela) ou mentir a programadores(nova janela), como se a IA generativa tivesse mente própria (não tem). É fácil obter cliques com manchetes sobre opiniões extremas ou infundadas, mas tais visões não são um retrato preciso da tecnologia de IA que existe hoje.
Em vez disso, os LLM são simplesmente máquinas de previsão de palavras. São programas de computador que digerem quantidades massivas de texto, «aprendendo» padrões da linguagem humana, e depois constroem respostas probabilísticas às entradas do utilizador. Não têm pensamentos próprios e nem sequer compreendem a linguagem. De facto, têm primeiro de converter palavras em números antes de poderem processar informação. As limitações dos LLM foram bem documentadas por Gary Marcus(nova janela) e muitos outros investigadores.
Novas ferramentas para o capitalismo de vigilância
Os LLM não causarão o apocalipse, mas são bastante bons noutra coisa: recolher informações extremamente detalhadas sobre si. É por isso que os LLM são uma mina de ouro de dados para empresas e um alvo atrativo para criminosos.
Os LLM alimentam chatbots como o ChatGPT, Copilot, Claude e Grok, que funcionam como motores de pesquisa. Ostensivamente, pode utilizar estes chatbots para o que quiser: podem ajudá-lo a criar listas de compras, organizar o seu calendário, escrever e-mails ou escrever código. São o seu assistente pessoal, o seu professor, o seu confidente ou o que quer que lhes peça para ser.
Centenas de milhões de pessoas em todo o mundo já estão a partilhar as suas perguntas, ideias, pensamentos e segredos mais profundos com chatbots. São encorajadas a fazê-lo pelas empresas que os gerem: Sam Altman, CEO da OpenAI, notou recentemente(nova janela) que a Geração Z «não toma decisões de vida sem perguntar ao ChatGPT o que deve fazer». Destacar e encorajar este nível de confiança e dependência num chatbot com fins lucrativos e pouco fiável é profundamente irresponsável. As grandes tecnológicas querem que mediemos as nossas vidas e pensamentos através dos seus serviços porque assim têm uma palavra a dizer sobre como gastamos o nosso dinheiro, o que fazemos e o que pensamos.
As empresas por detrás dos LLM também vendem os seus produtos como soluções de produtividade para governos e empresas, prometendo poupar tempo e esforço aos seus utilizadores enquanto introduzem novas oportunidades para ser vigiado. No Reino Unido, o sistema de IA do Ministério da Justiça «prevê» o risco de reincidência(nova janela) dos prisioneiros. Agentes da polícia estão a utilizar chatbots(nova janela) para escrever relatórios de crimes. Combinar poderes estatais com algoritmos tendenciosos(nova janela) é perigoso e reforça preconceitos existentes.
Explorar os seus dados para fins de treino
Os LLM funcionam com modelos de IA treinados por enormes conjuntos de dados e, para melhorar os seus serviços, requerem cada vez mais dados. Infelizmente, estes dados provêm de si: os seus chats, as suas fotografias, as suas pesquisas na web. As empresas nem sempre pedirão a sua permissão ou deixarão claro o que estão a recolher de si.
Por exemplo, a Meta AI quer digitalizar (nova janela)fotografias(nova janela) na sua biblioteca que nem sequer carregou para as suas plataformas para analisar os seus dados faciais. Muitos utilizadores ficaram perturbados com o anúncio de que o Copilot AI da Microsoft(nova janela) tiraria capturas de ecrã dos seus dispositivos a cada poucos minutos. As suas fotografias, as suas mensagens para amigos e entes queridos e os seus pensamentos mais pessoais são pontos de dados valiosos que as empresas querem.
Olhando para a política de privacidade(nova janela) da OpenAI, vemos que o ChatGPT encontrará e armazenará:
- Identificadores, como o seu nome, detalhes de contacto, endereço IP e outros identificadores de dispositivo
- Informações comerciais, como o seu histórico de transações
- Informações de atividade de rede, como conteúdo e como interage com o ChatGPT
- A localização geral a partir da qual acede ao ChatGPT
Estas informações podem ser divulgadas a governos, fornecedores, afiliados, prestadores de serviços e outros terceiros.
Essencialmente, um LLM fica a conhecê-lo. Tal como um motor de pesquisa, passa a compreender os seus hábitos, as suas preferências, os seus interesses e todos os aspetos que consegue recolher do seu comportamento. As grandes tecnológicas priorizarão sempre encontrar novas formas de adquirir os seus dados pessoais porque é lucrativo. E esperam que não repare.
Pense apenas nas tendências que varreram as redes sociais nos últimos anos: animações personalizadas ao estilo Studio Ghibli(nova janela) imitaram o estilo distintivo de Hayao Miyazaki contra a sua vontade e bonecas personalizadas em caixas(nova janela) inspiradas em brinquedos clássicos como a Barbie criaram conhecimentos visuais sobre os gostos pessoais das pessoas. Esta tendência das redes sociais pode ter parecido diversão inofensiva, mas as ferramentas de IA utilizadas para criar estas imagens foram capazes de recolher fotografias e informações sobre pessoas que as suas empresas-mãe podem utilizar para fins publicitários e potencialmente vender a terceiros. Estes são apenas dois de muitos exemplos de grandes tecnológicas a ingerir silenciosamente os seus dados pessoais em troca de participação numa tendência passageira.
Existe uma solução melhor para LLM
Depois de ler sobre todos estes riscos, pode vir a pensar que os LLM são inerentemente perigosos. Mas não é esse o caso. As empresas tecnológicas construíram os seus sistemas de IA para serem invasivos e famintos por dados de propósito. É possível construir IA que proteja a privacidade das pessoas e mantenha os dados seguros por defeito. Sabemos porque o fizemos com o Lumo, o nosso assistente de IA(nova janela) focado na privacidade.
Eis como o Lumo resolve o verdadeiro problema de alinhamento da IA:
- O Lumo não mantém registos das suas conversas. Cada chat é eliminado dos nossos servidores assim que o modelo termina de processar a sua consulta e resposta.
- Os históricos de chat são armazenados com encriptação de acesso zero. Ao bloquear os seus dados com a sua chave secreta, a Proton nunca tem acesso e, portanto, nunca pode partilhar ou divulgar acidentalmente os seus dados.
- Não treinamos os modelos com os seus chats. Utilizar conversas para treinar modelos de IA coloca os seus dados em risco de ressurgir em saídas futuras. As conversas com o Lumo são apenas suas.
- O Lumo é de código aberto e utiliza apenas modelos de código aberto. Como a nossa base de código é pública, qualquer pessoa pode verificar que as nossas aplicações fazem exatamente o que afirmamos.
- Estamos sediados numa jurisdição que respeita a privacidade. Ao contrário das IAs das grandes tecnológicas sediadas nos EUA que estão sujeitas a leis de vigilância invasivas, o Lumo está sediado na Europa e protegido por leis de privacidade fortes.
A todos os níveis, o Lumo foi concebido para fornecer a mesma utilidade que outros LLM sem as externalidades arriscadas. As grandes tecnológicas poderiam construir as suas IAs da mesma forma. Apenas escolhem não o fazer porque os seus dados são a moeda deles.
O alinhamento da IA é realmente uma ameaça?
A verdade é simplesmente menos excitante do que os CEOs das grandes tecnológicas gostariam que acreditássemos. Parece menos provável que uma IA capacite as pessoas para criar armas biológicas ou gastar todos os nossos recursos globais a fazer clipes do que simplesmente seguir as diretivas que as grandes tecnológicas já seguem: Roubar e explorar dados privados.
Não acredite no alarido sobre o alinhamento da IA. Não é a ameaça em que qualquer um de nós se deva focar. A vigilância, a exploração de indivíduos e empresas mais pequenas e um ecossistema de informação comprometido são as preocupações prementes a que devemos realmente prestar atenção no que diz respeito à IA.






