Uma realidade frustrante para os criadores atuais é que o seu trabalho está exposto ao treino de IA. Empresas tecnológicas que desenvolvem IA generativa como o ChatGPT, o Gemini, o DeepSeek, o Stable Diffusion e o Midjourney precisam de conjuntos de dados massivos para treinar os seus modelos, e têm vindo a extrair dados da internet pública para o fazer.

Isto levantou questões importantes sobre consentimento, atribuição e controlo sobre o trabalho criativo depois de ser partilhado online.

Se procura formas de proteger melhor os seus dados criativos, este guia descreve passos práticos que pode tomar para reduzir a forma como o seu trabalho é utilizado no treino de IA, mantendo a interação com a internet nos seus próprios termos.

Como o treino de IA em conteúdo público pode colocar o trabalho criativo em risco

As ferramentas de IA generativa requerem uma grande quantidade de dados para funcionar, e grande parte desses dados provém da internet. A OpenAI declarou publicamente(nova janela) que seria «impossível» treinar IA como o ChatGPT sem aceder a material protegido por direitos de autor encontrado online.

Trabalhos criativos de portefólios online, plataformas de redes sociais e blogues estão a ser utilizados para treinar estes modelos sem consentimento ou atribuição. Por exemplo, a Meta admitiu(nova janela) extrair publicações, fotografias e comentários partilhados publicamente no Facebook e Instagram desde 2007 para treinar os seus modelos de IA generativa. Isso significa que qualquer trabalho criativo que tenha partilhado publicamente nessas plataformas — como fotografias de casamento, imagens de portefólio ou ilustrações — pode ser utilizado para treino de IA, a menos que tenha definido a visibilidade como privada.

As empresas de IA argumentaram em processos judiciais(nova janela) em curso que o treino com dados extraídos da internet se enquadra na «utilização justa». Ao mesmo tempo, tratam os modelos e conjuntos de dados resultantes como ativos proprietários. Os termos de serviço da OpenAI proíbem a «utilização de Saídas para desenvolver modelos que concorram com a OpenAI», e a empresa acusou a DeepSeek de copiar «inapropriadamente»(nova janela) os seus modelos — os mesmos modelos treinados com dados da internet publicamente disponíveis.

Esta aparente duplicidade de critérios ajuda a explicar porque é que muitos criadores sentem que o seu trabalho é vulnerável ao treino de IA sem o seu consentimento, crédito ou compensação. Também levanta questões mais amplas sobre como o conteúdo «publicamente disponível» é interpretado, particularmente quando o trabalho criativo é partilhado em plataformas cujas licenças limitam explicitamente a reutilização não autorizada ou a exploração comercial. Como resultado, muitos artistas, escritores e fotógrafos estão cada vez mais a opor-se à extração de dados por IA.

Como impedir que a IA utilize a sua arte

Com os tribunais ainda a emitir decisões caso a caso e sem um padrão legal claro em vigor, os criadores não podem confiar apenas no sistema legal para proteger o seu trabalho. Entretanto, existem passos práticos que pode tomar agora para reduzir a forma como o seu trabalho é utilizado no treino de IA.

Contudo, nenhuma destas estratégias é infalível; as ferramentas de proteção e as empresas de IA estão sempre a tentar superar-se mutuamente. Por agora, pense nelas como partes individuais da sua armadura que funcionam melhor coletivamente. Estas são as melhores formas de obter mais controlo sobre os seus dados criativos:

Mascare o seu estilo artístico

Ferramentas de mascaramento como o Glaze(nova janela) dificultam o treino de modelos de IA no seu trabalho ao fazer pequenas alterações nos píxeis que confundem os modelos de IA. A imagem aparece como pretendido aos humanos, mas para um extrator de IA, regista-se como um estilo diferente ou distorcido.

«Envenene» a sua obra de arte

Utilizando ferramentas como o Nightshade(nova janela), pode tornar as suas obras de arte venenosas para os extratores de IA. Uma imagem «envenenada» contém alterações subtis e invisíveis que interferem com o treino de IA, fazendo com que o sistema interprete mal o que está a ver, como carros em vez de gatos, ou nuvens em vez de aviões. Com o tempo, se forem utilizadas imagens envenenadas suficientes para o treino, essas associações erradas podem aparecer em versões futuras do modelo.

No entanto, proteções técnicas como o Glaze e o Nightshade não são infalíveis, e investigações(nova janela) mostram que podem ser enfraquecidas à medida que os sistemas de IA evoluem.

Recuse o treino de IA

Se o seu trabalho existe online, é provável que tenha sido extraído para um modelo de IA. Utilizando sítios web como o Have I Been Trained(nova janela) e o AI Watchdog(nova janela) do The Atlantic, pode verificar se as suas imagens, escrita ou outro trabalho criativo aparecem em conjuntos de dados conhecidos utilizados para treinar modelos de IA. O primeiro permite-lhe submeter o seu trabalho a um registo de «Não Treinar», onde as empresas participantes podem identificar e excluir essas imagens de futuros ciclos de treino. No entanto, estas medidas são voluntárias, dependem da vontade de cada empresa em honrá-las e não afetam modelos que já tenham sido treinados utilizando o seu trabalho.

Se vive na UE, pode utilizar leis de proteção de dados como o RGPD(nova janela) a seu favor, solicitando às empresas que excluam o seu conteúdo do treino de IA. Algumas empresas têm processos de exclusão escondidos nas definições das suas aplicações; por exemplo, eis como recusar a utilização de dados pela Meta AI no Facebook, Instagram e WhatsApp.

Reforce as suas definições de privacidade

Reduza o que publica publicamente nas redes sociais e certifique-se de que o seu perfil está definido como privado. Quanto menos conteúdo estiver abertamente acessível, mais difícil é extraí-lo por sistemas de IA externos. Mas isto pode não ser suficiente para o proteger da própria plataforma, uma vez que muitas empresas integram cada vez mais funcionalidades de IA — tal como a Meta utilizar todas as interações com a Meta AI para treino e anúncios — levantando questões sobre como o conteúdo público e privado pode ser utilizado ao longo do tempo. É melhor evitar utilizar as redes sociais como o seu arquivo principal ou portefólio.

Seja intencional na partilha pública

Ao publicar publicamente para alcançar o seu público, partilhe versões mais pequenas, de menor resolução ou com marca de água do seu trabalho. Mantenha os ficheiros de qualidade total armazenados em cópias de segurança offline ou serviços na nuvem que claramente não utilizam conteúdo privado para treino de IA.

Armazene e partilhe ficheiros com segurança

À medida que as ferramentas de IA se tornam mais profundamente integradas nas principais plataformas — como a Google adicionar o Gemini em todo o lado, incluindo no Google Drive e no Gmail — as pessoas estão cada vez mais cautelosas sobre como armazenar e partilhar o seu trabalho.

A Proton Drive fornece armazenamento com encriptação de ponto a ponto e partilha para as suas fotografias, vídeos, álbuns, documentos, folhas de cálculo e outros ficheiros. Nunca recolhemos, processamos, partilhamos os seus dados com terceiros nem os utilizamos para treino de IA. Ao contrário das grandes tecnológicas, a Proton é totalmente apoiada pela nossa comunidade de subscritores pagantes, em vez de publicidade ou utilização de dados.

Pode partilhar ligações protegidas por palavra-passe, definir datas de expiração, conceder acesso a pessoas específicas apenas via e-mail e revogar o acesso a qualquer momento. Também pode recolher ficheiros de forma segura de pessoas sem uma conta Proton.

Utilize IA privada sem abdicar do controlo

Se deseja os benefícios da IA sem abdicar do controlo sobre o seu trabalho, e sem se preocupar que uma alteração futura de política possa subitamente transformar os seus ficheiros em dados de treino, utilize o nosso assistente de IA privado(nova janela). O Lumo nunca treina com os seus ficheiros ou conversas, e baseia-se em código de fonte aberta, o que significa que qualquer pessoa pode verificar as nossas afirmações.

O Lumo integra-se com a Proton Drive, permitindo-lhe trabalhar com segurança com os seus ficheiros e gerar imagens, sem contribuir para o ecossistema de extração de IA ao qual tantos indivíduos e organizações se opõem ativamente.

A sua arte são dados sensíveis

Parar o roubo de arte por IA não significa rejeitar a IA por completo. Mas significa reconhecer que o trabalho criativo são dados sensíveis, quer seja uma ilustração, um romance ou uma canção. Os criadores merecem agência e tratamento justo, incluindo a capacidade de decidir como e se o seu trabalho é utilizado.

Nenhuma estratégia única pode impedir totalmente os sistemas de IA de absorver conteúdo publicamente disponível — e, em alguns casos, conteúdo privado exposto indiretamente — no seu treino. E as empresas de IA farão com que acredite que não há forma de construir ferramentas de IA sem utilizar os seus dados. Nós discordamos(nova janela).

Até que os reguladores e os tribunais forneçam orientações mais claras, a abordagem mais eficaz é ser proativo na forma como interage com a internet e escolher plataformas que respeitem claramente a sua privacidade e direitos criativos.