Tecnologia

A edição de fotos com IA sem a troca de privacidade está quase chegando


Você ama a magia de Edição de fotos com IA mas odeio entregar seu rosto inalterado a algum servidor em nuvem. Uma nova tecnologia de privacidade da Pesquisadores da Universidade Purdue pode lhe dar o melhor dos dois mundos. O método com patente pendente mascara partes sensíveis de uma imagem no seu dispositivo antes que a foto chegue a um nível Plataforma de IA.

Apenas a versão mascarada é carregada, o que significa que a ferramenta vê o fundo e suas roupas, mas nunca seu rosto real. Depois que a edição volta, a tecnologia combina perfeitamente a região mascarada original. O resultado é uma foto totalmente editada que parece completamente natural, sem nenhum dos seus dados biométricos expostos. Ele também funciona com qualquer modelo comercial de IA generativa, portanto, não é necessário retreinamento ou aplicativos especiais.

Como o mascaramento local engana a IA

A abordagem funciona em dois estágios limpos. Antes de fazer o upload, você ou o aplicativo desenha um contorno detalhado em torno de regiões sensíveis, como seu rosto. Esses pixels nunca saem do seu telefone ou computador. Apenas o restante da imagem segue para a ferramenta de edição, que a processa normalmente.

Quando a versão editada retorna, a tecnologia realinha e mescla a face mascarada original de volta ao resultado final usando alinhamento geométrico. Os pesquisadores Vaneet Aggarwal, Dipesh Tamboli e Vineet Punyamoorty o projetaram especificamente para funcionar com ferramentas existentes. Você não precisará de empresas como OpenAI ou Adobe para mudar seus modelos.

Por que seus dados biométricos precisam de proteção

O risco de privacidade aqui é real. Ao fazer upload de uma foto para um editor de IA baseado em nuvem, você envia seu perfil biométrico completo junto com ela. Cor dos olhos, pelos faciais, faixa etária, tudo isso se torna dados que a plataforma pode armazenar, treinar ou compartilhar. Você perde o controle no segundo em que clica no upload.

Soluções alternativas anteriores, como filtros de desfoque ou estilização, interromperam o processo de edição ou deixaram pixels suficientes para a reconstrução dos modelos de IA. A equipe validou seu sistema testando até que ponto os principais modelos de IA poderiam adivinhar atributos de imagens mascaradas versus imagens não mascaradas. Os resultados mostraram uma queda dramática na precisão. Em alguns casos, a capacidade da IA ​​de classificar coisas como a cor dos olhos caiu mais de 80%.

O que acontece a seguir

A tecnologia ainda está em fase de pesquisa, mas a equipe publicou suas descobertas no IEEE Transactions on Artificial Intelligence. Eles também solicitaram uma patente por meio do Purdue Innovates Office of Technology Commercialization, o que significa que a universidade está agora procurando parceiros da indústria para transformá-la em produtos reais.

Os pesquisadores já estão expandindo o conceito para além dos rostos. Eles querem proteger imagens médicas, documentos de identificação e outros conteúdos críticos para a privacidade. Por enquanto, se você quiser esse nível de proteção, terá que esperar. Mas a porta do licenciamento está aberta e as empresas interessadas em integrar a tecnologia podem entrar em contato diretamente com a universidade. Os dias de escolher entre uma ótima edição e sua privacidade podem acabar mais cedo do que você imagina.


Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo