Android Central

Projeto Nimbus do Google é o futuro do mal

protection click fraud

O Google faz muitas coisas estúpidas. Todas as corporações gigantes são iguais a esse respeito. Mas é preciso um esforço especial para fazer algo verdadeiramente terrível. É aí que o Projeto Nimbus do Google entra no espectro.

O Projeto Nimbus é um esforço conjunto do Google, da Amazon e do governo israelense que fornece recursos de vigilância futuristas por meio do uso de modelos avançados de aprendizado de máquina. Goste ou não, isso faz parte do futuro da segurança do Estado e não é mais terrível do que muitos outros projetos semelhantes. Muitos de nós até usamos tecnologia semelhante dentro e ao redor de nossas casas.

Projetor Arlo Pro 3
(Crédito da imagem: Chris Wedel/Android Central)

Onde as coisas ficam sombrias e feias é o que o Google diz sobre os recursos do Projeto Nimbus usando a tecnologia da empresa:

Os documentos de treinamento da Nimbus enfatizam "os recursos de detecção de 'rostos, pontos de referência faciais, emoções' da API Cloud Vision do Google", e em um treinamento da Nimbus webinar, um engenheiro do Google confirmou para um cliente israelense que seria possível “processar dados por meio do Nimbus para determinar se alguém está mentindo".

Sim, a empresa que nos deu os algoritmos incrivelmente ruins do YouTube agora quer vender algoritmos para determinar se alguém está mentindo para a polícia. Deixe isso afundar. Esta é uma ciência que A Microsoft abandonou devido aos seus problemas inerentes.

Infelizmente, o Google discorda tanto que retalia contra pessoas na empresa que falam contra isso.

Não há nenhuma boa razão para fornecer esse tipo de tecnologia a qualquer governo em qualquer escala.

Não vou me aprofundar muito na política em jogo aqui, mas todo o projeto foi planejado para que o governo israelense pudesse esconder o que está fazendo. De acordo com Jack Poulson, ex-chefe de segurança do Google Enterprise, um dos principais objetivos do Projeto Nimbus é "impedir o governo alemão de solicitar dados relativos às Forças de Defesa de Israel para o Tribunal Penal Internacional" de acordo para A interceptação. (Diz-se que Israel está cometendo crimes contra a humanidade contra os palestinos, de acordo com a interpretação das leis por algumas pessoas.)

Realmente, porém, não importa como você se sente sobre o conflito entre Israel e a Palestina. Não há nenhuma boa razão para fornecer esse tipo de tecnologia a qualquer governo em qualquer escala. Fazer isso torna o Google mal.

Os supostos recursos do Nimbus são assustadores, mesmo que a API Cloud Vision do Google esteja 100% correta, 100% do tempo. Imagine câmeras corporais policiais que usam IA para ajudar a decidir se você deve ou não acusá-lo e prendê-lo. Tudo se torna assustador quando você considera quantas vezes sistemas de visão de aprendizado de máquina erram, no entanto.

Este não é apenas um problema do Google. Tudo o que você precisa fazer é procurar moderação de conteúdo no YouTube, Facebook ou Twitter. 90% do trabalho inicial é feito por computadores usando algoritmos de moderação que tomam decisões erradas com muita frequência. No entanto, o Projeto Nimbus faria mais do que apenas excluir seu comentário sarcástico - isso poderia custar sua vida.

Não seja mau
(Crédito da imagem: Jerry Hildenbrand)

Nenhuma empresa deve fornecer esse tipo de IA até que a tecnologia tenha amadurecido a um estado em que nunca esteja errado e isso nunca acontecerá.

Olha, eu sou totalmente a favor de encontrar os bandidos e fazer algo sobre eles, como quase todo mundo faz. Eu entendo que a aplicação da lei, seja um departamento de polícia local ou o IDF, é um mal necessário. Usar IA para fazer isso é uma desnecessário mal.

Não estou dizendo que o Google deve limitar-se a escrever o software que alimenta o telefones que você ama e não tentando ramificar-se. Só estou dizendo que existe um jeito certo e um jeito errado - o Google escolheu o caminho errado aqui, e agora está travado porque o os termos do contrato não permitem que o Google pare de participar.

Você deve formar suas próprias opiniões e nunca ouvir alguém na internet que tenha um palanque. Mas você também deve estar bem informado quando uma empresa que foi fundada com base no princípio "Don't Be Evil" fecha o círculo e se torna o mal sobre o qual nos alertou.

instagram story viewer