Centrale Android

Il Project Nimbus di Google è il futuro del male

protection click fraud

Google fa un sacco di cose stupide. Tutte le società giganti sono uguali in questo senso. Ma ci vuole uno sforzo speciale per fare qualcosa di veramente terribile. È qui che Project Nimbus di Google entra nello spettro.

Project Nimbus è uno sforzo congiunto di Google, Amazon e il governo israeliano che fornisce capacità di sorveglianza futuristiche attraverso l'uso di modelli avanzati di apprendimento automatico. Piaccia o no, fa parte del futuro della sicurezza dello stato, e non è più terribile di molti altri progetti simili. Molti di noi usano persino una tecnologia simile dentro e intorno alle nostre case.

Proiettore Arlo Pro 3
(Credito immagine: Chris Wedel/Android Central)

Dove le cose si fanno oscure e brutte è ciò che Google dice sulle capacità di Project Nimbus utilizzando la tecnologia dell'azienda:

I documenti di formazione Nimbus enfatizzano "le capacità di rilevamento di" volti, punti di riferimento facciali, emozioni "dell'API Cloud Vision di Google" e in una formazione Nimbus webinar, un ingegnere di Google ha confermato per un cliente israeliano che sarebbe possibile "elaborare i dati tramite Nimbus per determinare se qualcuno è dire bugie".

Sì, la società che ci ha fornito gli algoritmi di YouTube terribilmente scadenti ora vuole vendere algoritmi per determinare se qualcuno sta mentendo alla polizia. Lascia che affondi. Questa è una scienza che Microsoft ha abbandonato a causa dei suoi problemi intrinseci.

Sfortunatamente, Google non è d'accordo così tanto che ritorsioni contro le persone in azienda che parlano contro di essa.

Non ci sono buoni motivi per fornire questo tipo di tecnologia a qualsiasi governo su qualsiasi scala.

Non entrerò troppo a fondo nella politica in gioco qui, ma l'intero progetto è stato progettato in modo che il governo israeliano potesse nascondere ciò che sta facendo. Secondo Jack Poulson, ex capo della sicurezza di Google Enterprise, uno degli obiettivi principali del progetto Nimbus è "prevenire il governo tedesco dalla richiesta di dati relativi alle forze di difesa israeliane per la Corte penale internazionale", secondo A L'intercettazione. (Si dice che Israele stia commettendo crimini contro l'umanità contro i palestinesi, secondo l'interpretazione delle leggi da parte di alcune persone.)

In realtà, però, non importa cosa pensi del conflitto tra Israele e Palestina. Non ci sono buoni motivi per fornire questo tipo di tecnologia a qualsiasi governo su qualsiasi scala. In questo modo Google cattivo.

Le presunte capacità di Nimbus sono spaventose, anche se l'API Cloud Vision di Google era corretta al 100%, il 100% delle volte. Immagina le telecamere del corpo di polizia che utilizzano l'intelligenza artificiale per aiutare a decidere se accusarti e arrestarti o meno. Tutto diventa terrificante se si considera quanto spesso i sistemi di visione con apprendimento automatico sbagliano, Anche se.

Questo non è solo un problema di Google. Tutto quello che devi fare è guardare alla moderazione dei contenuti su YouTube, Facebook o Twitter. Il 90% del lavoro iniziale viene svolto dai computer utilizzando algoritmi di moderazione che troppo spesso prendono decisioni sbagliate. Tuttavia, Project Nimbus farebbe molto di più che eliminare il tuo commento irriverente: potrebbe costarti la vita.

Non essere cattivo
(Credito immagine: Jerry Hildenbrand)

Nessuna azienda ha alcuna attività che fornisca questo tipo di intelligenza artificiale fino a quando la tecnologia non sarà maturata in uno stato in cui non è mai sbagliato e ciò non accadrà mai.

Senti, sono favorevole a trovare i cattivi e fare qualcosa per loro proprio come fanno quasi tutti gli altri. Capisco che le forze dell'ordine, che si tratti di un dipartimento di polizia locale o dell'IDF, sono un male necessario. Usare l'intelligenza artificiale per farlo è un non necessario cattivo.

Non sto dicendo che Google dovrebbe limitarsi a scrivere il software che alimenta il telefoni che ami e non cercando di espandersi. Sto solo dicendo che c'è un modo giusto e un modo sbagliato: Google ha scelto il modo sbagliato qui, e ora è bloccato perché il i termini dell'accordo non consentono a Google di interrompere la partecipazione.

Dovresti formarti le tue opinioni e non ascoltare mai qualcuno su Internet che ha una soapbox. Ma dovresti anche essere ben informato quando un'azienda che è stata fondata sul principio "Don't Be Evil" chiude il cerchio e diventa il male da cui ci aveva messo in guardia.

instagram story viewer