Android κεντρικό

Το Project Nimbus της Google είναι το μέλλον του κακού

protection click fraud

Η Google κάνει πολλά ανόητα πράγματα. Όλες οι μεγάλες εταιρείες είναι ίδιες από αυτή την άποψη. Χρειάζεται όμως ιδιαίτερη προσπάθεια για να κάνεις κάτι πραγματικά τρομερό. Αυτό είναι όπου το Project Nimbus της Google έρχεται στο φάσμα.

Το Project Nimbus είναι μια κοινή προσπάθεια της Google, της Amazon και της ισραηλινής κυβέρνησης που παρέχει φουτουριστικές δυνατότητες επιτήρησης μέσω της χρήσης προηγμένων μοντέλων μηχανικής εκμάθησης. Είτε σας αρέσει είτε όχι, αυτό είναι μέρος του μέλλοντος της κρατικής ασφάλειας, και όχι πιο τρομερό από πολλά άλλα παρόμοια έργα. Πολλοί από εμάς μάλιστα χρησιμοποιούμε παρόμοια τεχνολογία μέσα και γύρω από τα σπίτια μας.

Arlo Pro 3 Floodlight
(Πίστωση εικόνας: Chris Wedel/Android Central)

Εκεί που τα πράγματα γίνονται σκοτεινά και άσχημα είναι αυτό που λέει η Google για τις δυνατότητες του Project Nimbus που χρησιμοποιεί την τεχνολογία της εταιρείας:

Τα εκπαιδευτικά έγγραφα του Nimbus τονίζουν «τις δυνατότητες ανίχνευσης προσώπων, σημείων προσώπου, συναισθημάτων του Google Cloud Vision API» και σε μία εκπαίδευση Nimbus webinar, ένας μηχανικός της Google επιβεβαίωσε για έναν Ισραηλινό πελάτη ότι θα ήταν δυνατή η «επεξεργασία δεδομένων μέσω του Nimbus για να προσδιοριστεί εάν κάποιος ξαπλωμένη".

Ναι, η εταιρεία που μας έδωσε τους απίστευτα κακούς αλγόριθμους YouTube θέλει τώρα να πουλά αλγόριθμους για να διαπιστώσει εάν κάποιος λέει ψέματα στην αστυνομία. Αφήστε το να βυθιστεί. Αυτή είναι μια επιστήμη που Η Microsoft εγκατέλειψε λόγω των εγγενών προβλημάτων του.

Δυστυχώς, η Google διαφωνεί τόσο πολύ που αντεπιτίθεται σε άτομα της εταιρείας που μιλούν εναντίον του.

Δεν υπάρχει καλός λόγος να παρέχουμε αυτού του είδους την τεχνολογία σε οποιαδήποτε κυβέρνηση σε οποιαδήποτε κλίμακα.

Δεν πρόκειται να μπω πολύ βαθιά στην πολιτική που παίζει εδώ, αλλά ολόκληρο το έργο σχεδιάστηκε έτσι ώστε η ισραηλινή κυβέρνηση να μπορεί να κρύψει αυτό που κάνει. Σύμφωνα με τον Jack Poulson, πρώην επικεφαλής της Ασφάλειας της Google Enterprise, ένας από τους κύριους στόχους του Project Nimbus είναι «η πρόληψη η γερμανική κυβέρνηση από το να ζητήσει στοιχεία σχετικά με τις αμυντικές δυνάμεις του Ισραήλ για το Διεθνές Ποινικό Δικαστήριο». προς την Το Intercept. (Το Ισραήλ λέγεται ότι διαπράττει εγκλήματα κατά της ανθρωπότητας κατά των Παλαιστινίων, σύμφωνα με την ερμηνεία ορισμένων ανθρώπων για τους νόμους.)

Πραγματικά, όμως, δεν έχει σημασία πώς αισθάνεστε για τη σύγκρουση μεταξύ Ισραήλ και Παλαιστίνης. Δεν υπάρχει καλός λόγος να παρέχουμε αυτού του είδους την τεχνολογία σε οποιαδήποτε κυβέρνηση σε οποιαδήποτε κλίμακα. Κάνοντας αυτό κάνει την Google κακό.

Οι υποτιθέμενες δυνατότητες του Nimbus είναι τρομακτικές, ακόμα κι αν το Cloud Vision API της Google ήταν 100% σωστό, 100% των περιπτώσεων. Φανταστείτε κάμερες σώματος της αστυνομίας που χρησιμοποιούν τεχνητή νοημοσύνη για να σας βοηθήσουν να αποφασίσετε εάν θα σας απαγγελθούν κατηγορίες και θα σας συλλάβουν. Όλα γίνονται τρομακτικά αν σκεφτείς πόσο συχνά Τα συστήματα όρασης μηχανικής μάθησης κάνουν τα πράγματα λάθος, όμως.

Αυτό δεν είναι μόνο ένα πρόβλημα της Google. Το μόνο που χρειάζεται να κάνει κανείς είναι να κοιτάξει την εποπτεία περιεχομένου στο YouTube, το Facebook ή το Twitter. Το 90% της αρχικής εργασίας γίνεται από υπολογιστές που χρησιμοποιούν αλγόριθμους ελέγχου που παίρνουν λάθος αποφάσεις πολύ συχνά. Ωστόσο, το Project Nimbus θα έκανε περισσότερα από το να διαγράψει το κακόβουλο σχόλιό σας — θα μπορούσε να σας κοστίσει τη ζωή σας.

Μην είσαι Κακός
(Εικόνα: Jerry Hildenbrand)

Καμία εταιρεία δεν έχει καμία επιχείρηση να παρέχει αυτού του είδους την τεχνητή νοημοσύνη έως ότου η τεχνολογία ωριμάσει σε μια κατάσταση όπου δεν είναι ποτέ λάθος και αυτό δεν θα συμβεί ποτέ.

Κοιτάξτε, είμαι για να βρίσκω τους κακούς και να κάνω κάτι γι' αυτούς, όπως όλοι οι άλλοι. Κατανοώ ότι η επιβολή του νόμου, είτε πρόκειται για τοπικό αστυνομικό τμήμα είτε για το IDF, είναι αναγκαίο κακό. Η χρήση της τεχνητής νοημοσύνης για να γίνει αυτό είναι ένα περιττός κακό.

Δεν λέω ότι η Google θα πρέπει απλώς να επιμείνει στη συγγραφή του λογισμικού που το τροφοδοτεί τηλέφωνα που αγαπάς και δεν προσπαθεί να διακλαδωθεί. Απλώς λέω ότι υπάρχει ένας σωστός τρόπος και ένας λάθος τρόπος — η Google επέλεξε τον λάθος τρόπο εδώ και τώρα έχει κολλήσει επειδή το οι όροι της συμφωνίας δεν επιτρέπουν στην Google να σταματήσει να συμμετέχει.

Θα πρέπει να σχηματίζετε τις δικές σας απόψεις και να μην ακούτε ποτέ κάποιον στο Διαδίκτυο που έχει σαπουνάδα. Αλλά θα πρέπει επίσης να είστε καλά ενημερωμένοι όταν μια εταιρεία που ιδρύθηκε με βάση την αρχή του "Don't Be Evil" κάνει τον κύκλο της και γίνεται το κακό για το οποίο μας προειδοποίησε.

instagram story viewer