Android κεντρικό

Μπορεί το chatbot LaMDA της Google να είναι πραγματικά ευαίσθητο;

protection click fraud

Ο Blake Lemoine, μηχανικός της Google τέθηκε σε αναστολή με αμοιβή, αφού δημοσιοποίησε τις σκέψεις του ότι το πρωτοποριακό chatbot τεχνητής νοημοσύνης της Google Το LaMDA ήταν μια αισθανόμενη μηχανή με μια πραγματική συνείδηση.

Ο Lemoine κατέληξε σε αυτό το συμπέρασμα αφού δούλεψε με το μοντέλο και είχε συζητήσεις βαθιάς σκέψης που τον οδήγησαν να πιστέψει ότι η τεχνητή νοημοσύνη είχε μια «ψυχή» και έμοιαζε με ένα παιδί με γνώση της φυσικής.

Είναι μια ενδιαφέρουσα, και ενδεχομένως απαραίτητη, συζήτηση που πρέπει να γίνει. Η Google και άλλες εταιρείες έρευνας τεχνητής νοημοσύνης έχουν πάρει τα νευρωνικά δίκτυα LLM (μεγάλο γλωσσικό μοντέλο) προς την κατεύθυνση που τα κάνει να ακούγονται σαν πραγματικός άνθρωπος, συχνά με θεαματικά αποτελέσματα.

Αλλά στο τέλος, ο αλγόριθμος κάνει ακριβώς αυτό που είχε προγραμματιστεί να κάνει - ξεγελώντας μας και πιστεύουμε ότι μιλάμε με ένα πραγματικό άτομο.

Τι είναι το LaMDA;

Google Cloud TPU
(Πίστωση εικόνας: Android Central)

Λάμδα, και άλλα μεγάλης κλίμακας "chatbots" τεχνητής νοημοσύνης είναι μια επέκταση κάτι σαν το Alexa ή το Google Assistant. Παρέχετε κάποιο είδος εισόδου και ένα περίπλοκο σύνολο αλγορίθμων υπολογιστή ανταποκρίνεται με μια υπολογισμένη έξοδο.

Αυτό που κάνει το LaMDA (Language Model for Dialogue Applications) διαφορετικό είναι η κλίμακα του. Συνήθως μια τεχνητή νοημοσύνη θα αναλύσει ό, τι του παρουσιάζεται σε πολύ μικρά κομμάτια και θα αναζητήσει λέξεις-κλειδιά ή ορθογραφικά και γραμματικά λάθη, ώστε να ξέρει πώς να απαντήσει.

Το LaMDA είναι αυτό που είναι γνωστό ως LLM. Ένα μοντέλο μεγάλης γλώσσας είναι ένα όνομα που δίνεται σε έναν τύπο νευρωνικού δικτύου υπολογιστών που έχουν τροφοδοτηθεί απίστευτα ποσότητα κειμένου για να το διδάξει να παράγει απαντήσεις που όχι μόνο είναι σωστές αλλά μοιάζουν με άλλες πρόσωπο.

Το LaMDA είναι εντυπωσιακό λόγω της κλίμακας του.

Η σημαντική ανακάλυψη του LaMDA ήταν το πώς η Google μπόρεσε να βελτιώσει την έξοδο και να την τροποποιήσει, έτσι ώστε να ήταν παρόμοιο με τον τρόπο που μιλάει ένα άτομο. Για παράδειγμα, όλοι έχουμε ακούσει "Εντάξει, ανάβω το φως της κρεβατοκάμαρας"ή κάτι παρόμοιο από Βοηθός Google αν χρησιμοποιήσουμε οι αγαπημένοι μας έξυπνοι λαμπτήρες.

Το LaMDA θα μπορούσε να απαντήσει με κάτι σαν "Εντάξει, είναι αρκετά σκοτεινά εδώ μέσα, έτσι δεν είναι;«Αυτό ακούγεται περισσότερο σαν να μιλάς σε ένα άτομο παρά με ένα μικρό κουτί κυκλωμάτων.

Αυτό το κάνει αναλύοντας όχι μόνο λέξεις, αλλά ολόκληρα τμήματα της γλώσσας. Με αρκετή μνήμη, μπορεί να κρατήσει τις απαντήσεις σε πολλές παραγράφους που αξίζει να εισαχθούν και να ξεχωρίσει ποια να χρησιμοποιήσει και πώς να κάνει την απάντηση να φαίνεται φιλική και ανθρώπινη.

Η κλίμακα είναι ένα μεγάλο μέρος της εξίσωσης/ Έχω ένα ενοχλητικό τυπογραφικό λάθος I πάντα make: "isn; t" αντί για "δεν είναι." Απλοί αλγόριθμοι όπως ο ορθογραφικός έλεγχος του Chrome ή ο Grammarly μπορούν να αναγνωρίσουν το σφάλμα μου και να μου ζητήσουν να το διορθώσω.

Κάτι σαν το LaMDA θα μπορούσε αντί αυτού να αξιολογήσει ολόκληρη την παράγραφο και να με ενημερώσει για τη γνώμη του για τα πράγματα που λέω και διορθώστε την ορθογραφία μου. Αυτό σχεδιάστηκε να κάνει.

Αλλά είναι πραγματικά αισθητό και είναι αυτό το πραγματικό πρόβλημα;

Γεια σου Google, είσαι άνθρωπος;
(Εικόνα: Jerry Hildenbrand)

Lemoine σίγουρα πιστεύει ότι το LaMDA είναι ένα ζωντανό πράγμα που αναπνέει. Έχουν ειπωθεί αρκετά για την ψυχική του κατάσταση ή για το πόσο περίεργος μπορεί να είναι ο τρόπος ζωής του, οπότε δεν πρόκειται να πω τίποτα εκτός από το ότι ο άντρας πιστεύει ότι ο LaMDA έχει πραγματικά συναισθήματα και ενήργησε από καλοσύνη όταν βγήκε δημόσια με το δικό του σκέψεις. Η Google, φυσικά, ένιωσε διαφορετικά.

Αλλά όχι, δεν νομίζω ότι το LaMDA ή οποιοδήποτε νευρωνικό δίκτυο LLM είναι ευαίσθητο ή μπορεί να είναι, τουλάχιστον με τη σημερινή τεχνολογία. Έμαθα εδώ και πολύ καιρό να μην λες ποτέ ποτέ. Αυτήν τη στιγμή, το LaMDA ανταποκρίνεται μόνο με τον τρόπο που είχε προγραμματιστεί και δεν χρειάζεται να καταλάβει τι λέει με τον ίδιο τρόπο που κάνει ένα άτομο.

Είναι ακριβώς όπως εσείς ή εγώ συμπληρώνουμε ένα σταυρόλεξο και δεν ξέρουμε τι σημαίνει ή τι είναι η λέξη. Απλώς ξέρουμε τους κανόνες και ότι ταιριάζει πού και πώς υποτίθεται ότι ταιριάζει.

4 γράμματα — ουσιαστικό. Μια δύσκαμπτη τρίχα ή τρίχα. (Είναι Seta αλλά δοκίμασα 10 φορές SEGA).

Ακριβώς επειδή δεν είμαστε κοντά στην ημέρα που οι έξυπνες μηχανές θα ξεσηκωθούν και θα προσπαθήσουν να σκοτώσουν όλους τους ανθρώπους δεν σημαίνει ότι δεν πρέπει να ανησυχούμε. Το να διδάσκουμε τους υπολογιστές να ακούγονται πιο ανθρώπινοι δεν είναι πραγματικά καλό.

Αυτό συμβαίνει επειδή ένας υπολογιστής μπορεί —και πάλι— να ανταποκρίνεται μόνο με τον τρόπο που είχε προγραμματιστεί να ανταποκρίνεται. Αυτός ο προγραμματισμός μπορεί να μην είναι πάντα προς το συμφέρον της κοινωνίας. Βλέπουμε ήδη ανησυχίες σχετικά με την προκατειλημμένη τεχνητή νοημοσύνη, επειδή οι άνθρωποι που κάνουν τον προγραμματισμό είναι ως επί το πλείστον ευκατάστατοι άντρες στα είκοσί τους. Είναι φυσικό ότι η εμπειρία της ζωής τους θα επηρεάσει τη λήψη αποφάσεων ενός AI.

Κάντε το ένα βήμα παραπέρα και σκεφτείτε τι μπορεί να προγραμματίσει κάποιος με πραγματικές κακές προθέσεις. Τότε σκεφτείτε ότι θα μπορούσαν να έχουν τη δυνατότητα να το κάνουν να ακούγεται σαν να προέρχεται από ένα άτομο και όχι από μια μηχανή. Ένας υπολογιστής μπορεί να μην είναι σε θέση να κάνει κακά πράγματα στον φυσικό κόσμο, αλλά θα μπορούσε να πείσει τους ανθρώπους να τα κάνουν.

Το LaMDA είναι απίστευτο και οι άνθρωποι που σχεδιάζουν συστήματα σαν αυτό κάνουν καταπληκτική δουλειά που θα επηρεάσει το μέλλον. Αλλά εξακολουθεί να είναι απλώς ένας υπολογιστής, ακόμα κι αν ακούγεται σαν φίλος σας μετά από πάρα πολλές 420 συνεδρίες και αρχίζουν να μιλούν για τη ζωή, το σύμπαν και τα πάντα.

instagram story viewer