Android κεντρικό

Το BingGPT είναι τόσο κακό όσο νόμιζα ότι θα ήταν

protection click fraud

Η Microsoft άνοιξε πρόσφατα την αναζήτησή της στο Bing με βελτιωμένη ChatGPT σε πολλούς ανθρώπους και αποδεικνύεται ότι δείχνει πόσο κακό είναι. Δεν πρέπει να εκπλαγούμε γιατί αυτού του είδους η τεχνητή νοημοσύνη είναι 90% καινοτομία, αλλά είμαστε επειδή διαφημιζόταν ως η επόμενη έλευση της τεχνολογικής αγιότητας.

Δεν είναι. Δεν φταίει ούτε η Microsoft — Η Google θα είναι με τον ίδιο τρόπο — απλώς η τεχνολογία δεν έχει σχεδιαστεί για να το κάνει αυτό και, αν ήταν, δεν είναι καν έτοιμη. Οι μόνοι άνθρωποι pining για περισσότερα αυτού του είδους η ενσωμάτωση AI που χρησιμοποιεί την τρέχουσα τεχνολογία είναι οι άνθρωποι που δεν κατανοούν πραγματικά τους περιορισμούς της.

Ακόμη και ο Διευθύνων Σύμβουλος της OpenAI Sam Altman λέει ότι "οι άνθρωποι εκλιπαρούν να απογοητευτούν και θα είναι" όταν πρόκειται για ChatGPT (Η OpenAI είναι η εταιρεία που κατασκεύασε το λογισμικό ChatGPT). Αυτό δεν είχε σημασία γιατί ο κόσμος έβλεπε τους πάντες να διασκεδάζουν με αυτό, ενώ ισχυρίστηκαν επίσης ότι θα ήταν βάλτε τους ανθρώπους εκτός δουλειάς ή μετατρέψτε τη σχολική φοίτηση σε εύκολη λειτουργία, επειδή μπορεί να γράψει όλα τα έγγραφα για Φοιτητές. Οι εταιρείες έπρεπε απλώς να επιβιβαστούν στο hype train και να προσπαθήσουν να κερδίσουν χρήματα, οι συνέπειες θα ήταν καταδικασμένες.

Τι συμβαίνει λοιπόν με το BingGPT, ρωτάτε; Αφθονία. Δεν φοβάται πετάξει έξω φυλετικές συκοφαντίες. Πήρε κάθε γεγονός λάθος στη σεναριακή της επίδειξη όταν το ανακοίνωσε η Microsoft. Αν ρωτήσεις, θα γίνει να σου πω ότι οι Eagles κέρδισαν το Super Bowl μια μέρα πριν παιχτεί. Αλλά πάνω από όλα, μιμείται τη συμπεριφορά στην οποία εκπαιδεύτηκε: άνθρωποι που πληκτρολογούν πράγματα στο διαδίκτυο.

Προκειμένη περίπτωση:

Το νέο μου αγαπημένο πράγμα - το νέο ρομπότ ChatGPT του Bing μαλώνει με έναν χρήστη, του λέει ότι το τρέχον έτος είναι το 2022, λέει ότι το τηλέφωνό τους μπορεί να έχει ιό και λέει "Δεν ήσουν καλός χρήστης"Γιατί; Επειδή το άτομο ρώτησε πού εμφανίζεται το Avatar 2 σε κοντινή απόσταση pic.twitter.com/X32vopXxQG13 Φεβρουαρίου 2023

Δείτε περισσότερα

Αυτό δεν είναι φάρσα, ούτε είναι πολλά άλλα παραδείγματα ότι το BingGPT είναι εξίσου ανόητο. Απλώς πρέπει να συνειδητοποιήσεις γιατί κάνει αυτό που κάνει και όλα έχουν νόημα.

Το ChatGPT και τα περισσότερα άλλα LLM (Large Language Models) εκπαιδεύονται «διαβάζοντας» το διαδίκτυο. Μια τεράστια ψηφιακή βιβλιοθήκη κειμένου είναι ιδανική για να εκπαιδεύσετε μια τεχνητή νοημοσύνη να αναζητά απαντήσεις και να προσπαθεί να ακούγεται σαν άνθρωπος όταν σας τις επαναφέρει.

Αλλά δεν είναι άτομο και δεν έχει αίσθηση του σωστού έναντι του λάθους όταν πρόκειται να σου απαντήσει. Αυτό σημαίνει ότι δεν έχει τρόπο να γνωρίζει εάν οι πληροφορίες που παρουσιάζονται είναι πραγματικές και βασίζει την «προσωπικότητά» της στους χρήστες του Διαδικτύου.

Το πρώτο θα είναι δύσκολο να διορθωθεί. Παρόλο που το ονομάζουμε Τεχνητή Νοημοσύνη, σίγουρα δεν είναι ευφυές. Είναι σαν παπαγάλος και μπορεί να επαναλάβει μόνο αυτά που του είπαν. Το δεύτερο είναι αδύνατο να διορθωθεί χωρίς να βρεθεί ένας νέος τρόπος εκπαίδευσης του AI — μπορεί να λειτουργήσει σαν τρολ του Reddit επειδή έμαθε από τα τρολ του Reddit.

Η Πίπη, ο παπαγάλος του συγγραφέα
(Εικόνα: Jerry Hildenbrand)

Το AI είναι προγραμματισμένο να ανταποκρίνεται χρησιμοποιώντας όρους όπως ισχυρογνώμονας, έγκυρος, ευγενικός κ.λπ. Παρουσιάζονται παραδείγματα για το πώς φαίνεται καθένα από αυτά τα πράγματα. Το αποτέλεσμα είναι σαν να μαλώνεις με έναν εξαρτημένο μερικές φορές γιατί έμαθε πώς να μαλώνει όπως κάνει ένας εθισμένος. Δεν είναι κακό ή ανόητο ή ακόμα και άσχημο. Απλώς κάνει αυτό που είχε προγραμματιστεί να κάνει: να είναι προγνωστικό και να χρησιμοποιεί παραδείγματα από τη βάση δεδομένων του ως μέσο για να ακούγεται σαν άνθρωπος.

Αυτήν τη στιγμή είναι καλό για γέλιο και για λίγα άλλα, εκτός κι αν προσπαθείτε να κερδίσετε χρήματα με το μάθημα επί πληρωμή για να "ChatGPT σαν επαγγελματίας." Η Microsoft (και η Google) δεν θα έπρεπε ποτέ να το παρουσιάσουν ως κάτι άλλο από ένα προσεγμένο παιχνίδι. Αλλά και οι δύο το έκαναν αυτό και τώρα έχουμε την προσδοκία ότι θα είναι αξιόπιστο και έγκυρο όταν πρόκειται για αναζήτηση χωρίς να ακούγεται σαν τις απαντήσεις του Twitter με τις οποίες εκπαιδεύτηκε.

Οι μελλοντικές γενιές LLM θα γίνουν καλύτερες στο να ξεριζώσουν τις ανοησίες και ίσως θα είναι επίσης πιο κατάλληλες για να γίνουν δικό μας search-bot/ καλύτερος φίλος, αλλά θα απαιτήσει μια σημαντική ανακάλυψη στην τεχνητή νοημοσύνη - οτιδήποτε βασίζεται στις τρέχουσες μεθόδους δεν πρόκειται ποτέ να γίνει αρκετά καλό. Στο μεταξύ, θυμηθείτε να απολαύσετε το ναυάγιο του τρένου και να μην το πάρετε πολύ στα σοβαρά εάν και όταν φτάσει το τηλέφωνό σου.

instagram story viewer