Centrale Android

BingGPT è pessimo come pensavo

protection click fraud

Microsoft ha recentemente aperto la sua ricerca Bing potenziata da ChatGPT a un gruppo di persone e sta dimostrando quanto sia grave. Non dovremmo essere sorpresi perché questo tipo di intelligenza artificiale è una novità al 90%, ma lo siamo perché è stata pubblicizzata come la prossima venuta della santità tecnologica.

Non è. Non è nemmeno colpa di Microsoft — Google sarà allo stesso modo - è solo che la tecnologia non è progettata per farlo e se lo fosse, non è nemmeno vicina all'essere pronta. Le uniche persone desiderare di più di questo tipo di integrazione dell'intelligenza artificiale che utilizza la tecnologia attuale sono le persone che non ne comprendono veramente i limiti.

Anche il CEO di OpenAI, Sam Altman, afferma che "le persone chiedono di essere deluse e lo saranno" quando si tratta di ChatGPT (OpenAI è la società che ha creato il software ChatGPT). Non importava perché le persone vedevano che tutti si divertivano mentre sostenevano anche che sarebbe successo mettere le persone senza lavoro o trasformare la scuola in una modalità facile perché può scrivere tutti i giornali per studenti. Le aziende dovevano solo salire sul treno dell'hype e cercare di incassare, al diavolo le conseguenze.

Quindi cosa c'è di sbagliato in BingGPT che chiedi? Abbondanza. Non ha paura di lanciare insulti razzisti. Ha ottenuto ogni fatto sbagliato nella sua dimostrazione programmata quando Microsoft lo ha annunciato. Se lo chiedi, lo farà ti dico che gli Eagles hanno vinto il Super Bowl il giorno prima che si giocasse. Ma soprattutto imita il comportamento su cui è stato addestrato: persone che digitano cose su Internet.

Caso in questione:

La mia nuova cosa preferita: il nuovo bot ChatGPT di Bing discute con un utente, lo informa che l'anno in corso è il 2022, dice che il suo telefono potrebbe avere un virus e dice "Non sei stato un buon utente" Perché? Perché la persona ha chiesto dove viene mostrato Avatar 2 nelle vicinanze pic.twitter.com/X32vopXxQG13 febbraio 2023

Vedi altro

Non è una bufala, né lo sono molti altri esempi di BingGPT essere altrettanto stupido. Devi semplicemente capire perché fa quello che sta facendo e tutto ha un senso.

ChatGPT e la maggior parte degli altri LLM (Large Language Models) vengono addestrati "leggendo" Internet. Una gigantesca libreria di testo digitale è perfetta per addestrare un'intelligenza artificiale a cercare risposte e provare a sembrare una persona quando te le rigurgita.

Ma non è una persona e non ha il senso del giusto contro lo sbagliato quando si tratta di risponderti. Ciò significa che non ha modo di sapere se le informazioni presentate sono reali e basa la sua "personalità" sugli utenti di Internet.

Il primo sarà difficile da risolvere. Anche se la chiamiamo Intelligenza Artificiale, decisamente non è intelligente. È come un pappagallo e può solo ripetere le cose che gli sono state dette. Il secondo è impossibile da risolvere senza trovare un nuovo modo per addestrare l'IA: può agire come un troll di Reddit perché ha imparato dai troll di Reddit.

Pipi, il pappagallo dell'autore
(Credito immagine: Jerry Hildenbrand)

L'intelligenza artificiale è programmata per rispondere usando termini come assertivo, autorevole, gentile, ecc. Vengono mostrati esempi di come appare ciascuna di queste cose. Il risultato è come discutere a volte con un tossicodipendente perché ha imparato a discutere come fa un tossicodipendente. Non è malvagio o stupido o addirittura cattivo. Sta solo facendo ciò per cui è stato programmato: essere predittivo e utilizzare esempi dal suo database come mezzo per sembrare un essere umano.

In questo momento va bene per una risata e poco altro, a meno che tu non stia cercando di incassare la truffa con il tuo corso a pagamento per "Chatta GPT come un professionista." Microsoft (e Google) non avrebbero mai dovuto presentarlo come qualcosa di diverso da un bel giocattolo. Ma entrambi lo hanno fatto e ora ci aspettiamo che sarà affidabile e autorevole quando si tratta di cercare senza suonare come le risposte di Twitter con cui è stato addestrato.

Le generazioni future di LLM miglioreranno nello sradicare le sciocchezze e forse saranno anche più adatte a diventare le nostre search-bot/migliore amico, ma richiederà un importante passo avanti nell'intelligenza artificiale: qualsiasi cosa basata sui metodi attuali non sarà mai abbastanza buono. Nel frattempo, ricordati di goderti il ​​disastro del treno e di non prenderlo troppo sul serio se e quando arriverà il tuo telefono.

instagram story viewer