AI è una parola d'ordine. Ecco le vere parole da sapere
Nella mia panoramica sull'intelligenza artificiale e l'apprendimento automatico , ho definito l'intelligenza artificiale come "la capacità di fare qualcosa che 'sembra intelligente'". Avviso spoiler: so che questa è una cattiva definizione. Avviso spoiler reale: non riesco a trovarne uno buono. Nessuno ne ha scritto uno su cui tutti sono d'accordo . Siamo un po' bloccati con "sembra intelligente" per ora. Ma va bene, perché le persone del settore tecnologico in realtà non dicono "costruiamo un'app AI", dicono "implementiamo questa soluzione con l'apprendimento automatico" o "assicuriamoci di radicare i suggerimenti dell'utente per evitare allucinazioni".
AI, come termine, è solo una parola d'ordine. Negli anni '90, Deep Blue era la grande cattiva IA che ha battuto Garry Kasparov, allora campione del mondo di scacchi, al suo stesso gioco! Al giorno d'oggi, però, molti esiterebbero a chiamarla AI: dopotutto, gran parte era memorizzazione e il resto seguiva le istruzioni fornite da programmatori ed esperti di scacchi. È intelligente se si limita a seguire le istruzioni? Ma l'intelligenza artificiale suona bene! E sembra certamente intelligente, quindi si adatta! Qui vediamo il vero scopo del termine "AI": dare un nome più interessante ai programmi, qualcosa di meglio di "memorizzazione degli scacchi e computer che segue le istruzioni" o "seguace di regole apparentemente intelligente". L'"intelligenza artificiale" racchiude tutto in modo ordinato e gli esperti di marketing spesso sperano che il pubblico non si chieda mai veramente cosa sta succedendo dietro le quinte.
Quindi andiamo dietro le quinte.
Dichiarazione di non responsabilità: questo articolo menziona Microsoft, il mio datore di lavoro. Ho scritto questo articolo nel mio tempo libero e tutte le opinioni sono mie.
Al giorno d'oggi, quasi tutte le app che consideriamo AI sono costruite tramite un processo chiamato machine learning . Per riassumere la mia precedente copertura di questo termine , un algoritmo di apprendimento automatico crea il proprio modo di agire sulla base di esempi. Questo modo di agire si chiama modello ed è proprio come una ricetta di cucina. Un algoritmo tradizionale viene fornito con una ricetta realizzata a mano dagli ingegneri. Tuttavia, gli ingegneri non sono stati in grado di creare ricette artigianali per il riconoscimento delle immagini e molti altri problemi, quindi l'apprendimento automatico ha salvato la giornata in quei campi.
Per usare l'eccellente analogia con la cucina di Cassie Kozyrkov , ci sono quattro parti in qualsiasi processo di apprendimento automatico: raccogliere dati, inserirli in un algoritmo, convalidare il modello e utilizzarlo per fornire previsioni. Analogamente, ci sono quattro parti in una cucina: ingredienti, elettrodomestici, ricette e piatti. Ma gli "elettrodomestici" di apprendimento automatico sono molto più intelligenti del forno medio: non si limitano a riscaldare il cibo, imparano a preparare un piatto!
Ad esempio, per creare ChatGPT, OpenAI ha raccolto dati da tutta Internet e ha creato alcune conversazioni di esempio, ha inserito il tutto in un algoritmo GPT (generative pre-trained transformer), è uscito con un modello GPT-3.5 aggiornato e ora lo usano per prevedere le parole successive in una conversazione. (Aggiornamento dell'8 aprile: c'è stato un po' di lavoro extra: hanno "controllato il modello mentre stava cucinando", per così dire, per aiutare l'apparecchio a utilizzare un processo noto come Apprendimento per rinforzo dal feedback umano. Ho anche modificato paragrafo precedente per chiarire che ChatGPT è un modello costruito indipendentemente dai modelli GPT-3.5 originali.)
In effetti, l'apprendimento automatico è utilizzato ovunque : dall'algoritmo di raccomandazione di Twitter (vedere il suo "ranker pesante" per i dettagli) a probabilmente l'algoritmo di raccomandazione di ogni altro sito Web, alla diagnosi medica , al rilevamento delle frodi , all'astronomia e oltre!
Un modello di linguaggio di grandi dimensioni è solo un modello di apprendimento automatico specificamente addestrato per produrre testo in base all'input di testo. Alcuni esempi di modelli di linguaggio di grandi dimensioni includono GPT-3, GPT-3.5 e GPT-4 (a volte questi vengono semplicemente indicati come GPT-n). C'è anche LaMDA di Google , LLaMA di Meta e BloombergGPT di quella società che chiama tutto dopo quel ragazzo. Tecnicamente, i modelli GPT-n sono ciascuno una famiglia di modelli , ma la maggior parte degli articoli utilizza "GPT-4" per fare riferimento al suo modello di chat più ottimizzato.
Alcuni prodotti che utilizzano modelli linguistici di grandi dimensioni sono ChatGPT, che utilizza GPT-3.5* (ora GPT-4 per gli abbonati), il nuovo Bing (GPT-4) e Google Bard (LaMDA). Aspettatevi molti, molti altri in arrivo. E ricorda: chiunque affermi che il nuovo Bing è "basato su ChatGPT" non ha ragione: ora puoi aiutarlo a imparare!
*Aggiornamento dell'8 aprile: tecnicamente, ChatGPT è anche il nome del modello , ma è stato messo a punto da un modello GPT-3.5 ed è indicato come "GPT-3.5" sull'app stessa e " gpt-3.5-turbo " in tutta la documentazione di OpenAI .
Un prodotto è un involucro attorno a un modello, un modo per semplificare il lavoro con un modello e integrarlo con altre cose, come siti Web e quant'altro. I prodotti forniscono anche sicurezza, privacy e logica dei criteri per garantire che i prompt errati non vengano inviati al modello e che l'output errato non venga mostrato all'utente. I proprietari dei prodotti decidono cosa è "cattivo" e cosa no, e di solito evitano, tra le altre cose, i discorsi standard di odio, violenza o semplicemente maleducati. I prompt accettati dal prodotto vengono solitamente inoltrati direttamente al modello, anche se questo sta cambiando.
I nuovi prodotti basati su prompt terrano i prompt, il che significa semplicemente che adegueranno i prompt per renderli più utili prima di darli al modello (vedi il recente annuncio di Microsoft alle 21:04). Si suppone che un suggerimento radicato abbia meno probabilità di provocare un'allucinazione . Un modello ha allucinazioni ogni volta che emette qualcosa che potrebbe sembrare vero, ma non lo è. Ci sono molti esempi di questo online, ma i primi giorni del nuovo Bing prendono la torta: in un caso, ha affermato che Avatar 2 non era ancora uscito e ha continuato a insultare l'utente . (Schermate e storie possono essere inventate, ma ho ricreato io stesso l'allucinazione di Avatar 2, anche se non sono stato insultato.)
Le allucinazioni sono tanto pericolose quanto sembrano, quindi è importante ricordare che i modelli non conoscono la verità . I modelli indovinano solo le parole. Spetta al prodotto, e in ultima analisi all'utente, verificare tutto ciò che viene prodotto da un modello. Un'altra famosa allucinazione viene da Google: il 6 febbraio, Google ha presentato la primissima risposta pubblica di Bard , ed è stata un'allucinazione. Non l'hanno preso e non hanno inserito alcuna dichiarazione di non responsabilità, e Google ha successivamente perso $ 100 miliardi di valore di mercato . Per essere onesti, il vecchio Bing commette ancora lo stesso errore quando cerco "quale telescopio ha scattato la prima immagine di un pianeta extrasolare", ma l'incapacità di Google di verificare i fatti sul proprio modello mostra quanto sia facile credere a un'allucinazione. Controlla sempre i fatti!
Infine, esaminiamo alcuni algoritmi di base che creano modelli. La prima era una rete neurale , e poi le persone hanno iniziato a costruire cose come reti neurali convoluzionali e reti neurali ricorrenti e reti neurali avversarie generative , ma è stato solo nel 2017 che abbiamo ottenuto l'algoritmo più recente: il trasformatore , che è molto più semplice e mi ci sono volute solo una dozzina di ore di intenso studio per avere una conoscenza di base.
Abbiamo bisogno di sapere come funzionano questi algoritmi? Bene, dobbiamo sapere come funziona un forno? Non proprio, ci basta sapere che cuoce il nostro cibo ed è pericoloso quando fa caldo! I dettagli tecnici possono essere interessanti, ma tutto si riduce a un mucchio della stessa matematica ancora e ancora, lo prometto.
Riassumiamo tutto in un bel glossario puntato, va bene?
- Intelligenza artificiale (AI): un termine mal definito che sostanzialmente significa "sembra intelligente", utilizzato principalmente nel marketing.
- Apprendimento automatico (ML): il processo attraverso il quale i programmatori creano un programma che apprende dall'esempio, non dall'istruzione.
- Algoritmo ML: un po' di software che perfeziona un modello ogni volta che accetta un input.
- Modello: un processo matematico che funziona su dati di un determinato tipo per prevedere qualcosa.
- Generative large language model (LLM): un tipo di modello che prevede quale testo verrà dopo.
- Prodotto: qualsiasi applicazione software che utilizza un LLM dietro le quinte.
- Prompt: quando vai su ChatGPT e invii un messaggio, quel messaggio è il tuo prompt.
- Messa a terra: regolazione di un prompt nel tentativo di renderlo migliore per un LLM.
- Allucinazioni: quando un LLM sbaglia qualcosa, è allucinante: controlla sempre i fatti!
Grazie per aver letto. Cosa vorresti imparare dopo? Come posso aiutare?
Ecco un suggerimento, è il primo articolo di questa serie:
Impariamo a conoscere l'intelligenza artificialeE la voce successiva:
Sblocca la potenza di ChatGPT con una progettazione rapida