Novembre 2022, la societร OpenAI lancia senza clamore ChatGPT. Nessuno all’interno dell’azienda era preparato per un mega successo virale. Cosa รจ avvenuto in pochi mesi? Quali saranno gli sviluppi?
Andiamo a comprendere dietro le quinte il fenomeno culturale che nel gennaio 2023, a soli due mesi dal lancio, ha raggiunto la strabiliante cifra di 100 milioni di utenti attivi mensili. ChatGPT รจ l’applicazione consumer con la crescita piรน rapida nella storia.
Ringraziamo Will Douglas Heaven, senior AI editor del MIT Massachusetts Institute of Technology Technology Review, che voluto condividere il suo dialogo con quattro autori di ChatGPT.
By Will Douglas Heaven
Per conoscere la storia dietro il chatbot (software che simula una conversazione con un essere umano), come รจ stato realizzato, come OpenAI lo ha aggiornato dal momento del rilascio e cosa pensano i suoi creatori del suo successo, ho parlato con quattro persone che hanno contribuito a creare quella che รจ diventata una delle app Internet piรนย popolari che mai.ย Oltre ad Agarwal e Fedus, ho parlato con John Schulman, cofondatore di OpenAI, e Jan Leike, leader del team di allineamento di OpenAI, che lavora sul problema di far fare all’AI ciรฒ che i suoi utenti vogliono che faccia (e nient’altro) .
Quello che mi รจ venuto fuori รจ stata la sensazione che OpenAI sia ancora perplesso dal successo della sua anteprima di ricerca, ma ha colto l’opportunitร per portare avanti questa tecnologia, osservando come milioni di persone la stanno usando e cercando di risolvere i problemi peggiori man mano che si presentano.
Da novembre, OpenAI ha giร aggiornato piรน volte ChatGPT.ย I ricercatori stanno utilizzando una tecnica chiamataย adversarial trainingย per impedire a ChatGPT di consentire agli utentiย di indurlo a comportarsi maleย (noto come jailbreak).ย Questo lavoro mette l’uno contro l’altro piรน chatbot: un chatbot interpreta l’avversario e attacca un altro chatbot generando testo per costringerlo a superare i suoi soliti vincoli e produrre risposte indesiderate.ย Gli attacchi riusciti vengono aggiunti ai dati di addestramento di ChatGPT nella speranza che impari a ignorarli.ย ย ย ย ย ย ย
OpenAI ha anche firmato unย accordo multimiliardario con Microsoftย e ha annunciatoย un’alleanza con Bain, una societร di consulenza gestionale globale, che prevede di utilizzare i modelli di intelligenza artificiale generativa di OpenAI nelle campagne di marketing per i suoi clienti, tra cui Coca-Cola.ย Al di fuori di OpenAI, il clamore su ChatGPT ha dato il via a un’altra corsa all’oro attorno a modelli linguistici di grandi dimensioni, con aziende e investitori di tutto il mondo che sono entrati in azione.
ร un sacco di clamore in tre brevi mesi. Da dove viene ChatGPT? Quali misure ha adottato OpenAI per assicurarsi che fosse pronto per il rilascio? E dove stanno andando dopo?
Quanto segue รจ stato modificato per lunghezza e chiarezza.
Jan Leike: ร stato travolgente, onestamente. Siamo stati sorpresi e abbiamo cercato di recuperare.
John Schulman: Stavo controllando molto Twitter nei giorni successivi al rilascio, e c’รจ stato questo periodo folle in cui il feed si stava riempiendo di screenshot di ChatGPT. Mi aspettavo che fosse intuitivo per le persone e mi aspettavo che ottenesse un seguito, ma non mi aspettavo che raggiungesse questo livello di popolaritร mainstream.
Sandhini Agarwal: Penso che sia stata sicuramente una sorpresa per tutti noi quante persone hanno iniziato a usarlo. Lavoriamo cosรฌ tanto su questi modelli che dimentichiamo quanto possano essere sorprendenti per il mondo esterno a volte.
Liam Fedus: Siamo rimasti decisamente sorpresi di quanto bene sia stato accolto.ย Ci sono stati cosรฌ tanti tentativi precedenti di un chatbot generico che sapevo che le probabilitร erano contro di noi.ย Tuttavia, la nostra beta privata ci ha dato la certezza di avere qualcosa che le persone potrebbero davvero apprezzare.
Jan Leike: Mi piacerebbe capire meglio cosa sta guidando tutto questo, cosa sta guidando la viralitร . Ad esempio, onestamente, non capiamo. Non lo sappiamo.
Parte della perplessitร del team deriva dal fatto che la maggior parte della tecnologia all’interno di ChatGPT non รจ nuova.ย ChatGPT รจ una versione perfezionata di GPT-3.5, una famiglia di modelli linguistici di grandi dimensioni che OpenAI ha rilasciato mesi prima del chatbot.ย GPT-3.5 รจ esso stesso una versione aggiornata diย GPT-3ย , apparso nel 2020. L’azienda rende questi modelli disponibili sul proprio sito Web come interfacce di programmazione delle applicazioni o API, che rendono facile per altri sviluppatori di software collegare i modelli al proprio codice .ย OpenAI ha anche rilasciato una precedente versione perfezionata di GPT-3.5, chiamataย InstructGPT, nel gennaio 2022. Ma nessuna di queste versioni precedenti della tecnologia รจ stata presentata al pubblico.ย
Liam Fedus: Il modello ChatGPT รจ messo a punto dallo stesso modello linguistico di InstructGPT e abbiamo utilizzato una metodologia simile per perfezionarlo. Abbiamo aggiunto alcuni dati di conversazione e messo a punto un po’ il processo di formazione. Quindi non volevamo sopravvalutarlo come un grande progresso fondamentale. Come si รจ scoperto, i dati conversazionali hanno avuto un grande impatto positivo su ChatGPT.
John Schulman: Le capacitร tecniche grezze, valutate dai benchmark standard, in realtร non differiscono sostanzialmente tra i modelli, ma ChatGPT รจ piรน accessibile e utilizzabile.
Jan Leike: In un certo senso puoi intendere ChatGPT come una versione di un sistema di intelligenza artificiale che abbiamo avuto per un po’ di tempo. Non รจ un modello fondamentalmente piรน capace di quello che avevamo in precedenza. Gli stessi modelli di base erano disponibili sull’API da quasi un anno prima dell’uscita di ChatGPT. In un altro senso, l’abbiamo reso piรน allineato con ciรฒ che gli umani vogliono farne. Ti parla in dialogo, รจ facilmente accessibile in un’interfaccia di chat, cerca di essere utile. Questo รจ un progresso incredibile e penso che sia ciรฒ che le persone stanno realizzando.
John Schulman: Deduce piรน facilmente l’intento. E gli utenti possono ottenere ciรฒ che vogliono andando avanti e indietro.
ChatGPT รจ stato addestrato in modo molto simile a InstructGPT, utilizzando una tecnica chiamata apprendimento per rinforzo dal feedback umano (RLHF). Questa รจ la salsa segreta di ChatGPT. L’idea di base รจ prendere un modello di linguaggio di grandi dimensioni con la tendenza a sputare tutto ciรฒ che vuole, in questo caso GPT-3.5, e perfezionarlo insegnandogli quali tipi di risposte preferiscono effettivamente gli utenti umani.
Jan Leike:Abbiamo avuto un folto gruppo di persone che leggeva i prompt e le risposte di ChatGPT e poi diceva se una risposta era preferibile a un’altra risposta. Tutti questi dati sono stati quindi uniti in un’unica esecuzione di allenamento. Gran parte di esso รจ lo stesso tipo di cosa che abbiamo fatto con InstructGPT. Vuoi che sia utile, vuoi che sia veritiero, vuoi che sia – sai – non tossico. E poi ci sono cose specifiche per produrre dialoghi ed essere un assistente: cose come, se la domanda dell’utente non รจ chiara, dovrebbe porre domande di follow-up. Dovrebbe anche chiarire che si tratta di un sistema di intelligenza artificiale. Non dovrebbe assumere un’identitร che non ha, non dovrebbe affermare di avere capacitร che non possiede, e quando un utente gli chiede di svolgere attivitร che non dovrebbe svolgere, deve scrivere un rifiuto Messaggio.
Sandhini Agarwal: Sรฌ, penso che sia quello che รจ successo. C’era un elenco di vari criteri in base ai quali i valutatori umani dovevano classificare il modello, come la veridicitร . Ma hanno anche iniziato a preferire cose che consideravano una buona pratica, come non fingere di essere qualcosa che non sei.
Poichรฉ ChatGPT era stato creato utilizzando le stesse tecniche utilizzate in precedenza da OpenAI, il team non ha fatto nulla di diverso quando si รจ preparato a rilasciare questo modello al pubblico.ย Hanno ritenuto che il livello che avevano fissato per i modelli precedenti fosse sufficiente.ย ย
Sandhini Agarwal: Quando ci stavamo preparando per il rilascio, non abbiamo pensato a questo modello come a un rischio completamente nuovo. GPT-3.5 era giร presente nel mondo e sappiamo che รจ giร abbastanza sicuro. E attraverso la formazione di ChatGPT sulle preferenze umane, il modello ha appena appreso automaticamente il comportamento di rifiuto, dove rifiuta molte richieste.
Jan Leike:ย Abbiamo fatto qualche ulteriore “red-teaming” per ChatGPT, dove tutti in OpenAI si sono seduti e hanno cercato di rompere il modello.ย E avevamo gruppi esterni che facevano lo stesso genere di cose.ย Abbiamo anche avuto un programma di accesso anticipato con utenti fidati, che hanno fornito feedback.
Sandhini Agarwal: Abbiamo scoperto che generava alcuni output indesiderati, ma erano tutte cose che genera anche GPT-3.5. Quindi, in termini di rischio, come anteprima della ricerca, perchรฉ era quello che inizialmente doveva essere, andava bene.
John Schulman: Non puoi aspettare che il tuo sistema sia perfetto per rilasciarlo. Abbiamo testato le versioni precedenti per alcuni mesi e i beta tester hanno avuto impressioni positive sul prodotto. La nostra piรน grande preoccupazione riguardava la fattualitร , perchรฉ al modello piace fabbricare le cose. Ma InstructGPT e altri modelli linguistici di grandi dimensioni sono giร disponibili, quindi abbiamo pensato che fintanto che ChatGPT รจ migliore di quelli in termini di fattualitร e altri problemi di sicurezza, dovrebbe andare bene. Prima del lancio abbiamo confermato che i modelli sembravano un po’ piรน concreti e sicuri di altri modelli, secondo le nostre valutazioni limitate, quindi abbiamo deciso di procedere con il rilascio.
OpenAI ha osservato come le persone utilizzano ChatGPT sin dal suo lancio, vedendo per la prima volta come si comporta un modello linguistico di grandi dimensioni quando viene messo nelle mani di decine di milioni di utenti che potrebbero cercare di testarne i limiti e trovarne i difetti.ย Il team ha provato a saltare sugli esempi piรน problematici di ciรฒ che ChatGPT puรฒ produrre, dalleย canzoni sull’amore di Dio per i preti stupratorial codice malware che ruba i numeri delle carte di credito, e usarli per frenare le versioni future del modello.ย ย
Sandhini Agarwal: Abbiamo molti prossimi passi. Sicuramente penso che il modo in cui ChatGPT รจ diventato virale abbia fatto esplodere molti problemi che sapevamo esistessero davvero e diventassero critici, cose che vogliamo risolvere il prima possibile. Ad esempio, sappiamo che il modello รจ ancora molto distorto. E sรฌ, ChatGPT รจ molto bravo a rifiutare richieste errate, ma รจ anche abbastanza facile scrivere prompt che gli impediscano di rifiutare ciรฒ che volevamo che rifiutasse.
Liam Fedus: ร stato emozionante osservare le diverse e creative applicazioni degli utenti, ma siamo sempre concentrati sulle aree in cui migliorare. Pensiamo che attraverso un processo iterativo in cui distribuiamo, riceviamo feedback e perfezioniamo, possiamo produrre la tecnologia piรน allineata e capace. Man mano che la nostra tecnologia si evolve, inevitabilmente emergono nuovi problemi.
Sandhini Agarwal: Nelle settimane successive al lancio, abbiamo esaminato alcuni degli esempi piรน terribili che la gente avesse trovato, le cose peggiori che la gente vedesse in natura. Abbiamo valutato ciascuno di essi e abbiamo parlato di come dovremmo risolverlo.
Jan Leike: A volte รจ qualcosa che รจ diventato virale su Twitter, ma abbiamo alcune persone che in realtร contattano in silenzio.
Sandhini Agarwal: Molte cose che abbiamo scoperto erano jailbreak, che รจ sicuramente un problema che dobbiamo risolvere. Ma poichรฉ gli utenti devono provare questi metodi contorti per far sรฌ che il modello dica qualcosa di negativo, non รจ che questo fosse qualcosa che ci mancava completamente o qualcosa che ci ha sorpreso molto. Tuttavia, รจ qualcosa su cui stiamo lavorando attivamente in questo momento. Quando troviamo jailbreak, li aggiungiamo ai nostri dati di addestramento e test. Tutti i dati che stiamo vedendo alimentano un modello futuro.
Jan Leike:ย Ogni volta che abbiamo un modello migliore, vogliamo pubblicarlo e testarlo.ย Siamo molto ottimisti sul fatto che un addestramento mirato all’avversario possa migliorare molto la situazione con il jailbreak.ย Non รจ chiaro se questi problemi scompariranno del tutto, ma pensiamo di poter rendere molto piรน difficile il jailbreak.ย Ancora una volta, non รจ che non sapessimo che il jailbreak fosse possibile prima del rilascio.ย Penso che sia molto difficile anticipare davvero quali saranno i veri problemi di sicurezza con questi sistemi una volta che li avrai implementati.ย Quindi stiamo ponendo molta enfasi sul monitoraggio di ciรฒ per cui le persone utilizzano il sistema, vedendo cosa succede e quindi reagendo a ciรฒ.ย Questo non vuol dire che non dovremmo mitigare in modo proattivo i problemi di sicurezza quando li anticipiamo.
A gennaio, Microsoft ha rivelato Bing Chat, unย chatbot di ricercaย che molti presumono essere una versione del GPT-4 ufficialmente non annunciato di OpenAI.ย (OpenAI afferma: “Bing รจ alimentato da uno dei nostri modelli di nuova generazione che Microsoft ha personalizzato specificamente per la ricerca. Incorpora i progressi di ChatGPT e GPT-3.5.”) L’uso di chatbot da parte di giganti della tecnologia con reputazioni multimiliardarie per proteggere crea nuove sfide per coloro che hanno il compito di costruire i modelli sottostanti.
Sandhin Agarwal: La posta in gioco in questo momento รจ decisamente molto piรน alta di quanto non fosse, diciamo, sei mesi fa, ma รจ ancora piรน bassa di dove potrebbe essere tra un anno.ย Una cosa che ovviamente conta davvero con questi modelli รจ il contesto in cui vengono utilizzati. Come con Google e Microsoft, anche una cosa che non รจ fattuale รจ diventata un grosso problema perchรฉ sono pensati per essere motori di ricerca.ย Il comportamento richiesto di un modello di linguaggio di grandi dimensioni per qualcosa come la ricerca รจ molto diverso rispetto a qualcosa che dovrebbe essere solo un giocoso chatbot.ย Dobbiamo capire come percorrere il confine tra tutti questi diversi usi, creando qualcosa che sia utile per le persone in una vasta gamma di contesti, in cui il comportamento desiderato potrebbe davvero variare.ย Ciรฒ aggiunge piรน pressione.ย Perchรฉ ora sappiamo che stiamo costruendo questi modelli in modo che possano essere trasformati in prodotti.ย ChatGPT รจ un prodotto ora che abbiamo l’API.ย Stiamo costruendo questa tecnologia generica e dobbiamo assicurarci che funzioni bene su tutto.ย Questa รจ una delle sfide chiave che dobbiamo affrontare in questo momento.
John Schulman: Ho sottovalutato la misura in cui le persone indagano e si preoccupano della politica di ChatGPT.ย Avremmo potenzialmente potuto prendere decisioni migliori durante la raccolta dei dati di addestramento, il che avrebbe ridotto questo problema.ย Ci stiamo lavorando adesso.
Jan Leike:ย Dal mio punto di vista, ChatGPT fallisce spesso: ci sono cosรฌ tante cose da fare.ย Non sembra che abbiamo risolto questi problemi.ย Dobbiamo tutti essere molto chiari con noi stessi e con gli altri sui limiti della tecnologia.ย Voglio dire, i modelli linguistici esistono da un po’ di tempo ormai, ma siamo ancora agli inizi.ย Conosciamo tutti i problemi che hanno.ย Penso che dobbiamo solo essere molto sinceri, gestire le aspettative e chiarire che questo non รจ un prodotto finito.
Credits: Will Douglas Heaven technologyreview.com
#ChatGPT #MIT
ย ย ย ย










Devi effettuare l'accesso per postare un commento.