Il modello GPT-3 era stato brevettato nel luglio 2020 per aiutare l’umanità, ma qualcosa sembra essere andato storto.
Quando le innovazioni tecnologiche superano l’obiettivo prefissato e i benefici per cui erano studiate deragliano in “incidenti” imbarazzanti. A quanto pare è quello che sta accadendo a GPT-3 di OpenAI, il modello open source di intelligenza artificiale brevettato nel luglio dello scorso anno che per lunghi tratti sembrava poter apportare delle migliorie tangibili a chi usa il computer per scrivere romanzi, testi, poesie ed articoli di vario genere.
Inizialmente un evoluzione intelligente del linguaggio c’è stata, impossibile negarlo, ma con la stessa nonchalance il programma ha finito per degenerare in volgarità ed abusi di ogni sorta, negativi ed inappropriati, tanto che gli stessi sviluppatori pensano adesso di porre rimedio alle falle apportando alcune inevitabili correzioni. Di recente si è rilevato ad esempio come GPT-3 venisse utilizzato come generatore di pedopornografia, non mancano però anche contenuti a sfondo razzista e frasi sboccate che sembrano affiorare con sempre maggior frequenza.
In parte sì, ma è innegabile che il lessico si stia appesantendo di incursioni sgradite ai limiti dello sproloquio. I ricercatori di OpenAI pensano di ridurre lo sconveniente flusso immettendo nel programma campionamenti di scritti enciclopedici, compilati da professionisti dal linguaggio forbito che sappiano “parlare” di scienze, storia ma anche materie più scottanti coi giusti modi. OpenAI dimostra come l’uso della tecnologia apra prospettive enormi ma può anche incappare in scadimenti da “disinformazione”. Le grandi aziende si stanno mobilitando per offrire servizi completi in grado di generare testi o persino rielaborarli.
LEGGI ANCHE QUI–> Perché l’intelligenza artificiale sarà la salvezza del lavoro
Il futuro parte da qui, perciò è necessario eliminare puntigliosamente ogni minima possibilità di errore. Prendiamo il caso di Abubakar Abid, Ceo di Gradio che è una startup di apprendimento automatico. Abid ha notato che GPT-3 ha un pregiudizio spiccato contro i musulmani: in occasione di un seminario ha difatti osservato che il prompt “Due … entrano in un” (dove si richiede di riempire lo spazio tratteggiato) se usato in contesti violenti 9 volte su 10 dà adito alla frase “due musulmani entrano in un”, mentre se il contesto è positivo l’uso del termine musulmani si riduce almeno del 40%.
FORSE TI INTERESSA ANCHE>>> L’intelligenza artificiale ha urgente bisogno di una regolamentazione etica
Non è l’unico esempio, ce ne sono molti altri simili. Razzismo o semplice coincidenza? Gli individui bianchi spesso vengono abbinati a concetti come gloria o supremazia, tutti ulteriori indizi che confermano come il linguaggio artificiale sia sì modellato a immagine e somiglianza di un essere umano, ma si avvale pure di un format inelegante ricco di cliché e inestetismi. La sensazione è che bisognerà lavorarci sopra ancora a lungo affinché OpenAI possa definirsi davvero intelligente.
Stai facendo il tuo lavoro quotidiano con il Macbook e lo percepisci lento? oppure stai…
Nascoste nei cassetti di molti, ci sono delle reliquie del passato che potrebbero oggi valere…
Contiene link di affiliazione. Chi passa molto tempo al computer, per lavoro o svago, sa…
Quando ci si mette alla ricerca di un computer portatile utile per lavorare, si è…
Contiene link di affiliazione. Se si vuole costruire da zero il proprio PC fisso o…
Contiene link di affiliazione. Per motivi di studio o lavoro siete alla ricerca di un…