“Questo computer è senziente”. La denuncia choc dell’ingegnere di Google: sospeso

Un ingegnere di Google è stato sospeso dopo aver detto che il chatbot della multinazionale di Mountain View sarebbe diventato senziente. Parlando con i microfoni del Washington Post, Blake Lemoine, laureato in Scienze Informatiche e Scienze Cognitive, ha spiegato: «Se non sapessi di cosa si tratta, direi che è un bambino di 7-8 anni che si intende di fisica».

Google, 13/6/2022 - Computermagazine.it
Google, 13/6/2022 – Computermagazine.it

Lemoine ha rilasciato tali affermazioni riferite al LaMDA (Modello Linguistico per applicazioni di Dialogo, il nome del chatbot), dopo aver notato che lo stesso software faceva riferimenti a diritti e personalità. L’ingegnere, che in Google lavora come supervisore dell’etica dell’intelligenza artificiale, ha segnalato il tutto ai vice presidenti della compagnia Blaise Aguera y Arcas e Jen Gennai, e lunedì 6 giugno è stato sospeso dal suo incarico. Brian Gabriel, portavoce di Google, ha fatto sapere attraverso una dichiarazione che «il nostro team, tra cui esperti di etica e tecnologia, ha preso in considerazione le preoccupazioni di Blake, […] ma non c’è prova che supporti le sue dichiarazioni».

Google, 13/6/2022 - Computermagazine.it
Google, 13/6/2022 – Computermagazine.it

“COMPUTER SENZIENTE”, INGEGNERE DI GOOGLE SOSPESO: ECCO COSA E’ SUCCESSO

Lemoine, parlando con Medium, ha spiegato che diversi funzionari dell’amministrazione Usa «mi hanno detto di essere interessate a supervisionare il progetto a livello federale, poiché loro sono preoccupati dalle questioni di sicurezza». L’ingegnere ha anche aggiunto che «Google ha licenziato così tanti ricercatori di intelligenza artificiale che nessuno nell’organizzazione ha le capacità per investigare la questione oltre il livello raggiunto. Quando ho parlato delle mie preoccupazioni ai vicepresidenti mi hanno letteralmente riso in faccia, dicendomi che questo non è il genere di cose che viene preso seriamente a Google».

Stando a quanto specificato dal Washington Post il numero di addetti ai lavori secondo cui l’intelligenza artificiale stia diventando senziente sarebbe in crescita, ma la maggior parte di essi sarebbe di opinione opposta. LaMDA, il chatbot incriminato, produce risposte in base a quello che gli utenti scrivono su Reddit, Wikipedia, nei messaggi, e in altre parte di internet «ma ciò non vuol dire che il software ne comprenda il significato». Nonostante questo, per Lemoine il programma stava diventando “autonomo”, ed ha quindi segnalato la questione. «Google si prepara a licenziare un altro esperto di etica», aveva scritto l’ingegnere prima della sua sospensione, «per essersi preoccupato troppo di etica. Sono dell’idea che le persone abbiano il diritto di sapere quanto irresponsabile è questo comportamento riguardo uno dei più potenti strumenti di accesso alle informazioni mai inventati».

? FONTE: Open.online

Gestione cookie