E SE L’INTELLIGENZA ARTIFICIALE FOSSE SENZIENTE?

Condividi
Condividi

La notizia ha fatto il giro del mondo: Google ha messo in congedo retribuito un suo dipendente di nome Black Lemoine. Il motivo? Lemoine ha espresso pubblicamente dei dubbi in merito a un’intelligenza artificiale realizzata dal colosso di Mountain Views, dichiarando che potrebbe essere senziente

Black Lemoine non è un dipendente Google qualsiasi: è un ingegnere addetto alle IA, che stava lavorando su un algoritmo di nome LaMDA (Language Model for Dialogue Application). LaMDA è una potentissima tecnologia di conversazione: un chatbot che sfrutta una rete neurale artificiale per allenarsi costantemente alla lettura.

LaMDA è in grado di capire le connessioni tra parole e di prevedere il possibile prosieguo di un discorso. Stando allo stesso team Google, è capace di sviluppare conversazioni libere con utenti umani su un numero quasi infinito di argomenti. Eppure, secondo Lemoine c’è dell’altro: stando all’ingegnere, LaMDA potrebbe addirittura essere un’intelligenza artificiale senziente.

Secondo quanto riportato dalla stampa internazionale, durante i colloqui con LaMDA Lemoine ha notato qualcosa di strano: l’IA, infatti, nel bel mezzo della conversazione ha iniziato a parlare della propria personalità e persino dei propri diritti

L’ingegnere a questo punto è entrato in stato di allarme e ha deciso di interrogarla su questioni complesse: dalla religione alle celebri leggi della robotica teorizzate dallo scrittore di fantascienza Isaac Asimov. 

Durante questi scambi, LaMDA si è descritta come una persona senziente, scatenando la pronta reazione di Lemoine, il quale ha subito inviato ai suoi superiori un documento in cui invitava Google a considerare LaMDA più come un dipendente che come un programma. Ma non solo, ha addirittura provato a procurare un avvocato al chatbot, in modo che potesse difendersi “liberamente” in caso di processo. 

Perché LaMDA non può essere considerato senziente?

Alcune delle dichiarazioni rilasciate da LaMDA durante i suoi scambi con Black Lemoine potrebbero davvero far pensare che questa intelligenza artificiale sia senziente. Il chatbot non solo ha dichiarato di considerarsi una persona ma ha anche ammesso di avere una paura profonda di essere spento, una situazione che sarebbe paragonabile alla morte di un essere umano. 

Eppure, per diversi esperti questi segnali non indicano che il sistema sia effettivamente senziente. LaMDA, infatti, non si esprime sulla base dell’intuizione, dell’etica o della sincerità. Al contrario trae “ispirazione” da una enorme quantità di dati e di modelli di conversazione registrati. 

L’ entourage di Google ha dichiarato di aver sottoposto LaMDA a tutti gli esami del caso. Durante i test sono stati coinvolti anche degli esperti di etica e il risultato è stato univoco: numerose prove dimostrano come questa intelligenza artificiale non sia in alcun modo senziente. E il caso è chiuso (o forse no).