(9 gennaio 2023 h 17.00)
Cinema Odeon Pisa – piazza San Paolo all’Orto

Fantascienza e/o distopia
// M3GAN // Everything Everywhere All At Once // Siccità // Nope // Penguin Highway // Lightyear: la vera storia di Buzz // E noi come stronzi rimanemmo a guardare // Dune // La terra dei figli // Tenet // Il dottor Stranamore // AD ASTRA // Brightburn // Jurassic World Il Regno distrutto // 2001: Odissea nello spazio // Tito e gli alieni // L’isola dei cani // La forma dell’acqua //

Suspense (alta tensione: thriller e/o horror)
// M3GAN // Bones and All // Nido di vipere // L’homme de la cave [Un’ombra sulla verità] // La fiera delle illusioni // America Latina // Raw // Titane // Doppia pelle [Le daim] // Il sospetto [Jagten] // Favolacce // Notorious! // Si vedono i primi segni (racconto) // Parasite // Il signor diavolo // The dead don’t die // Border // La casa di Jack // Gli uccelli (The birds) // L’albero del vicino //

Isaac Asimov, il grande scrittore di fantascienza, nei suoi racconti formulò le leggi della robotica.

Prima Legge: un robot non può recare danno agli esseri umani, né può permettere che, a causa del suo mancato intervento, gli esseri umani ricevano danno.
Seconda Legge: un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nel caso che tali ordini contrastino con la Prima Legge.
Terza Legge: un robot deve salvaguardare la propria esistenza, purché ciò non contrasti con la Prima e la Seconda Legge.
A queste, in un racconto, aggiunse la cosiddetta Legge Zero, più generale: un robot non può danneggiare l’umanità, né può permettere che, a causa del suo mancato intervento, l’umanità riceva danno.
Dunque, secondo Asimov, un robot non dovrebbe mai aggredire un essere umano.

La prima legge può essere inapplicabile in alcune situazioni.
Mettiamo il caso che un malintenzionato metta in atto le sue cattive intenzioni e mi aggredisca. Supponiamo che per difendermi ci sia una sola possibilità: recare danno all’aggressore.
Che cosa può fare in questa situazione il robot che svolge il compito di guardaspalle dell’utente principale?
Il povero robot si troverà costretto in un loop (ciclo chiuso e ripetitivo da cui non si esce): alzerà il pugno minaccioso e si fermerà, digrignerà i denti e si fermerà, ripeterà gli stessi accenni di movimenti fino a consumarsi, a prendere fuoco, a fondersi o accasciarsi per terra con le batterie scariche. Poveraccio!
Due istruzioni che, in certe situazioni, si contraddicono (deve difendermi ma non può recare danno all’aggressore) lo distruggono.
La sequenza di istruzioni in linguaggio macchina e codice binario che, tradotta da un programma informatico, forniamo al robot e chiamiamo Intelligenza Artificiale non prevede l’etica, perché l’etica presuppone la possibilità di una scelta.
Noi uomini possiamo decidere di fare il bene o il male perché siamo in grado di valutare la situazione e scegliere tra due o più comportamenti; la macchina non può farlo. Il “cervello” digitale non dà scampo: esegue A e B (congiunzione) – ma l’istruzione B non deve contraddire l’istruzione A.
Istruzione A: devo difendere l’utente principale in ogni situazione.
Istruzione B: non posso aggredire un essere umano.
In alcune situazioni le due istruzioni si contraddicono.
Un guardaspalle umano valuterebbe e prenderebbe una decisione.

Proviamo a dare al robot la possibilità di eseguire A o B (disgiunzione esclusiva) – cioè di valutare la situazione.
Inseriamo nella sua memoria un numero enorme di dati, infinitamente di più dei dati che il nostro cervello è in grado di richiamare alla coscienza (certamente li conserva, ma molti sono a livello inconscio).
Inserire dati, con i computer attuali, è un’operazione estremamente semplice e assai elevato è lo spazio a disposizione.
Associamo a ogni situazione un grado di reazione del robot; esempio: l’individuo di fronte canta – non lo aggredisci (B 100%); ha lo sguardo sereno: B 80% A 20%; ha lo sguardo truce: B 70% A 30%; imbraccia un’arma: B 60% A 40%; punta l’arma: A 70% B 30%; punta l’arma verso l’utente principale: A 100%; eccetera.
Inseriamo in memoria l’istruzione: esegui un diverso grado di reazione in base al risultato del calcolo statistico (la media delle percentuali); si va dal non fare nulla al saltare sull’eventuale aggressore mettendo in atto tutta la potenza micidiale del robot; nei computer attuali il calcolo richiede una frazione di secondo.
Dunque, se uno ci spara cantando con lo sguardo sereno siamo fregati (la media sposta la prevalenza da A a B).
Il programma si potrà affinare, si ridurranno gli equivoci con successivi aggiornamenti.
Il problema è il bug (errore).
Si verificherà quando il risultato sarà 50% A (aggredisci il delinquente che hai di fronte, colpiscilo, distruggilo), 50% B (non reagire, non c’è pericolo, pace, amore, siamo figli dei fiori).
Il povero ammasso di fili, plastica e microchip entrerà in loop.
Un caso sfortunato, raro, ma non sappiamo se l’utente principale, quando si verificherà, sarà in grado di sbloccare il guardaspalla, che risulterà inservibile.
Anche un uomo potrebbe avere un dubbio o potrebbe pensare: l’aggressore del mio datore di lavoro ha ragione. Potrebbe fermarsi o addirittura associarsi all’aggressore e picchiare la persona che deve proteggere. Ma sarebbe una scelta, non il risultato di un calcolo statistico su un numero enorme di eventi previsti dal programma.
Adamo e Eva scelsero di disubbidire nonostante non ci fossero esperienze precedenti in materia (le esperienze dei diavoli erano su un altro livello). Disubbidirono e divennero esseri umani, coscienti della propria nudità (prima erano un’altra cosa). Una macchina può guastarsi, non può disubbidire.

Una macchina che potesse fare una scelta in base a un codice etico, o sulla spinta di un impulso autonomo, una macchina che potesse disubbidire, sarebbe un essere umano, eventualmente primitivo se il codice etico fosse elementare, ma sarebbe un essere umano – in senso lato, anche se fatto di fili, plastica e microchip.
«Si … può … fare» griderebbero i progettisti, presi dall’entusiasmo (avrebbero tutto il tempo, in seguito, per pentirsi).

Un robot che impara dall’esperienza e arricchisce progressivamente il proprio bagaglio di competenze non ha i limiti definiti dalle leggi di Asimov. Se uno dei suoi compiti è di proteggere il padrone (l’utente principale), lo protegge, anche a danno di qualcun altro, anche esagerando.
Se un altro compito che il programmatore gli ha dato è di esaudire i desideri del padrone, li esaudisce; va in crisi se il padrone gli chiede di aiutarlo a suicidarsi, non perché gli dispiaccia, ma perché, ancora una volta, si è verificata una situazione in cui due istruzioni si contraddicono. A: devo obbedire all’utente principale, B: non devo mai recargli danni.

Un robot molto avanzato potrebbe arrivare a recepire i desideri dell’utente principale prima che raggiungano la sua coscienza (da minimi cambiamenti dell’espressione, da infinitesime variazioni del battito cardiaco, da un movimento impercettibile degli occhi). A questo punto la macchina mi sorprenderebbe: «Ma guarda! Hai capito ciò che volevo prima di me! Complimenti Hal! Mi stupisci»; «Grazie padrone. I robot della mia generazione riescono ad anticipare di qualche secondo la coscienza dell’utente principale. Gli scienziati che mi hanno programmato stanno studiando una versione del software che anticipa i desideri del padrone fino a tre giorni prima che nascano in lui. I miei fratelli mi comunicano che ci sono difficoltà quasi insormontabili. Uno dei fratelli in prova ha ammazzato il nonno del padrone; ha recepito che il desiderio più profondo del suo utente principale era l’eredità che gli sarebbe pervenuta se il nonno fosse morto. Effetto spiacevole non previsto»; «Grazie Hal. Ora scarica la batteria e non collegarti più alla presa della corrente».

Il giorno dopo appare un avviso su un sito di vendite online: “robot di ultima generazione, quasi nuovo, si vende a un prezzo superconveniente per trasferimento del proprietario in una comunità di luddisti”.

Non è necessario un androide completo per arrivare a queste conseguenze; basta un sistema, relativamente semplice, guidato dall’Intelligenza Artificiale (IA o, se si preferisce l’acronimo in lingua inglese, AI): il congegno che mi aiuta a parcheggiare la macchina prendendo il controllo dello sterzo, dell’acceleratore, del freno.

Supponiamo che questo sistema abbia raggiunto un grado elevato di raffinatezza, tanto da riuscire a recepire in quale dei posti liberi preferisco parcheggiare la macchina ancora prima che io esprima la mia scelta, addirittura prima che io stesso mi renda conto della mia preferenza (movimento degli occhi, eccetera).
Mentre la macchina sta parcheggiando, guidata dall’IA, arriva dentro al parcheggio in motorino il condomino antipatico, con il quale ho avuto numerosi alterchi.
Il congegno recepisce il mio desiderio inconscio, cambia obiettivo, accelera e mette sotto il mio nemico.
Io non l’avrei fatto, pur provando un’avversione profonda per quell’uomo; la macchina, che non possiede un codice etico, non ha inibizioni, riceve (stiamo attenti a non usare verbi come interpreta, capisce!) il comando “inconscio” e va all’attacco.

Immagino i processi che si svolgeranno nei tribunali tra x anni: il giudice sarà chiamato a decidere chi deve pagare i danni causati da un robot fuori controllo: comando volontario o involontario del proprietario? Nel secondo caso il proprietario non ha responsabilità e i danni competono all’assicurazione della ditta fornitrice del software.
È vero o non è vero, dirà l’avvocato della ditta, che l’utente principale aveva sbattuto il pugno sul tavolo discutendo con quell’uomo?
È vero: la macchina ha interpretato correttamente il messaggio: “desidera dargli un cazzotto in faccia”, ma non ha la complessità della psiche umana per comprendere l’aggressività dislocata; ha preso il gesto come fosse un errore di mira e ha aggiustato la mira.

Finalmente ho trovato un film che merita la piccola spesa necessaria per entrare in sala, dopo il tempo perso (tre ore e mezza) per Avatar 2, un film così stupido da farmi passare la voglia di parlarne, persino di inserirlo tra i film brutti.
Eppure a vedere Avatar acquatico nel cinema Adriano, non lontano dalla stazione Rifredi, c’erano una trentina di persone, forse mosse, come me, dalla curiosità: occhialini usa e getta all’ingresso, promessa di una visione 3D.

Dalle reazioni che ho percepito all’uscita ero l’unico insoddisfatto.

Invece all’Odeon di Pisa, a vedere M3GAN – non un capolavoro, ma un bel film di fantascienza, ben fatto, in lingua originale con i sottotitoli – eravamo in quattro.

Il 3 nel titolo non è un errore. La bambola robotica allenata dalla bambina si chiama proprio così: M3GAN, che sta per “Model 3 Generative Android”, anche se ci è più comodo chiamarla Megan.
Il film, prodotto da James Wan (Dead silence, 2007 – horror con un personaggio centrale, la ventriloqua, troppo cerebrale), sceneggiato dallo stesso James Wan con Akela Cooper e diretto da Gerard Johnstone, mi porta finalmente a fare pace con il cinema in questo inizio del 2023, con le sale occupate stabilmente dai troppi titoli natalizi.
I produttori e i distributori sono convinti che per spingere la gente, durante le feste, a muovere il culo dalla poltrona di casa e portarlo nella poltrona di un cinema bisogna proporre cazzate. Forse hanno ragione: la constatazione sul numero degli spettatori apparentemente non insoddisfatti dopo la visione della più grande cazzata di fine 2022 (Avatar sott’acqua) sembra confermare il loro intuito commerciale.
La gente avrà i suoi gusti, io preferisco “la più grande innovazione tecnologica dai tempi dell’automobile”: Megan, un robot che si prende cura della bambina rimasta orfana, affidata alla zia ricercatrice di intelligenza artificiale e costruttrice di giocattoli androidi.

La bambola robot utilizzata come educatrice della bambina (la ricercatrice non ha tempo) dev’essere educata; la bambina le insegna le cose che conosce, le favole, i giochi, le sensazioni, le paure. La bambola insegna alla bambina le regole dell’igiene personale e della buona educazione (si tira lo scarico prima di uscire dal bagno, il bicchiere si appoggia sul sottobicchiere) e la protegge dal cane furioso e dal bambino dispettoso.
Megan è guidata dall’IA, dunque impara rapidamente e svolge senza limiti il proprio compito: il cane furioso e il ragazzo dispettoso fanno una brutta fine.

Come accade nel cinema dai tempi di 2001: Odissea nello spazio (non ancora nella realtà), quando hanno paura delle macchine da loro stessi create gli uomini cercano di staccare i circuiti, di smontare la memoria del congegno mosso dall’IA.
Il congegno dimostra un istinto di conservazione imprevisto dai progettisti e una resistenza che va molto oltre le deboli forze umane.

Niente paura: muoiono gli antipatici (il cane e il bambino aggressivi, la vicina noiosa, il boss dell’ufficio, il tecnico hacker). Gli altri assaliti da Megan si salvano, dopo averla vista brutta, comprese zia e nipote, che sopravviveranno, un po’ ammaccate.
I cultori dei combattimenti tra mostri (marziani, indemoniati o robot) e umani esagerano sempre con i colpi violenti che sembrano stranamente inefficaci e rompono il ritmo del racconto, determinando un calo della tensione e dell’attenzione nello spettatore. Credono che a noi piacciano le serie di capitomboli che prima segnalavano l’abilità degli stuntman, ora li fanno al computer e sono ancora più noiosi.

Tutto sommato, il film è un buon thriller fantascientifico e ci induce a riflettere (ancora una volta) sul rapporto con le macchine, che diventano sempre più invasive: entrano nella nostra vita da sicchə (dalla parte stretta) e si piazzano da chiattə (dalla parte larga): [tràsənə e sicchə, sə méttənə e chiattə]. Ovviamente è un modo di dire napoletano. Riguardo all’uso della schwa (/ə/) per indicare la vocale centrale media tra /a/ ed /e/, vedere la nota nel commento al film Achille Tarallo su questo sito.

POST SCRIPTUM

All’inizio del film (9/01/2023) ho ricevuto un messaggio dalla mamma di una cara bambina: «È allegra. Stiamo per entrare in sala».
Purtroppo non si tratta di una sala cinematografica ma di una sala chirurgica dove la bambina, AG, ha dovuto fare un piccolo intervento.
Poi la madre mi ha scritto che è andato tutto bene, ma AG era nervosa e al risveglio dall’anestesia ha preteso che la dottoressa le spiegasse per filo e per segno ciò che le hanno fatto.
Poiché ha circa sei anni mi sono detto: «Che bambina intelligente! Il suo primo pensiero è stato: voglio capire».