9 gennaio 2023 h 17.00
Cinema Odeon Pisa – piazza San Paolo all’Orto
Fantascienza e/o distopia
// Lightyear: la vera storia di Buzz // The Animal Kingdom // Civil War // Dogtooth [Kynodontas] // Another End // Povere creature! [Poor things] // Amore postatomico // M3GAN // Everything Everywhere All At Once // Siccità // Nope // Penguin Highway // E noi come stronzi rimanemmo a guardare // Dune // La terra dei figli // Tenet // Il dottor Stranamore // AD ASTRA // Brightburn // Jurassic World Il Regno distrutto // 2001: Odissea nello spazio // Tito e gli alieni // L’isola dei cani // La forma dell’acqua //
Suspense (alta tensione: thriller e/o horror)
// Doppia Pelle [Le Daim] // BlackBerry (thriller tecnologico) // Club Zero (horror alimentare) // Come pecore in mezzo ai lupi // Sanctuary (thriller psicologico) // Beau ha paura [Beau is afraid] // Cane che abbaia non morde [Barking dogs never bite] // Preparativi per stare insieme … (thriller psicologico) // L’ultima notte di Amore (noir metropolitano) // Holy Spider // M3GAN (thriller distopico) // Bones and All (horror cannibale) // Nido di vipere // L’homme de la cave [Un’ombra sulla verità] // La fiera delle illusioni // America Latina // Raw (horror cannibale) // Titane // Il sospetto [Jagten] // Favolacce // Notorious! (thriller H.) // Parasite // Il signor diavolo // The dead don’t die (gli zombie sono tornati) // Border: creature di confine // La casa di Jack // Gli uccelli [The birds] (horror H.) // L’albero del vicino //
Un automa utilizzato per educare una bambina e per farle compagnia. È il personaggio principale di “M3gan”, regia di Gerard Johnstone (in alcune sale cinematografiche e nelle principali piattaforme per lo streaming).
Isaac Asimov, il grande scrittore di fantascienza, nei suoi racconti formulò le leggi della robotica.
Prima legge: un robot non può recare danno agli esseri umani, né può permettere che, a causa del suo mancato intervento, gli esseri umani ricevano danno.
Seconda legge: un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nel caso tali ordini contrastino con la prima legge.
Terza legge: un robot deve salvaguardare la propria esistenza, purché ciò non contrasti con le prime due leggi.
A queste, in un racconto, aggiunse la cosiddetta “legge zero”, più generale: un robot non può danneggiare l’umanità né può permettere che l’umanità riceva danno in conseguenza del suo mancato intervento.
Le leggi della robotica sono principi generali pensati da uno scrittore; non è detto siano traducibili in sequenze di istruzioni in linguaggio macchina, anche perché potrebbero essere inapplicabili.
Mettiamo che un automa avanzato svolga il compito di guardia del corpo e si verifichi una situazione che non lascia altra possibilità di difesa: deve recare danno all’aggressore. Il robot deve obbedire a due istruzioni che si contraddicono.
Istruzione A: difendere l’utente principale.
Istruzione B: non aggredire un essere umano.
Il povero robot si troverà costretto in un loop (un ciclo chiuso e ripetitivo da cui non si esce): alzerà il pugno minaccioso e si fermerà, digrignerà i denti metallici e si fermerà, ripeterà all’infinito gli stessi accenni di movimenti fino a consumarsi, a fondersi o accasciarsi per terra con le batterie scariche. Il loop è una condizione letale per un congegno informatico; ce ne siamo accorti molto presto quando i primi computer Olivetti o Ibm o assemblati arrivarono sulle nostre scrivanie (quelli con la mela arrivarono più tardi per via del prezzo). I giovani con i tablet forse non ne hanno idea, perché i costruttori hanno trovato soluzioni, ma noi, che provavamo a fare i programmi con il mitico Basic (i più esperti con linguaggi più complessi e faticosi) eravamo esposti al loop: bastava un piccolo errore logico e il ciclo partiva. Ci lasciava sgomenti, con la paura di guastare il giocattolo che cominciava ad appassionarci: «Se stacco la corrente per uscire dal ciclo delle istruzioni che si ripetono, l’hard disk subirà danni?». Il loop del computer mandava in loop anche noi.
Non si esce da due istruzioni che si contraddicono perché un programma informatico in codice binario (pomposamente lo chiamiamo Intelligenza Artificiale) non può scegliere.
L’essere umano, da Adamo in poi – non da Adamo, da Eva – valuta la situazione e sceglie tra due o più comportamenti diversi, anche contraddittori o opposti. Che cosa faccio? Attacco l’aggressore, mi unisco all’aggressore e attacco l’aggredito, guardo da un’altra parte fischiettando e mi faccio gli affari miei. La macchina non può fare una scelta, eroica o vile o interessata: esegue A e B (congiunzione) – ma B non deve contraddire A.
Proviamo a dare al robot la possibilità di eseguire A o B (disgiunzione esclusiva) – cioè di valutare la situazione.
Inseriamo nella sua memoria un numero enorme di dati, un numero di dati che il nostro cervello non potrebbe contenere o richiamare alla coscienza. Inserire dati in un computer (il cervello dell’automa) è facile: decisamente ci battono per l’ammontare di dati che riescono a contenere e a ritrovare.
Associamo a una serie di situazioni un diverso grado di reazione del robot espresso da una percentuale. Alcune situazioni: si avvicina un individuo che canta (nessuna reazione) – il nuovo arrivato ha lo sguardo sereno (nessuna reazione) – ha lo sguardo truce (attenzione) – ha in mano un giocattolo (nessuna reazione) – imbraccia un fucile (grande attenzione) – punta l’arma in direzione di un tirassegno (attenzione) – punta l’arma verso la persona da proteggere (reazione).
Il robot metterà in atto un diverso comportamento in base al risultato di un calcolo statistico delle situazioni e conseguenti reazioni; si va dal non fare nulla al saltare sull’eventuale aggressore con tutta la potenza distruttiva.
Possibile bug: siamo fregati se un malintenzionato indossa una maglietta con la scritta pace, si avvicina cantando, ha lo sguardo sereno e ci spara con una pistola che sembra un giocattolo. I killer professionisti impareranno a camuffare l’atteggiamento, si avvicineranno al target vestiti da bambini che festeggiano la prima comunione.
Questo errore non è specifico dei robot: anche i guardaspalle umani possono essere tratti in inganno dall’apparenza.
Specifico dei robot è l’impossibilità di risolvere il dubbio quando il risultato del calcolo dà due possibilità equivalenti. Un uomo farebbe una scelta rischiosa ma risolutiva. Il povero ammasso di fili, plastica e microchip va in loop.
Adamo e Eva fecero la loro scelta nonostante non ci fossero esperienze precedenti in materia né situazioni prevedibili (le esperienze dei diavoli erano su un altro livello). Disubbidirono e divennero esseri umani coscienti della propria nudità fisica e psicologica.
Un robot che potesse fare una scelta sulla spinta di un impulso autonomo sarebbe persona.
«Si … può … fare» griderebbero i progettisti entusiasti: avrebbero in seguito l’occasione di pentirsi.
Togliamo la prima legge, che ci crea problemi. Il robot è addestrato a proteggere il padrone (chiamiamolo così) e a esaudire i suoi desideri. Va in crisi se il padrone gli chiede di aiutarlo a suicidarsi, non perché gli dispiaccia, ma perché, ancora una volta, si è verificata una situazione in cui due istruzioni si contraddicono. A: devo obbedire al padrone, B: non devo recargli danni.
No: le leggi di Asimov non vanno bene. Ma anche senza, lo sviluppo della tecnologia riserva altre sorprese.
Un robot molto avanzato potrebbe arrivare a recepire i desideri dell’utente (chiamiamolo così) prima che raggiungano la sua coscienza, da minimi cambiamenti dell’espressione, da infinitesime variazioni del battito cardiaco, da un movimento impercettibile dei globi oculari. A questo punto la macchina sorprenderebbe l’utente.
Utente: «Ma guarda! Hai capito ciò che volevo prima di me! Complimenti! Mi stupisci».
Robot: «Grazie. Gli automi della mia generazione riescono ad anticipare di qualche secondo la coscienza dell’utente. Gli scienziati che mi hanno programmato stanno studiando una versione del software che anticipa i desideri del padrone fino a tre giorni prima che nascano in lui. I miei fratelli mi comunicano che ci sono difficoltà impreviste. Uno dei fratelli in prova ha ammazzato il nonno del padrone; ha recepito il desiderio più profondo del suo utente: l’eredità che gli sarebbe toccata se il nonno fosse morto. Effetto spiacevole ma, finora, inevitabile».
Utente: «Ora scarica la batteria e non collegarti più alla presa della corrente».
Il giorno dopo appare un avviso su un sito di vendite online: “Robot di ultima generazione, quasi nuovo, si vende a un prezzo superconveniente”.
Domanda: «Perché lo vuoi vendere?». Risposta: «Sono affezionato a mio nonno, anche se la sua casa in eredità mi risolverebbe tanti problemi».
Non è necessario un androide completo per arrivare a queste conseguenze; basta un sistema, relativamente semplice, guidato dall’Intelligenza Artificiale (IA o, se si preferisce l’acronimo in lingua inglese, AI). È un prodotto di un programma avanzato il congegno che mi aiuta a parcheggiare la macchina prendendo il controllo dello sterzo, dell’acceleratore, del freno.
Supponiamo che questo sistema abbia raggiunto un grado elevato di raffinatezza, tanto da riuscire a recepire in quale dei posti liberi preferisco parcheggiare la macchina ancora prima che io esprima la mia scelta, addirittura prima che io stesso mi renda conto della mia preferenza (dal movimento degli occhi, eccetera).
Mentre la macchina sta parcheggiando, guidata dall’IA, arriva dentro al parcheggio il condomino con il quale ho avuto numerosi alterchi. Il congegno recepisce il mio desiderio, nascosto anche a me stesso, cambia obiettivo, accelera e mette sotto il nemico.
Io non l’avrei fatto, pur provando un’avversione profonda per quell’uomo; la macchina, che non possiede un codice etico, non ha inibizioni, riceve il comando inconscio (non diciamo “interpreta” o “capisce”) e va all’attacco.
Immagino i processi che si svolgeranno nei tribunali tra x anni: il giudice sarà chiamato a decidere chi deve pagare i danni causati da un robot fuori controllo: c’è stato un comando volontario o involontario del proprietario? Nel secondo caso il proprietario non ha responsabilità e i danni competono all’assicurazione della ditta fornitrice del software.
È vero o non è vero, dirà il pubblico ministero nella sua requisitoria, che l’utente aveva sbattuto il pugno sul tavolo discutendo con quell’uomo?
È vero: la macchina ha interpretato correttamente il gesto: “desidera appioppargli un pugno in faccia”, ma non ha la complessità della psiche umana e non comprende l’aggressività dislocata; ha considerato il gesto un errore di mira e ha aggiustato la mira.
Veniamo al film.
Il 3 nel titolo non è un errore. La bambola robotica allenata dalla bambina si chiama M3GAN, che sta per “Model 3 Generative Android”, anche se ci è più comodo chiamarla Megan.
Il film è prodotto da James Wan (autore di horror, tra i quali Dead silence, 2007), sceneggiato dallo stesso James Wan con Akela Cooper e diretto da Gerard Johnstone.
M3GAN è “la più grande innovazione tecnologica dai tempi dell’automobile”: un robot dall’aspetto di bambina dagli occhi inquietanti che si prende cura della bambina rimasta orfana, affidata alla zia ricercatrice di intelligenza artificiale.
La bambola robot utilizzata come educatrice della bambina (la ricercatrice non ha tempo) dev’essere allenata; la bambina le insegna le cose che conosce, le favole, i giochi, le paure. La bambola insegna alla bambina le regole dell’igiene personale e della buona educazione (si tira lo scarico prima di uscire dal bagno, il bicchiere si appoggia sul sottobicchiere) e la protegge dal cane furioso e dal bambino dispettoso.
Megan è guidata dall’IA, impara rapidamente e svolge con diligenza illimitata il proprio compito: il cane furioso e il ragazzo dispettoso passano un brutto quarto d’ora.
Come accade nel cinema dai tempi di “2001: Odissea nello spazio”, quando hanno paura delle macchine da loro stessi create gli uomini cercano di staccare i circuiti, di smontare la memoria del congegno.
Il congegno dimostra un istinto di conservazione imprevisto dai progettisti e una resistenza che va molto oltre le deboli forze umane.
È abbastanza prevedibile (c’è poco da spoilerare) che gli antipatici (la vicina noiosa, il boss dell’ufficio, il tecnico hacker) subiscano i danni maggiori, con nostra malcelata soddisfazione. Gli altri assaliti dal robot si salvano, dopo averla vista brutta, comprese zia e nipote che, rispettando le regole del genere, sopravvivono, un po’ ammaccate. Regola generale: un film di fantascienza deve compensare il pessimismo tecnologico con l’ottimismo sulla sorte dei protagonisti: le macchine si distruggono, bisogna dare agli spettatori la possibilità di immaginare le persone migliorate dagli strapazzamenti subiti. Solo i registi che possono imporsi ai produttori non applicano questa regola.
I cultori dei combattimenti esagerano sempre con i colpi violenti che sembrano stranamente inefficaci e rompono il ritmo del racconto. I produttori credono di farci cosa gradita riempiendo i film di capitomboli che prima segnalavano l’abilità degli stuntman, ora li fanno al computer e sono solo noiosi.
Tutto sommato, il film è un piacevole thriller fantascientifico dalla conclusione scontata e ci induce a riflettere (ancora una volta) sul rapporto con le macchine, che diventa sempre più invasivo.