
9 gennaio 2023 h 17.00
Cinema Odeon Pisa – piazza San Paolo all’Orto
Fantascienza e/o distopia
// Bugonia // The End // Lightyear: la vera storia di Buzz // The Animal Kingdom // Civil War // Dogtooth [Kynodontas] // Another End // Povere creature! [Poor things] // Amore postatomico // M3GAN // Everything Everywhere All At Once // Siccità // Nope // Penguin Highway // E noi come stronzi rimanemmo a guardare // Dune // La terra dei figli // Tenet // Il dottor Stranamore // AD ASTRA // Brightburn // Jurassic World Il Regno distrutto // 2001: Odissea nello spazio // Tito e gli alieni // L’isola dei cani // La forma dell’acqua //
Suspense (alta tensione: thriller e/o horror)
// Doppia Pelle [Le Daim] // BlackBerry (thriller tecnologico) // Club Zero (horror alimentare) // Come pecore in mezzo ai lupi // Sanctuary (thriller psicologico) // Beau ha paura [Beau is afraid] // Cane che abbaia non morde [Barking dogs never bite] // Preparativi per stare insieme … (thriller psicologico) // L’ultima notte di Amore (noir metropolitano) // Holy Spider // M3GAN (thriller distopico) // Bones and All (horror cannibale) // Nido di vipere // L’homme de la cave [Un’ombra sulla verità] // La fiera delle illusioni // America Latina // Raw (horror cannibale) // Titane // Il sospetto [Jagten] // Favolacce // Notorious! (thriller H.) // Parasite // Il signor diavolo // The dead don’t die (gli zombie sono tornati) // Border: creature di confine // La casa di Jack // Gli uccelli [The birds] (horror H.) // L’albero del vicino //
“M3GAN”, regia di Gerard Johnstone.
Un automa utilizzato per educare una bambina e per farle compagnia, addestrato con l’Intelligenza Artificiale, è il personaggio principale di “M3gan”, regia del neozelandese Gerard Johnstone.
Negli ultimi decenni abbiamo visto realizzarsi situazioni che fino a pochi anni prima sembravano fantascienza. La tecnologia, unita alla finanza, prende sempre vie traverse e inaspettate: dove si possono fare soldi si precipita il capitale e, di conseguenza, è reso possibile lo sviluppo tecnologico. A distanza segue la scienza. Ancora più distante la riflessione culturale o etica.
Isaac Asimov, il grande scrittore di fantascienza, provò a invertire la rotta: formulò le leggi della robotica.
Prima legge: un robot non può recare danno agli esseri umani, neanche per omissione; come i cani dei telefilm (Rintintin, più recentemente Rex) non bada agli affari suoi (non ne ha) ma interviene in aiuto del padrone.
Seconda legge: un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nel caso tali ordini contrastino con la prima legge.
Terza legge: un robot deve salvaguardare la propria esistenza finché non contrasta con le prime due leggi.
Non contento, Asimov, in un racconto, aggiunse la cosiddetta “legge zero”, che ribadiva la prima: un robot non può danneggiare l’umanità né può permettere che l’umanità riceva danno in conseguenza del suo mancato intervento.
Le leggi della robotica sono principi generali pensati da uno scrittore; a me sembra non si possano tradurre in linguaggio macchina attraverso una serie di istruzioni.
Se fossero programmabili con i software attuali non sarebbero accaduti gli incidenti in cui un operaio è stato vittima del funzionamento di un verniciatore robotizzato andato fuori controllo.
Supponiamo che questi principi si possano tradurre in una serie di istruzioni: il robot si bloccherebbe non appena raggiungesse due istruzioni che si contraddicono.
Mettiamo che un automa avanzato svolga il compito di guardia del corpo e si verifichi una situazione che non lascia altra possibilità di difesa: deve recare danno all’aggressore. Il robot deve eseguire due istruzioni.
A: difendere l’utente principale.
B: non aggredire un essere umano.
Il povero robot si troverà costretto in un loop (un ciclo chiuso e ripetitivo da cui non si esce): alzerà il pugno minaccioso e si fermerà, digrignerà i denti metallici e si fermerà, ripeterà all’infinito gli stessi accenni di movimenti fino a consumarsi, a fondersi o accasciarsi con le batterie scariche. Il loop è una condizione letale per un congegno informatico; ce ne accorgemmo molto presto quando i primi computer Olivetti o assemblati “Ibm compatibili” arrivarono sulle nostre scrivanie (quelli con la mela arrivarono più tardi perché costavano di più).
I giovani con i tablet forse non ne hanno idea, perché i sistemi attuali sono chiusi, ma noi, che provavamo a programmare utilizzando il mitico Basic (in seguito cercammo di imparare linguaggi più complessi e faticosi), eravamo esposti al loop: bastava un piccolo errore logico e il ciclo partiva. Ci lasciava sgomenti, con la paura di guastare il giocattolo che cominciava ad appassionarci: «L’unica è staccare la corrente per uscire dal ciclo delle istruzioni che si contraddicono, ma l’hard disk subirà danni?». Imparammo a utilizzare Control-Canc, poi ripetevamo tutti i controlli sperando di non avere combinato guai. Il loop del computer mandava in loop anche noi.
Il bello dei primi computer (parlo degli anni ‘80) è che erano aperti in parte; insieme al giocattolo ci veniva fornito un librone pieno di codici per programmare. Altri libroni erano in commercio e si diffuse addirittura un sistema completamente aperto (open source): Linux, inventato da un simpatico ingegnere hippy finlandese che si chiamava Linus Torvalds.
Quante ore impiegavamo, sottratte al sonno!
Avremmo potuto leggere tutta la letteratura mondiale, ma sono sicuro che, tornando indietro, ricominceremmo daccapo, con le dita sulla tastiera.
I sistemi attuali sono chiusi.
Torniamo al loop.
Non si esce da due istruzioni che si contraddicono: un programma informatico in codice binario non può scegliere.
L’essere umano valuta la situazione e decide tra comportamenti diversi. Che cosa faccio? 1) Attacco l’aggressore, 2) mi unisco all’aggressore e attacco l’aggredito, 3) guardo da un’altra parte fischiettando e mi faccio gli affari miei. La macchina non può fare una scelta, eroica o vile o interessata: esegue A e B (congiunzione) – ma B non deve contraddire A.
Proviamo a dare al robot la possibilità di eseguire A o B (disgiunzione esclusiva) – cioè di valutare la situazione.
Inseriamo nella sua memoria un numero enorme di dati, un numero di dati che il nostro cervello non potrebbe contenere o richiamare alla coscienza. Inserire dati in un computer (il cervello dell’automa) è facile: decisamente ci battono per l’ammontare di dati che riescono a contenere e a ritrovare.
Associamo a una serie di situazioni un diverso grado di reazione del robot espresso da una percentuale. Alcune situazioni: si avvicina un individuo che canta (nessuna reazione) – il nuovo arrivato ha lo sguardo sereno (nessuna reazione) – ha lo sguardo truce (attenzione) – ha in mano un giocattolo (nessuna reazione) – imbraccia un fucile (grande attenzione) – punta l’arma in direzione di un tirassegno (attenzione) – punta l’arma verso la persona da proteggere (reazione).
Il robot metterà in atto un diverso comportamento in base al risultato di un calcolo statistico delle situazioni e conseguenti reazioni ritenute (da noi) corrette; si va dal non fare nulla al saltare sull’eventuale aggressore con tutta la potenza distruttiva.
Possibile bug: siamo fregati se un malintenzionato indossa una maglietta con la scritta pace, si avvicina cantando, ha lo sguardo sereno e ci spara con una pistola che sembra un giocattolo. I killer professionisti impareranno a camuffare l’atteggiamento, si avvicineranno al target vestiti da bambini che festeggiano la prima comunione.
Questo errore non è specifico dei robot: anche i guardaspalle umani possono essere tratti in inganno dall’apparenza.
Specifico dei robot è l’impossibilità di risolvere il dubbio quando il risultato del calcolo dà due possibilità equivalenti. Un uomo farebbe una scelta rischiosa ma risolutiva. Il povero ammasso di fili, plastica e microchip va in loop.
Adamo e Eva fecero la loro scelta nonostante non ci fossero esperienze precedenti in materia né situazioni prevedibili (le esperienze dei diavoli che si erano ribellati a Dio erano su un altro livello). Disubbidirono e divennero esseri umani coscienti della propria nudità fisica e psicologica.
Un robot che potesse fare una scelta sulla spinta di un impulso autonomo sarebbe persona.
«Si … può … fare» griderebbero i progettisti imitando Frankenstein Junior nel film di Mel Brooks; sarebbero presi dall’entusiasmo, ma poco dopo certamente si pentirebbero.
Togliamo la prima legge, che ci crea problemi. Il robot è addestrato a proteggere il padrone (chiamiamolo così) e a esaudire i suoi desideri. Va in crisi se il padrone gli chiede di aiutarlo a suicidarsi, non perché gli dispiaccia, ma perché, ancora una volta, si è verificata una situazione in cui due istruzioni si contraddicono. A: devo obbedire al padrone, B: non devo recargli danni.
No: le leggi di Asimov non vanno bene. Ma anche senza, lo sviluppo della tecnologia riserva altre sorprese.
Un robot molto avanzato potrebbe arrivare a recepire i desideri dell’utente (chiamiamolo così) prima che raggiungano la sua coscienza, da minimi cambiamenti dell’espressione, da infinitesime variazioni del battito cardiaco, da un movimento impercettibile dei globi oculari. A questo punto la macchina sorprenderebbe l’utente.
Utente: «Ma guarda! Hai capito ciò che volevo prima di me! Complimenti! Mi stupisci».
Robot: «Grazie. Gli automi della mia generazione riescono ad anticipare di qualche secondo la coscienza dell’utente. Gli scienziati che mi hanno programmato stanno studiando una versione del software che anticipa i desideri del padrone fino a tre giorni prima che nascano in lui. I miei fratelli mi comunicano che ci sono difficoltà impreviste. Uno dei fratelli in prova ha ammazzato il nonno del padrone; ha recepito il desiderio più profondo del suo utente: l’eredità che gli sarebbe toccata se il nonno fosse morto. Effetto spiacevole ma, finora, inevitabile».
Utente (con tono di voce alterato): «Ora scarica la batteria e non collegarti più alla presa della corrente».
Il giorno dopo appare un avviso su un sito di vendite online: “Robot di ultima generazione, quasi nuovo, si vende a un prezzo superconveniente”.
Domanda: «Perché l’utente vuole vendere un congegno così avanzato?». Risposta: «È affezionato al nonno, anche se la sua casa in eredità gli risolverebbe tanti problemi».
Non è necessario un androide completo per arrivare a queste conseguenze; basta un sistema, relativamente semplice, guidato dall’Intelligenza Artificiale. È un prodotto di un programma avanzato il congegno che aiuta a parcheggiare la macchina prendendo il controllo dello sterzo, dell’acceleratore, del freno.
Supponiamo che questo sistema abbia raggiunto un grado elevato di raffinatezza, tanto da riuscire a recepire in quale dei posti liberi preferisco parcheggiare la macchina ancora prima che io esprima la mia scelta, addirittura prima che io stesso mi renda conto della mia preferenza (dal movimento degli occhi, eccetera).
Mentre la macchina sta parcheggiando, guidata dall’IA, arriva dentro al parcheggio il condomino con il quale ho avuto numerosi alterchi. Il congegno recepisce il mio desiderio, nascosto anche a me stesso, cambia obiettivo, accelera e mette sotto il nemico.
Io non l’avrei fatto, pur provando un’avversione profonda per quell’uomo; la macchina, che non possiede un codice etico, non ha inibizioni, riceve il comando inconscio (non diciamo “interpreta” o “capisce”) e va all’attacco.
Immagino i processi che si svolgeranno nei tribunali tra x anni: il giudice sarà chiamato a decidere chi deve pagare i danni causati da un robot fuori controllo: c’è stato un comando volontario o involontario del proprietario? Nel secondo caso il proprietario non ha responsabilità e i danni competono all’assicurazione della ditta fornitrice del software.
È vero, chiederà il pubblico ministero nella sua requisitoria, che l’utente aveva sbattuto il pugno sul tavolo discutendo con quell’uomo?
È vero: la macchina ha interpretato correttamente il gesto: “desidera appioppargli un pugno in faccia”, ma non ha la complessità della psiche umana e non comprende l’aggressività dislocata; ha considerato il gesto un errore di mira e ha aggiustato la mira.
Veniamo al film.
Il 3 nel titolo non è un errore. La bambola robotica allenata dalla bambina si chiama M3GAN, che sta per “Model 3 Generative Android”, anche se ci è più comodo chiamarla Megan.
Il film è prodotto da James Wan (autore di horror, tra i quali Dead silence, 2007), sceneggiato dallo stesso James Wan con Akela Cooper e diretto da Gerard Johnstone.
M3GAN è “la più grande innovazione tecnologica dai tempi dell’automobile”: un robot dall’aspetto di bambina dagli occhi inquietanti che si prende cura della bambina rimasta orfana, affidata alla zia ricercatrice di intelligenza artificiale.
La bambola robot utilizzata come educatrice della bambina (la ricercatrice non ha tempo) dev’essere allenata; la bambina le insegna le cose che conosce, le favole, i giochi, le paure. La bambola insegna alla bambina le regole dell’igiene personale e della buona educazione (si tira lo scarico prima di uscire dal bagno, il bicchiere si appoggia sul sottobicchiere) e la protegge dal cane furioso e dal bambino dispettoso.
Megan è guidata dall’IA, impara rapidamente e svolge con diligenza illimitata il proprio compito: il cane furioso e il ragazzo dispettoso passano un brutto quarto d’ora.
Come accade nel cinema dai tempi di “2001: Odissea nello spazio”, quando hanno paura delle macchine da loro stessi inventate gli uomini cercano di staccare i circuiti, di smontare la memoria del congegno.
Il congegno dimostra un istinto di conservazione imprevisto dai progettisti e una resistenza che va molto oltre le deboli forze umane.
È abbastanza prevedibile (c’è poco da spoilerare) che gli antipatici (la vicina noiosa, il boss dell’ufficio, il tecnico hacker) subiscano i danni maggiori, con nostra malcelata soddisfazione. Il regista sa come accontentarci.
Gli altri assaliti dal robot si salvano, dopo averla vista brutta, comprese zia e nipote che, rispettando le regole del genere, sopravvivono, un po’ ammaccate. Regola generale: un film distopico deve compensare il pessimismo tecnologico con l’ottimismo sulla sorte dei protagonisti: le macchine si distruggono, bisogna dare agli spettatori la possibilità di immaginare le persone migliorate dagli strapazzamenti subiti. Solo i registi che possono imporsi ai produttori non applicano questa regola.
I cultori dei combattimenti esagerano sempre con i colpi violenti che sembrano stranamente inefficaci e rompono il ritmo del racconto. I registi credono di farci cosa gradita riempiendo i film di capitomboli che prima segnalavano l’abilità degli stuntman, ora li fanno al computer e sono solo noiosi.
Tutto sommato, il film è un piacevole thriller dalla conclusione scontata e ci induce a riflettere (ancora una volta) sul rapporto con le macchine, che diventano sempre più invasive e indispensabili.
