La tecnologia non è il nostro destino. Siamo noi a dare forma al nostro destino.
(Brynjolfsson, McAfee 2019)
Gli algoritmi invadono le nostre vite, anzi, la nostra ontologia umana. Se prima (sebbene erroneamente) la filosofia si è focalizzata sul binomio mente/corpo, questo si è oggi trasformato nel trinomio mente/corpo/dati. L’identità personale (che in realtà è un tutt’uno inscindibile) è infatti il costrutto di una componente corporale che pensa e che lascia tracce. Dopo la rivoluzione digitale tali tracce non sono più solo impressioni, ricordi o immagini, ma veri e propri dati: i profili social, i messaggi e le telefonate, le preferenze nei motori di ricerca, i cookies, e così via. Nulla scompare dalla rete (cfr. Sisto, 2018).
Questi dati sono i numeri con cui operano gli algoritmi che agiscono direttamente nelle nostre vite: scelgono quali post vediamo sui social, quali potrebbero essere i contenuti online che più ci interessano o il prodotto che vorremo acquistare in futuro. La particolarità di questa operazione è che, sempre più spesso, pare che l’algoritmo di turno sappia prevedere ciò che stiamo per fare.
La predittibilità delle nostre azioni non è solo una questione tecnica, ma mette in gioco la nostra stessa essenza: se davvero fosse possibile predire ciò che un individuo sta per fare, questo comporterebbe la resa definitiva del libero arbitrio. Un esempio drammatico e distopico di questo dilemma è rappresentato dalla serie tv Westworld, in cui uno dei temi principali è proprio la domanda continua dei protagonisti circa la possibilità del libero arbitrio (cfr. Lammoglia, 2020).
Nel seguente articolo cercherò di dimostrare come gli algoritmi non possano assolutamente predire le nostre azioni. Quello che fanno (e lo fanno molto bene) è indurre un comportamento o un’azione all’interno di un sistema chiuso, supportati dalla gigantesca mole di dati che possiedono. Per farlo, proveremo in prima battuta a stilare un breve dizionario delle parole fondamentali per affrontare l’articolo; successivamente porteremo un esempio classico di apparente predittibilità. Procederemo quindi mostrando come avvengono le predizioni e come esse siano in realtà induzioni, provando ad esplicare perché l’uomo è libero e imprevedibile. Infine, proveremo a tratteggiare alcuni scenari futuri, con particolare riferimento ad azioni che ritengo imprescindibili per preservare una libertà che, pur non essendo messa in dubbio, è sempre più fortemente vincolata.
Glossario essenziale
Le parole sono importanti, e spesso sentiamo parlare di algoritmi, Big Data, Infosfera, senza sapere davvero cosa significhino. Per questo, in principio, ci dedichiamo a definire la terminologia essenziale che verrà qui usata.
Il primo termine è qualcosa di più della designazione di un oggetto: l’infosfera, così come la definisce Luciano Floridi, è la realtà stessa del terzo millennio.
Infosfera è un neologismo coniato negli anni Settanta ed è basato sul termine “biosfera” […]. A un livello minimo, l’infosfera indica l’intero ambiente informazionale costituito da tutti gli enti informazionali, le loro proprietà, interazioni, processi e reciproche relazioni. È un ambiente paragonabile al, ma al tempo stesso differente dal, cyberspazio, che è soltanto una sua regione, dal momento che l’infosfera include anche spazi d’informazione offline e analogici. A un livello massimo, l’infosfera è un concetto che può essere utilizzato anche come sinonimo di realtà, laddove interpretiamo quest’ultima in termini di informazioni. In tal caso, l’idea è che ciò che è reale è informazionale e ciò che è informazionale è reale. (Floridi 2017)
Accogliendo questa definizione del mondo, intendiamo quindi fin da subito il digitale (e la nostra permanenza in esso) come parte ontologicamente essenziale dell’individuo e dell’umanità tutta. Le nostre informazioni fanno parte di noi come individui e l’informazione in generale è un tratto del reale. Per questo il professor Floridi non parla di vita online, bensì di un’esistenza onlife[1], proprio per sottolineare l’intreccio inestricabile tra digitale e reale
Il secondo termine fondamentale è Big Data. Non esiste ad oggi una definizione su cui i tecnici convergano, ma il termine è più che mai utilizzato. Accolgo qui la definizione partendo dalla contrapposizione con gli Small Data: se gli Small Data sono le pochissime informazioni (quantitativamente parlando) disponibili e “afferrabili” nel mondo analogico, i Big Data sono l’enorme quantità di dati[2] disponibili oggi, difficilmente “afferrabili” da uno o più umani, che stanno alla base dei calcoli algoritmici dei software contemporanei. Un Big Data, quindi, non è una singola informazione, quanto piuttosto un gruppo di moltissime informazioni su un unico elemento (sia esso un individuo, un tema, una statistica e via dicendo). Si noti che i Big Data ottengono una maggior mole di informazioni a scapito della precisione: i Big Data, infatti, sono approssimativi in quanto si concentrano su un singolo aspetto, perdendo in definizione. Hanno infatti la capacità di analizzare molti più dati offrendo un quadro generale maggiormente comprensivo seppur meno accurato ma, soprattutto, i Big Data mostrano correlazioni senza indagare la causalità di esse, offrendo un punto di vista che potremmo definire più asettico (cfr. Mayer-Schönberger e Cukier, 2013).
Terzo e ultimo termine è, ovviamente, algoritmo. Un algoritmo è una stringa di calcolo. Un’operazione che, partendo da un insieme di input, genera un output, è l’analisi dei data immessi delineando i più svariati risultati. La forza dell’algoritmo è quella di risolvere un numero molto alto di problemi partendo da un numero finito di istruzioni chiare e non ambigue. Il problema contemporaneo, chiariamolo fin da subito, è questo: sebbene le istruzioni siano chiare e conosciute, sapendo che i data possono essere più ambigui (anche errati, come abbiamo visto nella definizione precedente), siamo sempre più spesso all’oscuro del procedimento di calcolo degli algoritmi[3]. L’opacità del calcolo computerizzato è dovuto alla difficoltà di riprodurre i calcoli e di seguire il procedimento messo in atto dal software (che peraltro è proprio il motivo per cui viene utilizzato)[4]. Si tengano ancora presenti alcuni deficit degli algoritmi: essi sono delle semplificazioni (cfr. Brynjolfsson e McAfee, 2019; O’Neil, 2017) che creano modelli ridotti con scopi precisi; tali semplificazioni spesso sono dovute anche ai dati. I cosiddetti proxy data, infatti, sono dati affini a quelli necessari (ma non sempre disponibili) che vengono immessi per approssimare il risultato (O’Neil, 2017).
Deep Blue, il primo computer “predittivo”?
Nella storia degli algoritmi, il software più famoso è sicuramente Deep Blue, lo scacchista digitale che ha saputo vincere contro i grandi maestri umani. Il sentore dei giocatori è che, come ogni buon scacchista, Deep Blue sapesse prevedere le mosse degli avversari. Sebbene questo non sia assolutamente vero (e a breve analizzeremo il perché), questa sensazione ha dato il via a tutto un immaginario collettivo che, applicato agli algoritmi moderni che lo portano alle estreme conseguenze, ha portato l’umanità a temere che le sue azioni possano essere previste da un computer. Le previsioni di Deep Blue, però, sono una vera e propria bufala[5]: il software non decide la propria mossa perché prevede la mossa dell’avversario, bensì perché grazie alla sua capacità di calcolo unita al database di tutte le partite giocate nelle finali di scacchi di anni, Deep Blue incrocia la posizione dei pezzi sulla scacchiera al momento attuale con tutte le posizioni che i pezzi potrebbero assumere, scegliendo quindi la mossa più vantaggiosa che, ovviamente, anticipa la scelta del gran maestro di turno. Questo fa sì che il giocatore umano abbia la sensazione che la macchina possa leggere nel suo pensiero.
Perché Deep Blue può effettivamente sapere quali mosse potrebbe fare il suo avversario? Perché il mondo degli scacchi è un mondo di informazioni chiuse: c’è una scacchiera che delinea il campo di gioco, una serie di pezzi (sempre meno avanzando con la partita), ma soprattutto delle regole ferree che impongono le possibili mosse[6]. Questo significa che il software è capace di prevedere tutte le possibili mosse in un ambiente chiuso; l’umano sceglierà la mossa migliore possibile che, però, è già stata prevista dalla macchina alcuni turni prima, permettendole di preparare il terreno ad una contromossa adeguata. Eppure, Deep Blue non sa prevedere altro, poiché il suo algoritmo è limitato al gioco degli scacchi: uscendo dal suo ambito di competenza, l’algoritmo fallisce miseramente. Non solo: l’accoppiata di umano e computer è capace di battere Deep Blue. Nel nuovo modo di giocare a scacchi (i cosiddetti scacchi freestyle o scacchi avanzati), testato tra gli altri da Garri Kasparov stesso, i giocatori possono utilizzare un’intelligenza artificiale per analizzare e prevedere l’andamento di una partita: l’elemento umano aggiunge quel tocco di imprevedibilità all’interno di quelle che sembrano mosse obbligate, che il computer non riesce (ancora?) a prevedere (cfr. Brynjolfsson e McAfee, 2019). In questo caso, abbiamo un’evoluzione hegeliana del rapporto uomo/macchina, in cui troviamo la componente umana (Kasparov), la sua negazione digitale (Deep Blue) e una sintesi che supera entrambe portando tutto ad un nuovo livello (gli scacchi freestyle, cfr. il racconto diretto di Kasparov, 2010), come suggerisce, sebbene con termini diversi, Ermanno Bencivenga (2020).
Questo primo caso vuole immediatamente chiarire come non ci siano previsioni in senso “magico” o profetico, quanto piuttosto delle analisi situazionali che sfruttando i Big Data in ambienti chiusi sono capaci di anticipare tutte le possibilità scegliendo la più (o le più) probabile.
Informazioni personali
Sebbene sia chiaro che i computer non predicono le nostre azioni, è quanto meno ammaliante l’idea che i software sappiano cosa pensiamo. Sempre più spesso, infatti, gli assistenti vocali (Siri, Alexa, Ok Google) sembrano essere capaci di anticipare le nostre richieste; i social media sembrano mostrarci immediatamente ciò che vorremmo vedere; i software di e-commerce (ad esempio Amazon) ci propongono gli acquisti che in effetti vorremmo fare. Com’è possibile se i software non fanno predizioni?
Il “trucco” principale è la continua acquisizione di dati personali[7]. Tra smartphone, smartwatch, assistenti di casa (come i sistemi echo di Amazon) e via così, noi abbiamo delle orecchie (e degli occhi) digitali sempre accesi (Lanier, 2018). Quasi ogni individuo occidentale possiede quantomeno uno smartphone da cui non si separa mai. Ogni smartphone ha tre strumenti fondamentali per l’acquisizione dei nostri dati: fotocamera (o meglio, fotocamere); microfono; sistema di geolocalizzazione. Questo significa che il nostro smartphone ci guarda, ci ascolta e sa dove siamo. Il problema è che noi, a volte un po’ superficialmente, permettiamo alle applicazioni che utilizziamo di accedere impunemente a questi tre strumenti (permetti all’app x di accedere allo strumento y?). Ovviamente, acconsentiamo a tali utilizzi perché questo accesso è necessario per utilizzare l’app. Prendiamo ad esempio i servizi di navigazione: i navigatori satellitari non possono funzionare senza accedere al servizio di geolocalizzazione del nostro smartphone, per cui accettiamo (potremmo accettare di concedere l’accesso solo durante l’utilizzo dell’app, ma questa scelta è più complicata o perché nascosta, o perché in tal caso l’app richiede in continuazione di poter accedere sempre)[8]. Un secondo esempio è dato da Instagram (o Facebook, o l’attualissimo Tik Tok, o altri social con cui condividere immagini e voci): anche queste app ci chiedono l’accesso a microfono e fotocamera. In questo caso, aggirare l’app è più semplice: basterebbe permettere l’accesso alla sola libreria, fotografando e girando video fuori dalle app per poi caricarle. Assai più difficile è negare l’accesso ad un’app come Whatsapp, che appartenendo al gruppo Zuckenberg, permette all’azienda di accedere comunque a microfono e fotocamera (per messaggi vocali e videochiamate; cfr. Lanier, 2018). Un terzo esempio, più interessante ancora, è quello dei cookies dei browser: sebbene ci sia chiesto continuamente di accettare la politica relativa alla privacy dei vari siti, è evidente che non sia possibile rifiutare se si vuole accedere al sito stesso, per cui anche in questo caso, accettiamo. Un ultimo caso di acquisizione di dati personali sono le recensioni o le classifiche create da applicazioni come TripAdvisor o gli strumenti di feedback di quasi tutte le applicazioni[9].
Tutti questi dati che volenti o nolenti regaliamo all’infosfera permettono ai software di conoscerci (si veda, a titolo di esempio, l’esperimento sociale riassunto in questo video di YouTube: https://bit.ly/37XEqH8). Nel momento in cui i software ci conoscono accadono due cose: veniamo chiusi in gabbie digitali e, successivamente, veniamo indotti ad avere alcuni atteggiamenti. In primo luogo, i software di cui abbiamo parlato ci rinchiudono in gabbie digitali: tramite gli algoritmi, infatti, programmi come Facebook ci mostrano solo contenuti affini ai nostri gusti e alle nostre preferenze (le cosiddette filter bubbles, cfr. Lanier, 2018). Così facendo, i software ci fidelizzano, poiché mostrandoci contenuti per noi interessanti fanno sì che la nostra permanenza sul sito aumenti sempre di più (cfr. Williams, 2019). Questo è un dato essenziale per comprendere la mentalità commerciale dei social media: il guadagno di questi programmi, infatti, è principalmente dovuto al tempo di permanenza medio degli individui sui loro siti (da cui, ovviamente, dipendono i prezzi delle pubblicità da cui appunto le varie applicazioni traggono guadagno). È fondamentale individuare subito quello che credo essere il problema fondamentale di tali gabbie: la ridondanza di contenuti affini rinchiude il pensiero. Vedendo solo ciò che ci piace vedere, non procediamo oltre, non pensiamo[10]. Il web che dovrebbe essere la nostra finestra sul mondo, nato per allargare i nostri orizzonti (e quindi di acquisire più informazioni), diventa lo spioncino della porta da cui riusciamo a sbirciare una piccolissima porzione del mondo. Sembra un po’ di rileggere il passo di Orwell, quando in 1984 spiega come il Partito si impegni a eliminare la capacità stessa di pensare e di come lo faccia attraverso il libro di Goldstein in cui sono rinchiuse proprio le stesse idee di Smith, il protagonista[11].
A questo punto, dopo averci rinchiuso in uno spazio limitato, i software riescono ad indurci a fare certe cose. Pensiamo alla condivisione: ricondividiamo molti post di quelli che Facebook o Twitter ci propongono, e potremmo pensare “questi programmi sanno precisamente cosa voglio condividere!”. In effetti è così, perché ci mostrano solo contenuti che, molto probabilmente, sono così in linea con le nostre convinzioni da volerli ricondividere. Un secondo esempio è quello collegato ai siti di e-commerce: Amazon ed Ebay, raccolgono i dati dei nostri acquisti e delle nostre preferenze, successivamente mettono insieme le informazioni che hanno su di noi (dove siamo andati, di cosa abbiamo parlato e via così) e costruiscono relazioni con dati simili. Così facendo, studiando correlazioni statistiche (ma non causali), riescono a proporci nuovi acquisti perfettamente in linea con quello che potremmo volere. Attenzione però: Amazon non sa cosa noi vogliamo acquistare, al contrario ci propone alcuni oggetti che potrebbero interessarci e, facendo leva sul nostro istinto consumistico (Bauman, 2011), ci portano ad effettuare un nuovo acquisto. Così, Amazon non prevede i nostri futuri acquisti, ma ci induce a farne alcuni nel suo mondo chiuso, all’interno del quale conosce quasi tutto, partendo dai nostri dati e da ciò che hanno fatto persone simili a noi.
Tutto questo accade perché lo lasciamo accadere. Anzi, noi vogliamo che accada. Come sostiene Floridi, infatti, stiamo modificando e creando ambienti ottimizzati al fine di migliorare l’efficacia delle tecnologie dell’informazioni, tanto che queste tecnologie funzionano bene proprio perché gli ambienti sono costruiti intorno alle loro capacità (Floridi, 2017). Allo stesso tempo, il professor Floridi riconosce chiaramente il problema:
Il rischio che corriamo consiste nel fatto che, avvolgendo il mondo, le nostre tecnologie sono suscettibili di conformare i nostri ambienti fisici e concettuali in modo tale da indurci ad adattare a loro i nostri comportamenti, poiché questa diviene la via migliore o la più facile o, talora, l’unica praticabile, per far funzionare le cose. In fin dei conti, l’intelligenza artificiale leggera è il partner stupido, ma laborioso, e l’umanità quello intelligente, ma lavativo; cosicché chi è destinato a adattarsi a chi, dato che il divorzio non è un’opzione contemplata? (Floridi 2017)
L’impredittibilità umana
Perché l’uomo non è prevedibile? O meglio, qual è il limite degli algoritmi? La scoperta dei pattern, degli schemi, è la discriminante (per ora) tra umano e algoritmo (cfr. Du Satoy, 2019). Gli algoritmi, come abbiamo visto, sono strumenti di calcolo, ossia partendo da un determinato insieme di dati, l’algoritmo utilizza una serie di regole imposte dal programmatore per ottenere i risultati cercati. Quello che l’algoritmo non può fare, però, è darsi le regole. La ricerca di schemi operativi, delle regole di calcolo, per ora è una prerogativa umana. Anche se alcuni software, grazie al così detto Deep Learning, stanno imparando a migliorarsi, non sono ancora capaci di costruire dal nulla un nuovo algoritmo (cfr. Floridi, 2017).
Al contrario, il tratto distintivo dell’umanità è proprio la capacità di creare da zero: invenzioni, costruzione di nuovi schemi, scoperta di leggi in principio “invisibili”[12]. La creatività umana è esattamente il sintomo della libertà: i dati non sono elaborabili senza schemi semantici (il campo dell’umano; cfr. Jaynes, 1984). Quindi, in questo senso, l’uomo non è affatto prevedibile da nessuno: spesso, nemmeno noi riusciamo a prevedere cosa stiamo per fare!
In alcuni casi, la creatività umana è in realtà al pari della forza bruta di calcolo (Brynjolfsson e McAfee, 2019), eppure la predittibilità umana continua ad essere un miraggio. La nostra società (in particolare il sistema giudiziario) è fondata proprio sulla libertà e non predittibilità dell’umano. Ad esempio, in Big Data, gli autori sottolineano come i sistemi predittivi adoperati da alcune stazioni di polizia statunitensi hanno (e avranno) il compito di prevenire i reati, considerando quanto sia impensabile punire sulla base di predizioni. Non è immaginabile un sistema alla Minority Report perché, ancora una volta, significherebbe abdicare al libero arbitrio: un’azione umana non è davvero predittibile finché non accade e, in quanto tale, fino ad allora non può essere punita (cfr. Mayer-Schönberger e Cukier, 2013).
La libertà e i suoi rischi
Il punto di svolta della libertà, tra reale è digitale, è proprio la compenetrazione queste due dimensioni: se la vita online può essere inducibile, la vita onlife è il regno del libero arbitrio. Questo perché nella vita onlife non ci limitiamo ad agire in un mondo ingabbiato dagli algoritmi, ma siamo liberi di muoverci all’interno dell’infosfera nella sua totalità. L’infosfera, inoltre, possiede alcuni strumenti che permettono di garantire la libertà digitale degli individui (cfr. Floridi, 2017).
Il problema, però, è sempre quello degli algoritmi. Esiste una vasta letteratura che dimostra come l’utilizzo sfrontato (spesso mirato unicamente al guadagno) degli algoritmi metta a rischio la democrazia se non la libertà stessa. Abbiamo già visto, in sede di definizione, i problemi principali degli algoritmi, a cui si aggiungono le gabbie e la ricorsività. Sottolineiamo ancora come gli algoritmi non prevedano gli atteggiamenti umani, mentre in realtà li inducono. In particolare, alcuni atteggiamenti si ottengono per mezzo del rinforzo positivo e di quello negativo: «gli schemi cerebrali del piacere assuefacente e della ricompensa – la “piccola dose di dopamina” […] – sono alla base della dipendenza dai social media, ma non finisce qui, perché i social media usano anche la punizione e il rinforzo negativo. […] La maggior parte degli utenti dei social media ha sperimentato il catfishing […]: il rifiuto insensato, l’essere sminuito o ignorato, il sadismo assoluto o tutte queste cose insieme, o peggio ancora. […] Un feedback sgradito può produrre dipendenza o indurre una subdola modificazione comportamentale tanto quanto un feedback gratuito» (Lanier, 2018; cfr. anche Williams, 2018). Al contempo, le modificazioni aumentano se si considera la variabilità delle ricompense (e delle punizioni).
Il caso più eclatante, però, di rischio per la democrazia è esemplificato dalla narrativa di Asimov. In Diritto di voto (Asimov, 2014), il genio russo elabora un racconto in cui le elezioni presidenziali hanno un solo elettore, rappresentativo dell’umanità intera, scelto da un mega computer: l’algoritmo, fondamentalmente, sceglie l’uomo più rappresentativo per votare a nome di tutta la nazione[13]. Se questo è un racconto, le implicazioni degli algoritmi nelle elezioni contemporanee sono sempre più sospetti (cfr. Kaiser, 2019; Harding, 2017). Gli algoritmi, tramite il così detto microtargeting (cfr. Kaiser, 2019), permettono di fare pubblicità che inducono certi atteggiamenti. Sarà fondamentale mantenere gli occhi bene aperti sulle evoluzioni del diritto europeo e statunitense: sebbene l’Europa infatti sia meglio attrezzata nella garanzia della privacy (cfr. Kaiser, 2019; Rodotà, 2015), probabilmente non siamo ancora abbastanza preparati a ciò che potrà accadere. Per questo è necessario prendere alcune precauzioni.
Prospettive future e accortezze necessarie
Dopo aver preso in considerazioni i dati dell’analisi, mi sento in dovere di delineare alcuni passi fondamentali da attuare quanto prima per evitare i rischi appena tratteggiati. La cosa fondamentale è la garanzia della privacy. Come abbiamo visto, i dati fanno parte della persona, non sono elementi aggiunti di cui siamo proprietari, quanto piuttosto sono parte integrante di noi al pari del nostro corpo e dei nostri pensieri, per questo devono essere preservati dalla legge (Rodotà, 2015). In primo luogo, quindi, è necessario che ognuno di noi si impegni a chiedere a gran voce il riconoscimento di questo stato di fatto: i dati fanno parte della persona e, in quanto tali, devono essere difesi dal diritto. Perché questo accada è necessario un lavoro prima di tutto di informazione: le persone devono sapere di essere titolari di dati; successivamente è fondamentale la trasparenza (cfr. Mezza, 2018), grazie alla quale gli individui possano sapere chi e quali dati utilizza. Infine, è fondamentale garantire l’anonimato. Infatti, sebbene i servizi odierni siano fatti in modo di rendere anonimi i dati degli utilizzatori, gli informatici delle aziende sono capaci di individuare i veri titolari dei dati (cfr. Mayer-Schönberger e Cukier, 2013).
L’unico modo perché questo accada è una legislazione digitale. Questa legge, peraltro, deve essere proattiva: non è possibile infatti agire sempre e solo dopo che si sono verificati dei problemi, ma è necessario iniziare ad agire preventivamente. In secondo luogo, siccome le aziende che raccolgono, analizzano e vendono dati sono sovranazionali, così deve essere anche la legislazione. Una legislazione digitale che voglia essere efficace, quindi, deve essere vincolante per tutte le nazioni: se le aziende possono fuggire in paradisi digitali (al pari di quelli fiscali) in cui usufruire liberamente dei dati, ogni legislazione nazionale diventa abbastanza inefficace.
La libertà, dunque, deve essere difesa dall’informazione, dalla trasparenza e, soprattutto, dalla legislazione. Gli algoritmi, i social media e i Big Data sono «i nuovi imperi della mente» (Williams, 2019) che devono essere arginati o quantomeno supervisionati. La politica è l’attore di questa azione: sia la politica in senso lato, ossia quella istituzionale per mezzo della legislazione, che quella in senso stretto, ossia l’agire politico di ogni privato cittadino attraverso l’utilizzo consapevole e la richiesta di trasparenza e di diritti.
Conclusioni
Se la vita online è in qualche modo inducibile (ma mai davvero predittibile), la vita onlife ha il carattere essenziale della libertà. Le interpretazioni artificiali sono tanto più potenti quanti più dati hanno a disposizione. Inoltre, siccome gli algoritmi possono elaborare quantità sempre maggiori di dati, i risultati che ottengono sono sempre più sbalorditivi, spesso perché “opachi”. Eppure non sono mai profetici. La predizione è al massimo una profezia che si autoavvera. Possiamo dire: più che predire le nostre azioni, i programmi online sono capaci di analizzare i nostri dati e le nostre preferenze offrendoci specchi di ciò che già guardiamo arrivando a suggestionarci. Quello che ci mostrano non è ciò che stavamo per vedere, quanto piuttosto quello che crediamo di voler vedere[14]. Eppure, abbattuto il muro dell’online, nell’onlife queste predizioni si rivelano per ciò che sono: piccoli giochi di prestigio matematici.
Bibliografia
- Asimov I., Sogni di robot, il Saggiatore, Milano, 2014.
- Bauman Z., Modernità liquida, Laterza, Roma-Bari, 2011.
- Bencivenga E., Critica della ragione digitale. Come ci trasforma la rivoluzione tecnologica, Feltrinelli, Milano, 2020.
- Brynjolfsson E., McAfee A., La nuova rivoluzione delle macchine. Lavoro e prosperità nell’era della tecnologia trionfante, Feltrinelli, Milano, 2019.
- Du Satoy M., Il codice della creatività. Il mistero del pensiero umano al tempo dell’intelligenza artificiale, Rizzoli, Milano, 2019.
- Dumouchel P., Damiano L., Vivere con i robot. Saggio sull’empatia artificiale, Raffaello Cortina, Milano, 2019.
- Floridi L., La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina, Milano, 2017.
- Harding L., Collusion. Come la Russia ha aiutato Trump a conquistare la Casa Bianca, Mondadori, Milano, 2018.
- Jaynes J., Il crollo della mente bicamerale e l’origine della coscienza, Adelphi, Milano, 1984.
- Kasparov G., The Chess Master and the Computer, «New York Review of Books», 11 febbraio 2010: https://bit.ly/3oN2oeb.
- Kaiser B., La dittatura dei dati. La talpa di Cambridge Analytica svela come i big data e i social vengono usati per manipolarci e minacciare la democrazia, HarperCollins, Milano, 2019.
- Lammoglia F., La nostra libertà, in Cherubini D, Giusti E., Sbolci N. (a cura di), Fuori serie. La filosofia incontra le serie tv, 2020: https://bit.ly/34OKhMP.
- Lanier J., Dieci ragioni per cancellare subito i tuoi account social, il Saggiatore, Milano, 2018.
- Mayer-Schönberger V., Cukier K., Big Data. Una rivoluzione che trasformerà il nostro modo di vivere e già minaccia la nostra libertà, Garzanti, Milano, 2013.
- Mezza M., Algoritmi di libertà. La potenza del calcolo tra dominio e conflitto, Donzelli, Roma, 2018.
- O’Neil C., Armi di distruzione matematica. Come i Big Data aumentano la diseguaglianza e minacciano la democrazia, Bompiani, Firenze, 2017.
- Orwell G., 1984, Mondadori, Milano, 1989.
- Rodotà S., Il diritto di avere diritti, Laterza, Roma-Bari, 2015.
- Sisto D., La morte si fa social. Immortalità, memoria e lutto nell’epoca della cultura digitale, Bollati Boringhieri, Torino, 2018.
- Turkle S., Insieme ma soli. Perché ci aspettiamo sempre di più dalla tecnologia e sempre meno dagli altri, Einaudi, Torino, 2019.
- Williams J., Scansatevi dalla luce. Libertà e resistenza nel digitale, Effequ, Firenze, 2019.
Note
[1] «Il mondo digitale online trabocca nel mondo analogico offline, con il quale si sta mescolando. […] Per quanto mi riguarda, preferisco di parlare di esperienza onlife» (Floridi, 2017).
[2] Si noti «La parola “dati” deriva dal latino data, nel senso di “fatti”. […] Datizzare un fenomeno significa convertirlo in forma quantitativa, in modo da poterlo tabulare e analizzare» (Mayer-Schönberger e Cukier, 2013).
[3] Il problema è in particolare la velocità: «Una velocità che trascende qualsiasi capacità della mente umana e costringe l’utente a una delega totale al sistema algoritmo, l’unico in grado di maneggiare l’ordigno» (Mezza, 2018).
[4] Pur non avendo qui il tempo per approfondire, mi preme sottolineare come uno dei problemi da affrontare proattivamente rispetto all’IA è il seguente: se i computer saranno in grado domani di elaborare nuovi algoritmi sarà sempre più difficile controllare processi ed esiti. Per questo è necessario lavorare fin da subito nel tentativo difficile ma fondamentale di creare un sistema di controllo per i processi algoritmici.
[5] È interessante vedere come gli uomini a volte vogliano vedere cose che spesso non esistono, solo perché se le aspettano o vogliono credere in ciò che vedono: qualcuno vuole credere che i computer possano prevedere il comportamento umano, così come nel passato si voleva credere al famigerato “Turco meccanico”, il finto automa scacchista che in realtà era una “scatola” contenente un uomo vero e proprio.
[6] Si noti, per esempio, che c’è voluto molto più tempo per creare un software in grado di vincere nel gioco del Go (tradizionale gioco di strategia giapponese) proprio perché il range delle informazioni è più ampio degli scacchi. Essendo però un sistema comunque chiuso, con il giusto progresso tecnologico è nato un software imbattibile anche a questo gioco.
[7] Si noti immediatamente che: «La scienza delle macchine esiste solo mediante noi e per noi. Senza di noi le macchine non sanno nulla» (Dumouchel e Damiano, 2019). Una riflessione che andrebbe infatti ampliata è come il problema non siano gli algoritmi tout-court, quanto piuttosto coloro che adoperano gli algoritmi: «l’algoritmo non è la trincea di una fantascientifica contrapposizione fra uomini e macchina, ma rimane l’ultimo strumento di una volontà di primato di alcuni uomini, autori e proprietari di questi software, sulla stragrande maggioranza di esecutori» (Mezza, 2018).
[8] Un esempio lampante è l’effetto network utilizzato da app come Waze. Cfr. Brynjolfsson e McAfee, 2019.
[9] «La possibilità di valutare quel prodotto, determinandone la web reputation, come ogni atto discrezionale diventa un ulteriore dato della nostra personalità che rilasciamo» (Mezza, 2018). Cfr. anche Floridi 2017, su come gli algoritmi sfruttano questa nostra propensione alla valutazione.
[10] Mezza (2018) offre un interessante parallelo con l’urbanistica di New York: modificando le strade, è possibile cambiare i flussi di movimento delle persone. L’ambiente digitale agisce nello stesso modo.
[11] «I libri migliori, pensò, sono quelli che vi dicono ciò che sapete già» (Orwell, 1989).
[12] Tali schemi, però, a volte ci condizionano, come suggerisce la famosa citazione di Winston Churchill: «Prima siamo noi a dare forma agli edifici, poi sono questi a dare forma a noi» (citato in Turkle, 2019).
[13] «In quel mondo imperfetto, attraverso la persona di Norman Muller (proprio lui!) la cittadinanza sovrana della prima e più grande democrazia elettronica aveva esercitato ancora una volta il suo libero e inalienabile diritto di voto» (Asimov, 2014).
[14] Esattamente come gli effetti più classici dell’effetto Rosenthal.