È del 2016 un libro dal titolo evocativo: “Che cosa sognano gli algoritmi”. Tuttavia, l’intenzione dell’autore – Dominique Cardon – non è quella di misurarsi in una sorta di fantasioso duello con il famoso “Do Androids dream of electric sheeps” di Philip K. Dick, quanto piuttosto tentare di spiegare al lettore – dal punto di vista scientifico – che cosa davvero accade nella cosiddetta “scatola nera” del calcolo algoritmico. O meglio, provare a mostrare il funzionamento degli algoritmi “dall’interno” ossia mentre sono all’opera nel cercare di dare “un senso” al diluvio di Big Data che avvolge e determina le nostre vite.
L’approccio è molto interessante. Intanto, c’è il superamento della solita – scontata – vulgata su big data e intelligenza artificiale ovvero sulla presunta opposizione umani vs macchine intelligenti. Cardon, infatti, disegna una prospettiva diversa, molto più utile per una interpretazione critica e propositiva dell’innovazione tecnologica: le cosiddette “macchine intelligenti” non rappresentano qualcosa di alieno che minacciosamente punta a colonizzare spazi umani, ma al contrario si configurano come qualcosa di assimilato e centrale rispetto alla società in quanto è proprio dallo sviluppo tecnologico che viene – attraverso il suo orientamento e la sua organizzazione – un contributo decisivo alla “costruzione” della realtà odierna.
Quindi passa, con sintesi ed efficacia, a descrivere i 4 fondamentali algoritmi che in pratica – attualmente – governano l’intero web e le nostre vite digitali. Partendo – in ordine cronologico – dal meno recente al più recente. Iniziando con la misura della “popolarità” mediante il conteggio dei “clic”; per passare poi alla rivoluzione Google con il suo algoritmo “PageRank” ovvero il rilevamento “dell’autorevolezza” attraverso lo scambio dei link ipertestuali; quindi al calcolo della “reputazione” grazie al mondo social network e i sistemi rating; e infine – con l’esplosione dei big data – alla “predittività”, cioè l’algoritmo – ultimo della serie – più evoluto che “impara” confrontando i “profili comportamentali” degli internauti. Insomma, il futuro del comportamento di un internauta sarà “predetto” grazie alle stime sui comportamenti passati di coloro che – statisticamente – più gli somigliano.
Gli algoritmi, come spiega Cardon, sono governati dalla statistica, dalle infinite correlazioni e regolarità messe a disposizione dai big data. Ad esempio, nel campo dell’innovazione tecnologica nelle applicazioni di AI, l’arrivo dei big data e degli algoritmi statistici, ha prodotto un cambio radicale di prospettiva, vale a dire il passaggio a tentativi di applicazioni “astrattamente intelligenti” ad applicazioni “di statistica intelligente”. Prima IBM e poi Google hanno ri-orientato i loro progetti. Enormi capacità di calcolo degli attuali computer, sempre maggiore disponibilità di big data, hanno portato a testare contemporaneamente – rispetto a svariate soluzioni di problemi – infinite risposte fino a trovare quelle con maggiori regolarità statistiche.
Questo tipo di soluzione risulta evidente nello sviluppo AI applicato alle traduzioni simultanee. Qui Google – grazie all’enormità di big data acquisiti mediante le sue continue campagne di mass digitization con il progetto “Google Books” – ha messo a punto un’applicazione di intelligenza artificiale statistica – vale a dire “Google Traslate” – che non si preoccupa più di effettuare una traduzione da una lingua a l’altra, ma lavora semplicemente su stime statistiche per arrivare alle migliore traduzione possibile, e lo fa confrontando la parole o gruppi di parole – che in quel momento deve tradurre – con l’infinito numero di traduzioni che possiede in memoria grazie agli oltre 25 milioni di testi digitalizzati (big data) in tutte le lingue posseduti dalle principali biblioteche americane ed europee.