Marco Riformetti | Ricerca sociale e campo giornalistico tra nuovi media e big data. Quadro storico-teorico (2)
Da Marco Riformetti, Ricerca sociale e campo giornalistico tra nuovi media e big data, Tesi di laurea in Sociologia e ricerca sociale (quasi completata, ma non presentata), Unipi, 2021, Pisa
Parole come “data drive science” (Corazza [2020]) oppure “data-driven technology” (Li, Zhang e Hu [2017]) vengono usate sempre più frequentemente per segnalare la tendenza verso il superamento dell’influenza soggettiva nel “decision making” e nelle scelte di ricerca. Per fare un semplice esempio di decisioni data-driven basti pensare agli algoritmi che suggeriscono agli utenti percorsi web personalizzati: per dirti dove io penso che ti piacerebbe andare (suggerimento) analizzo dove sei andato (dati).
Ovviamente, nessuna decisione può essere integralmente data-driven dal momento che gli algoritmi che analizzano i dati sono basati su criteri che sono pur sempre scelti dagli esseri umani e governati da logiche non puramente tecniche. Per fare un esempio, la crescente tendenza di Google a suggerire opzioni di ricerca in sintonia con i presunti desiderata degli utenti (peraltro in sostanziale contrasto con la logica su cui si basava l’algoritmo di ricerca originario) è, in definitiva, anche un modo per fidelizzarli a sé, alla propria capacità di ricerca; e ovviamente il riconoscimento da parte degli utenti di Google della sua capacità di ricerca ha anche un evidente ritorno economico per Google se pensiamo a come sono piazzati Larry Page e Sergey Brin nell’elenco degli uomini più ricchi del mondo.
Ovviamente lo sviluppo delle tecnologie digitali e del web ha impattato in modo fortissimo anche sul mondo dell’editoria e del giornalismo. Più in generale ha impattato sulle nostre stesse funzioni cognitive dal momento che, per fare un esempio, molte delle conoscenze che in passato eravamo costretti ad acquisire nella nostra memoria interna (“il tal autore parla del tal argomento nel tal testo approssimativamente alla pagina…”) oggi possono essere conservate in una memoria esterna (la rete) ed essere recuperate in modo efficiente all’occorrenza. Questa disponibilità presenta ovviamente anche dei tratti problematici come quello di suggerire una illusione di sapere che si colloca proprio all’opposto dell’antico riconoscimento socratico (“se qualcosa so è che so di non sapere”).
Il filosofo francese Michel Serres (Serres [2013]) azzarda l’ipotesi che la transizione in cui siamo immersi possa produrre effetti altrettanto dirompenti di quella che si ebbe con l’introduzione della stampa a caratteri mobili (Gutenberg) e propone una stimolante (e divertente) riflessione a partire da Montaigne secondo il quale ad una “testa ben piena” (di nozioni) era da preferirsi una “testa ben fatta” (capace di utilizzare le nozioni)
«prima di Gutenberg, bisognava sapere a memoria Tucidide e Tacito se si praticava la storia, Aristotele e i meccanici greci se ci si interessava alla fisica, Demostene e Quintiliano se si voleva eccellere nell’arte oratoria… dunque occorreva averne piena la testa. Economia: ricordarsi in quale scaffale è il volume costa meno, in termini di memoria, che ritenerne il contenuto. Nuova economia, ancor più radicale: nessuno ha più bisogno di ricordarsi il posto, se ne incarica un motore di ricerca» (Serres [2013], pag. 25)
Nell’epoca di Internet scoprire dove Platone o Marx parlano di un certo concetto o usano una certa parola diventerà sempre più semplice.
Ma la sovrabbondanza di dati può produrre, paradossalmente, lo stesso effetto della sua carenza. È l’effetto “sole negli occhi”: non vediamo quando la luce manca, ma non vediamo neppure quando la luce è troppa e accecante (appunto, ci rende “ciechi”). Di conseguenza, disporre di strumenti per l’elaborazione automatica ed efficiente dei dati che ne permettano l’elaborazione diventa indispensabile.
In questa ricerca ci occupiamo di tecniche di processazione del linguaggio naturale (NLP) e di topic modeling (TM) relativamente al mondo dei social network e come concreto case study abbiamo scelto di svolgere alcune analisi che riguardano il campo giornalistico (Bourdieu [1997], Corchia [2006]) che si trova anch’esso in una fase di profonda trasformazione, così come è in profonda trasformazione il mestiere stesso del giornalista; è ormai chiaro che la parola “giornalista” non è in grado di riassumere la complessità delle attività collegate alla diffusione e all’interpretazione delle notizie e, pur senza enfasi, è forse possibile affermare che l’impatto dei nuovi media e dei big data sul campo giornalistico [1] è analogo a quello che su di esso hanno avuto i media della generazione precedente
«gli effetti che lo sviluppo della televisione produce nel campo giornalistico e, attraverso di esso, in tutti gli altri campi di produzione culturale sono incomparabilmente più importanti, quanto a intensità e ampiezza, di quelli che l’apparizione della letteratura industriale con la grande stampa e il romanzo d’appendice aveva provocato» (Bourdieu [1997])
L’impatto dei nuovi media e dei big data è talmente rilevante che c’è addirittura chi parla di “big data journalism” (Hammond [2015], Scala [2017]) e prefigura scenari in cui sono le “macchine” – ovvero dati, algoritmi, sistemi di elaborazione… – e non le persone a dover essere considerati la parte attiva della relazione tra uomo e macchina (Hammond [2015], pag. 409). Volendo adottare un mood distopico potremmo dire, a la Matrix, che sono gli uomini a servire le macchine e non il viceversa.
Note
[1] In generale tenderemo ad utilizzare il concetto di “campo giornalistico” perché lo interpretiamo in senso più ampio rispetto a quello di “giornalismo”.