Uomini e bot

Parli di «determinismo tecnologico», e sembra una nozione astratta. Di quelle che, in soldoni, non significano nulla al di fuori dei circoli accademici: senza impatto sulla vita reale. Poi nel giro di poche ore ne riconosci i contorni nel modo in cui vengono interpretati due fatti di natura completamente diversa, e non ti resta che immaginare in che modo questa stortura del pensiero – per cui sarebbe la tecnologia a decidere dei nostri destini, costringerci ad agire in un certo modo o dirimere questioni che a noi umani sono precluse; insomma, a venire prima dell’uomo – potrebbe non avere conseguenze pratiche. Il primo è lo studio che dimostrerebbe che più di metà dei follower di Beppe Grillo sia «probabilmente» un bot, e non un umano. Il secondo, la strage alla prima di The Dark Knight Rises a Denver. Nel primo caso, non ci sono soltanto dubbi metodologici (cosa giustifica, per esempio, l’inferenza ‘Il 54,4% del campione casuale di 20 mila follower di Grillo da me studiato è probabilmente un bot e non un umano, quindi la stessa percentuale vale sul totale della popolazione, cioè 600 mila follower?), ma anche e soprattutto ontologici, come mi ha fatto notare Matteo Pascoletti – e come argomenta un bel pezzo di Riccardo Puglisi su Linkiesta: come è possibile pensare che, se non ci riesce un essere umano, un algoritmo sia in grado di distinguere un bot da un utente in carne e ossa? Si prenda l’esempio fornito dall’esperienza, limitata ma significativa, di Caterina Policaro. Che dimostra molto concretamente che ci siano umani che non si comportano come tali, e secondo le categorie dello studio. Come quantificare quanti siano, su un profilo da 600 mila follower? Soprattutto, come incorporarlo in un algoritmo? Mistero. Molto chiaro è invece l’assunto: la tecnologia decide se x è uomo o macchina. Che il dubbio che sia una premessa errata – o anche, un orrore ontologico – non abbia nemmeno sfiorato il professor Camisani Calzolari, autore della ricerca, la dice lunga sul grado di sudditanza psicologica dell’uomo alla macchina raggiunto perfino in ambienti accademici. Eppure è questa premessa metafisica a inficiare dalle fondamenta l’impalcatura malamente eretta nello studio. Uscendo dai confini dell’accademia, lo stesso ragionamento si può applicare al commento a caldo di Gad Lerner alla strage di Denver. Cosa lega i massacri di Utoya, Bulgaria e Colorado? Lerner non ha dubbi: «Il denominatore comune si trova nella tecnologia che rende facile perpetrare una strage e ti consente di immaginarla prima, pianificandola su uno schermo in cui crei la tua realtà virtuale, proprio come ha fatto il norvegese Breivik». Insomma, «Il videogioco degli omicidi di massa», scrive Lerner, come se a uccidere non fossero stati individui in carne e ossa ma i loro avatar, usando joystick e non fucili. E come se fosse in qualche modo la tecnologia a decidere per l’assassino: lo ha potuto visualizzare, ne ha potuto definire i contorni in un contesto ludico, quindi la tecnologia è quantomeno corresponsabile del massacro – a prescindere dagli inesistenti riscontri scientifici sul legame tra violenza e videogiochi violenti. Niente di molto dissimile dall’attenzione sproporzionata ottenuta sui giornali italiani dall’ipotesi – subito sfumata – che voleva l’assassino indossasse la maschera del nemico di Batman, Bane (che sia colpa dei fumetti, dunque?). Lo chiamo «determinismo tecnologico», perché mi sembra la formula più efficace. Ma, più in generale, si potrebbe chiamare «ricerca del capro espiatorio». O «del Salvatore», a seconda delle circostanze. Il meccanismo è lo stesso: non mi riesce con le mie sole forze, ma sono «ragionevolmente» certo che ci riuscirà la macchina; non l’avrei fatto con il mio solo giudizio, ma l’autorità della voce della macchina mi ha convinto che, tutto sommato, non avevo scelta. Non c’è solo il sensazionalismo mediatico, dunque: c’è anche un deficit di scetticismo – di sano scetticismo – nei confronti della macchina. E di fiducia, che si traduce in assunzione di responsabilità quando sia tradita, nei nostri.

6 pensieri su “Uomini e bot

  1. Caro ilNichilista,
    commento rispetto alla ricerca di Calzolari. Secondo me il dubbio metodologico maggiore non è quello che tu identifichi. Prendere un campione su un insieme di dati significa fare una statistica; l’affidabilità di tale statisca si esprime introducendo una varianza, che dipende dalla percentuale di dati che si considerano rispetto alla totalità. Semplificando forse eccessivamente, e’ come se avessi un sacchetto con 600mila palline (una pallina puo’ essere soltanto rossa oppure nera),e tu ne estraessi a caso 20mila. Osservando le palline estratte e contando il numero di palline rosse e nere, puoi statisticamente sapere quante palline rosse e nere ci sono nell’intero sacchetto. Non puoi sapere esattamente il numero di palline rosse e il numero di palline nere nel sacchetto, ma puoi stimarli, cioè puoi calcolare l’errore associato alla tua misura introducendo appunto la varianza. Ora, è vero che Calzolari non fornisce la varianza della sua statistica, ma è anche vero che quella pubblicata è un’anticipazione di uno studio. In ogni caso, se avessimo qualche nozione di statisca, potremmo calcolarla.
    L’errore metodologico è semmai il metodo con cui Calzolari misura i 20mila utenti scelti aleatoriamente. Come è stato scelto il sistema dei punti? Ci si è appoggiati su altre ricerche? Sono stati scelti euristicamente, cioè sono state eseguite delle prove su un insieme di dati conosciuti e si è cercato di costruire un programma attraverso prove successive? Vengono da un dialogo che Calzolari ha avuto con Dio? Anche queste domande potrebbero venir sciolte dalla pubblicazione integrale dello studio.

    Il problema ontologico a questo punto: come è possibile pensare che, se non ci riesce un essere umano, un algoritmo sia in grado di distinguere un bot da un utente in carne e ossa? La domanda è errata: un essere umano riesce a distinguere una macchina da un umano. Quindi non puoi essere sicuro che sia impossibile che un algoritmo possa distinguere un bot da un essere umano. Forse si’, forse no. Bisognerebbe documentarsi per sapere, allo stato dell’arte, quali risultati siano stati raggiunti dalla comunità scientifica in questo senso. In seguito si dovrebbe testare l’algoritmo di Calzolari su un insieme conosciuto di dati e confrontarlo con i risultati ottenuti da altri algoritmi.

    Infine, l’orrore ontologico. La frase “la tecnologia decide se x è un uomo o una macchina”, è falsa. La tecnologia è uno strumento, non puo’ decidere. Nel caso di Calzolari è uno strumento di misura. E’ come se ci chiedessimo: “il metro da sarta decide se un pezzo di stoffa è lungo 50 cm?”. Riformulando l’orrore ontologico: “uno strumento di misura (la tecnologia di Calzolari) permette di decidere se x è un uomo o una macchina”. Credo che la scienza si sia occupata dell’argomento, visto che una nozione fondamentale associato alla misurazione è la qualità della misura. La scienza permette di escudere tale orrore, in quanto, rispettando il metodo scientifico, si ottengono risultati che sono in accordo con la frase: “un algoritmo permette di decidere se x è un uomo o una macchina con una certa quantità di incertezza che dipende dall’algoritmo”. Quindi, secondo me, nel caso in cui Calzolari scrivesse un articolo scientificamente corretto, non dovrebbe preoccuparsi di orrori ontologici.

    • Volevo scrivere appunto il mio dubbio sull’aspetto campione–>analisi, ma è stato spiegato bene sopra: a costo di sembrare cretino, non vedo niente di diverso dagli studi statistici: non saranno verità assolute, ma a patto di scegliere parametri giusti danno risultati attendibili.

      Sul riconoscere un umano/computer da parte di un umano sono d’accordo: non si sta dicendo se lo incontriamo per strada, ma su twitter: io ad esempio secondo i parametri del dottore sarei scambiato per macchina solo perchè non posto mai ?

      E ultima cosa: “la tecnologia decide etc..” è falsa proprio perchè è corretto come dici tu: è uno strumento. Il fatto evidenziato dall’articolo è proprio che in questi casi si tende a considerarla un soggetto, cosi come accade per “il signor Internet”

    • La fallacia dello studio risiede principalmente nella pretesa di usare un bot nel riconoscere i bots, un sistema rigido e oltretutto estremamente ipersemplificato per cercare i modelli “innaturali” di risposta. Se già sul concetto di test di Turing e derivati come qualcosa di affidabile la comunità scientifica è fortemente divisa (chi non l’ha ancora fatto si legga il classico “La mente nuova dell’imperatore” di Penrose), figurarsi quando si prendono in considerazione così pochi parametri, Se il personaggio che l’ha fatto fosse minimamente una persona rigorosa, avrebbe prima messo alla prova seriamente il suo modello per capire quanti falsi positivi e negativi fornisce. Forse l’ha fatto e magari nel testo completo c’è, ma vedendo la storia personale del tipo, direi che nutro moltissimi dubbi al riguardo. Qui la sudditanza psicologica non è verso la macchina.

      Michele Gardini

  2. Pingback: O tempora o followers (di Grillo) – Federica Colonna - Il Fatto Quotidiano

  3. A me non sembra per nulla strano l’aver usato un bot per scovare altri bot. È anzi logico: solo un programma può facilmente ed in breve tempo gestire ed analizzare la mastodontica quantità d’informazioni e dati richiesta dall’analisi. Semmai si può discutere sul metodo, sull’algoritmo che discerne bot da umano. A mio parere è un po’ troppo semplicistico. La cosa giusta da fare sarebbe di capire come viene costruito un bot che genera utenti fittizi e poi ribaltare quelle caratteristiche sul bot di analisi.

    Concordo con il primo commento che non vi è nessun assunto del tipo “la tecnologia decide x o y”. La tecnologia è, allo stato attuale dell’arte, asservita all’uomo e da esso dipende per la determinazione dei parametri di funzionamento. È limitata nella misura in cui può agire solo secondo schemi predefiniti da utenti umani (è errore comune per la gente arrabbiarsi perché un dato programma non fa quello che loro vogliono, mentre invece dovrebbero essere loro ad adattarsi a quello che il programma sa fare).

  4. Ok. Avevo deciso, per una volta, di vincere la pigrizia e buttare giù la mia opinione, ma vedo che grosso modo è già stata espressa dai vari commenti più sopra (si, anche da quelli che in parte si contraddicono tra di loro). Aggiungerei che l’intero mercato pubblicitario televisivo (una quatità enorme di soldi), viene suddiviso estrapolando dati da un ristrettissimo campione (qualcosa come poche migliaia di persone in rappresentanza dei 60 milioni di italiani). Un unico aspetto mi potrebbe interessare mettere in risalto: siamo sicuri che ce ne freghi davvero qualcosa di sapere quanti followers ha Grillo? (si, lo so che non è la questione principale del post, ma ne è pur sempre lo spunto).
    Saluti.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...