Stupidità e identità

 

È la logica della satira, dell’ironia graffiante, che manca ormai da almeno 25 anni nel nostro Paese, nei quotidiani o in televisione. Può essere il modo per capire quanto siamo diventati stupidi. Anche se oggi si vuole apparire diversi, ci vuole una buona dose di cinismo e ironia nel cogliere i difetti di un’epoca, la nostra, che si muove a un ritmo molto più globale, confuso e accelerato. Non c’è più il luogo fisico dove un tempo si raccoglieva la pubblica opinione: i caffè, i circoli o i bar di paese, spesso col solo linguaggio figurato del dialetto locale, che comunque permetteva di distinguere le boutade, se non dalla verità o almeno dal verosimile, mostrando tracce collettive o comuni nel cogliere il senso delle cose e del discorso.

PENSARE. Increscioso. Le cose che ci costringono a farlo vengono di solito accantonate. (G. Flaubert, Dizionario luoghi comuni)

 

Da tempo i mass-media preferiscono indirizzare le loro notizie attraverso luoghi comuni –anche se immaginano essere di volta in volta sensazionali, ma quasi sempre non si discostano dalla banalità – perché più facili da accettare e da comprendere grazie all’ingenuità o alla supposta stupidità del lettore-spettatore. Ma cosa significa essere stupidi? Consiste nell’agire inconsapevolmente per danneggiare sé stessi, prima degli altri, ma può essere anche il paradigma con cui si possono declinare le distanze e le cadute tra luoghi comuni e banalità.

Gustave Flaubert ne aveva scritto quasi due secoli fa in un Dizionario dei luoghi comuni, Karl Kraus, in Detti e contraddetti (Adelphi, 1972) ne aveva raccolto un catalogo nella Vienna fine secolo, Ennio Flaiano (Diario degli errori, Taccuino del Marziano, La solitudine del satiro, Frasario essenziale per passare inosservati in società) è certamente ancora quello più vicino a noi: colui che ha frustato la stupidità umana con aforismi esemplari nella società italiana. Eccone alcuni:

“I nomi collettivi servono a fare confusione: Popolo e Pubblico. Un bel giorno ti accorgi che siamo noi. Invece credevi che fossero gli altri”;

“Conoscere sé stesso, dopodiché diventa impossibile vivere con se stessi”;

“Una volta il rimorso mi seguiva, ora mi precede”;

“In amore non bisogna avere scrupoli, non rispettare nessuno. Se occorre, essere capaci di andare a letto con la propria moglie”;

“Il tiranno più amato è quello che premia e punisce senza ragione”;

“Per apprezzare i contemporanei non bisogna essere contemporanei”;

“La libertà conduce alla noia e la noia alla dittatura”.

È la logica della satira, dell’ironia graffiante, che manca ormai da almeno 25 anni nel nostro Paese, nei quotidiani o in televisione. Può essere il modo per capire quanto siamo diventati stupidi. Anche se oggi si vuole apparire diversi, ci vuole una buona dose di cinismo e ironia nel cogliere i difetti di un’epoca, la nostra, che si muove a un ritmo molto più globale, confuso e accelerato. Non c’è più il luogo fisico dove un tempo si raccoglieva la pubblica opinione: i caffè, i circoli o i bar di paese, spesso col solo linguaggio figurato del dialetto locale, che comunque permetteva di distinguere le boutade, se non dalla verità o almeno dal verosimile, mostrando tracce collettive o comuni nel cogliere il senso delle cose e del discorso.

Perché la stampa, nata nel Settecento per diffondere e affondare i suoi colpi contro il potere grazie alla opinione pubblica, oggi si muove come “un cane da pastore nei confronti del gregge dei lettori”, assertiva e persuasiva, dove i lettori – o meglio i propri – sono immaginati simili ai tifosi di calcio, ma proprio tifosi del chiacchiericcio e del complottismo, sempre da parte di altri, parecchio ingenui e trattati da incompetenti, sempre. Così giù di slogan a partire da titoli a grandi caratteri… dove si smania nel considerare aspetti monumentali e universali infarciti di pochezza, al limite tra il banale e il luogo comune – senza alcuna logica o argomentazione del discorso – restituendo semplificazioni didascaliche su temi e concetti discutibili e controversi, quali la libertà, l’indipendenza, la democrazia, le tasse, l’educazione, l’esperienza, la tradizione ecc. All’uomo, – si diceva un tempo della strada, oggi si potrebbe dire in poltrona – rimane una sola esclamazione, pronunciata centinaia di volte al giorno «Ma non lo vedi!» ovvero la concretezza, al contempo l’illusione, della visione e pure l’onere della prova.

Eppure solo intorno agli otto mesi un bambino riesce per la prima volta a riconoscere tra volti famigliari ed estranei, in precedenza la visione è essenzialmente sensoriale o mimica, non va oltre i 20 centimetri di distanza, anche se riconoscono luce/buio, solo a tre mesi arriva a distinguere oggetti fino a 8 metri di distanza, a sei mesi la coordinazione occhio-mano-bocca sarà legata al movimento, al 18 esimo mese sarà in grado di distinguere i colori e le tonalità, ma soprattutto sarà in grado di riconoscere se stesso davanti a uno specchio, soltanto a tre anni sarà in grado di mescolare i colori… Insomma, i nostri occhi sono deboli – rispetto ad altri animali – e impariamo soprattutto a maneggiare ciò che vediamo. Quindi il VEDERE è sinonimo di riconoscere. Già, il cinema, la macchina che produsse immagini di massa, nei suoi primi vent’anni aveva avuto successo sugli spettatori perché era in grado di offrire immagini del vicino nel quale riconoscersi e del lontano come spettacolo strabiliante. Già, perché il riconoscimento del vicino altro non è che mutuato dalla propria esperienza visiva e dal proprio linguaggio, mentre il lontano rappresenta la meraviglia, lo stupore di un ignoto che si poteva sfiorare. Furono i cinegiornali, più di ogni altra pellicola, ad agire in questa direzione con il compito dell’informazione e della conoscenza sia del vicino che del lontano. Di conseguenza fidarsi solo degli occhi può portare a “VEDO QUINDI SONO IO, ALLORA CI CREDO”. Uno stupido sillogismo. Eppure, l’immagine è spesso condizionata o ricondizionata, l’asse del tempo può essere dilatato e modificato, così lo spazio può essere sostituito, modificato, inventato. In passato il testo, cioè la didascalia era un descrittore dell’immagine stessa. Oggi il testo che l’accompagna ne dà significazione, che di per sé può mutare nell’intenzionalità di chi la esprime e pure di chi guarda. Ma c’è un altro aspetto ancora più grave: noi immaginiamo che la nostra identità passi per ciò che vediamo, non per ciò che abbiamo imparato a conoscere e a sapere. Prima della Grande Guerra si ripresero immagini durante cinque conflitti: a Cuba (1898), in Sudafrica (1899-1902), in Manciuria tra Russia e Giappone (1904), in Libia (1911-12), nei Balcani prima con Bulgaria, Grecia, Romania e Montenegro contro Turchia, poi Grecia e Romania contro Bulgaria (1912-13). L’Inghilterra iniziò nell’ottobre del 1899 la seconda guerra boera destinata a conquistare il Transvaal. Un mese dopo, un ex-militare, fotografo dilettante, John Bennett-Stanford, sbarcò a Città del Capo. Approfittando delle sue relazioni all’interno dello Stato maggiore ottenne il permesso di seguire l’avanzata delle truppe britanniche. Inviate a Londra, le bobine vennero proiettate a partire dal gennaio 1900, producendo un’enorme impressione; la stampa entusiasta scrisse che “Per la prima volta il paese partecipava all’azione del suo esercito”. I film furono acquistati dalla Warwick Trading Company che, per assicurarsi il monopolio delle immagini in movimento, mandò sul terreno operatori professionisti, capaci di anticipare i movimenti dei soldati e di ottenere la piena collaborazione dei generali, estromettendo rapidamente i dilettanti. Nella relazione dopo le ostilità, Lord Stanley of Preston, incaricato di fare un bilancio sulle operazioni, così s’interrogava: “Una domanda da farsi durante ogni futura guerra sarà di decidere se l’esercito debba essere seguito da fotografi e cineasti”.

L’episodio fissò usanze e regole che ricorreranno in seguito in altri conflitti. L’iconografia precedente al 1915 può essere divisa in quattro aspetti principali: a) soldati mentre non combattono; b) ricostruzioni di fatti bellici; c) riprese militari usate in altro contesto; d) la visione dello scenario. Di norma il girato, senza essere una pura “messa in scena”, presentava fatti che si erano svolti nelle retrovie e che non informavano né sui combattimenti, né sulla strategia delle operazioni militari dei diversi corpi d’armata, né sulla resistenza del nemico. La propaganda è la ragione principe per filmare la guerra. I giornalisti, i cineasti che seguono un conflitto sono portatori di un’idea e tendono a dimostrarla. Se lavorano in un paese straniero, sono alle dipendenze di società di produzione e Network che ha regole e pubblico da soddisfare. Ma la Grande Guerra trasformò in parte le regole. Il controllo del materiale girato e delle informazioni doveva essere approvato da uno speciale reparto collaterale ai servizi segreti che decideva quali informazioni e quali immagini potevano uscire dal teatro di guerra. Ad esempio, non saranno mai mostrati i caduti italiani nel conflitto, né chi venne fatto prigioniero. Grande spazio ai cannoni e agli obici, agli uomini in trincea. Inizia qualche fotografia dall’alto dell’aereo nella sua vaghezza. Nella Seconda Guerra mondiale avere sui bombardieri macchine fotografiche e cineprese permise di vedere le bombe cadere ed esplodere sui bersagli. La guerra del Vietnam è stata chiamata “una guerra televisiva”, la profusione d’immagini mandate in onda a partire del 1970 influì profondamente sull’opinione pubblica avversa alla Casa Bianca. Così, i documenti audiovisivi non presentano la “realtà” della guerra, ne propongono una visione che l’opinione pubblica può facilmente accettare, credendo vere le immagini solo per il fatto di averle viste. Nel gennaio del 1991, durante la guerra in Irak, avevano la dicitura: “approvato dal commando militare”. Il pretesto era di non dare informazioni agli Iracheni. La ragione profonda era il controllo da parte dello stato maggiore, che non voleva ripetere ciò che era avvenuto in Vietnam. Si trattava di pura propaganda: i generali preparavano i telespettatori a una guerra lunga e dura, parlavano della capacità di resistenza degli iracheni, mettevano in rilievo i feretri pronti per ventimila morti. Durante la guerra del Golfo, la diretta di Ted Turner della CNN, trasmessa da Bagdad da una terrazza, ci mostrava i bagliori di un bombardamento, mentre si trattava dei razzi traccianti della contraerea irachena… ma il Times lo proclamò uomo dell’anno con la copertina che recitava “La storia come accade”. Nei suoi ricordi sulla guerra del golfo, John Simpson, reporter della BBC, il 17 gennaio ordinò al suo personale di partire immediatamente. Il giornalista decise di continuare a telefonare, il pubblico ne conosceva il nome, ma si era rinchiuso in un albergo e poteva sapere solo ciò che vedeva dalle finestre. Una brigata che muove all’assalto: come fa l’operatore ad essere in piedi davanti a loro? Se fosse stato un vero attacco, sarebbe stato il primo ucciso. Un altro assalto viene filmato dietro i combattenti, ma vediamo i medesimi soldati, nel medesimo paesaggio, che sono stati filmati da due punti di vista diversi: l’esercitazione è stata ripetuta più volte e l’operatore ne ha approfittato per fare altre riprese. Un ultimo esempio: la seconda guerra nel Golfo ha in gran parte usato immagini della prima, immagini di repertorio. Un filmato CNN ci mostra, a Dhahran, che tutti devono infilarsi una maschera per paura dei gas, ma se guardiamo lentamente alla moviola ci rendiamo conto che solo quelli in primo piano hanno la maschera, quelli sul fondo non la portano. Un servizio del telegiornale “France 3”, all’alba del 17 gennaio, annuncia che sette missili “Scud” sono caduti sul territorio israeliano, il conduttore vuole far capire la situazione pericolosa. Se analizziamo le immagini, possiamo dividerle in quattro momenti: a) una simulazione, fatta al computer, ricrea il percorso di un missile inviato verso Tel Aviv; b) le riprese di Tel Aviv trasmesse dalla CNN; c) materiale d’archivio dei servizi di rivelazione aerea americani; d) documenti d’archivio sul bombardamento di un sito nucleare iracheno, perpetrato dagli israeliani nel 1982.

Il servizio stampa dell’esercito americano ha inventato un’espressione meravigliosa che tutti i commentatori hanno riusato: i bombardamenti avvengono con una precisione “chirurgica”. Il missile, guidato da un infallibile laser, non provoca distruzioni inutili nel campo nemico, e le perdite umane vengono passate sotto silenzio. E ancora oggi vediamo le immagini del dopo, i satelliti non riescono, ad esempio, in tempo reale a cogliere l’istante della caduta del missile o della bomba, l’immagine arriva ai servizi militari dopo qualche minuto e può essere facilmente manipolata. Vista in questa luce la guerra televisiva somiglia a una competizione sportiva o a un gioco elettronico nel quale bisogna annientare il nemico. Per gli occidentali, la guerra televisiva è verosimile ma non è totalmente vera, le redazioni televisive riescono a realizzarne uno spettacolo. L’informazione televisiva non è “oggettiva” e non lo è meno di quella giornalistica. Se si parla dei dati trasmessi, la cosa è innegabile, le notizie che vengono mandate in onda sono raramente false. Ma l’aspetto ideologico serve a condizionare la notizia su un altro piano, vale  a dire nella scelta dei registri e nelle tipologie. Una agenzia britannica, americana o russa seleziona l’informazione utile per i propri abitanti, adatta le notizie alla situazione politica interna. La consapevolezza del carattere parziale dell’informazione ha creato l’illusione che esista, dietro le versioni ufficiali, qualche segreto o mistero da svelare. Negli ultimi vent’anni operatori e giornalisti di guerra sono strettamente condizionati dai comunicati dei militari, raramente possono muoversi liberamente, difficilmente possono parlare coi combattenti, in molti casi stanno in albergo a vedere i cinegiornali locali o a scorrere i social. L’informazione mandata in onda durante i combattimenti non può essere né completa né obiettiva, è necessariamente una versione falsa o parziale degli avvenimenti. Ora lo schermo è diventato un vuoto dove le apparenze si formano e spariscono all’istante, in una sequenza senza alcuna logica esterna, come le parole in una conversazione a singhiozzi, o come le impressioni quando corrono nella nostra mente. L’immagine non mostra, suggerisce pensieri e sensazioni. Allora, se non è fedele né falsa, come prenderla in considerazione? Se, come indimenticabili San Tommaso, dovremmo cercare sempre la certezza della prova visiva. Così ritorna anche la fusione tra la nostra identità e l’immagine; non a caso i Governi si sono affidati a tecniche per riconoscerci attraverso segni presenti nel nostro corpo e non certo nella nostra coscienza.


Disponibile in Amazon e IBS.it libreria on linehttps://www.asterios.it/catalogo/fin-di-bene-il-nuovo-potere-della-ragione-artificiale


Già dal 1880, lo scozzese Faulds suggerì l’individualità delle impronte digitali ed il loro utilizzo nell’identificazione dei criminali; una decina d’anni dopo, Francis Galton arrivò a classificare cinque classi base, ma oggi sono diventate uno standard falsificabile (da AI, fino ai fumetti di Diabolik) della dattiloscopia anche se i Big Data e gli algoritmi velocizzano il lavoro della polizia giudiziaria. L’unico problema del settore dattiloscopico è la mancanza di univocità sull’attribuzione di un giudizio d’identità, spaziando – nei vari sistemi giuridici – da criteri qualitativi espressi sui punti caratteristici a valutazioni meramente quantitative e non sempre qualitative. In Italia, la giurisprudenza (la Cassazione nel 1959) fissava l’attendibilità in almeno 16-17 punti caratteristici uguali per forma e posizione, per evitare la variabilità dei dermatoglifi nei cittadini di altri paesi e dell’operatore stesso. La prova scientifica, per essere considerata tale nelle aule di Giustizia, deve dimostrare la sua affidabilità probatoria, influenzata dalla possibilità di errore riscontrabile e dalla possibilità di essere sottoposta a revisione passando dal quantitativo al qualitativo. In una ricerca della New York University è esposto un metodo per generare impronte digitali false e per ingannare anche i sensori biometrici: il tasso di errore sarebbe 1 su 5. In quelli più sicuri, la percentuale di errore, sfruttando un complesso di dati biometrici, sarebbe dell’8,61%. Eppure, in molti paesi del mondo, in circa 90, non esiste documento di riconoscimento interno (solo l’eventuale passaporto), il Giappone ha introdotto un documento di identità con fotografia solo nel 2016, nel Regno Unito non esiste, in Russia c’è un passaporto interno, in molti paesi islamici, Egitto compreso, le donne sono prive di qualsiasi documento di riconoscimento. La stragrande maggioranza dei documenti è priva di impronta digitale. In sede giudiziaria, essa o sta nel database, oppure viene eseguita in seguito, in relazione alle impronte rintracciate nel luogo del delitto.

La pupilla o meglio l’iride. Sta nella dilatazione del diaframma, colore, tessitura, e i pattern di individualità possono essere paragonati a quelli dell’impronta digitale. La tessitura dell’iride si forma nei primi due anni di vita ed è unica anche nel caso dei gemelli. Naturalmente occorre un enorme data base, la scansione è facile con apparecchiature ad alta definizione (anche se condizioni di luce o la presenza di occhiali o di lenti possono influire e ingannare la macchina) e viene usata negli aeroporti di USA, Germania, Tokyo, Olanda e negli Emirati Arabi: essa dà una percentuale di sicurezza di circa il 95%, ma a certe condizioni… quelle di avere già tutte le immagini in una banca dati.

La macchina della verità o il poligrafo, la misurazione contemporanea di una serie di parametri vitali (ossigenazione, pressione del sangue, frequenza respiratoria, sudorazione, ritmo cardiaco) durante un interrogatorio, secondo il principio in base al quale, se si mente, i parametri vitali hanno delle alterazioni derivate dallo stress per il disagio o il pericolo. Ma le emozioni contrastanti in un soggetto potrebbero imputarsi a molteplici ragioni, che renderebbero inattendibile il test del poligrafo. Alcuni esempi di inattendibilità sono: l’interrogatorio stesso, l’ambiente dove si svolge, l’ansia e la reinterpretazione del ricordo. Relazionare lo stato emotivo con la verità diventa estremamente labile secondo le neuroscienze. Ormai viene usata in pochi stati USA, se accettata dalla Giuria.

Videocamere o sistemi biometrici globali hanno avuto molto successo a partire dallo psicologo americano Paul Ekman, che ha sostenuto come le espressioni facciali e le emozioni non sono determinate dalla cultura di un posto o dalle tradizioni, ma sono universali ed uguali per tutto il mondo, indicandone l’origine biologica (rabbia, disgusto, tristezza, gioia, paura, sorpresa, disprezzo, imbarazzo, orgoglio, sollievo, soddisfazione, vergogna e piacere sensoriale); in seguito, egli scoprì che le microespressioni facciali possono rivelare se uno mente o meno, in quanto testando 20.000 individui di vari ambienti, ceti sociali e culture diverse, soltanto 50 ebbero la capacità di mentire. Si apre così la strada ai sistemi visivi biometrici globali che includono l’impronta, la voce, la pupilla e il volto. La tecnologia corre veloce ma studi specifici nel 1996 (Wright & Mc Daid) stimavano come il 30-40% fossero identificazioni errate, il 41% secondo Wells, Steblay e Dysart nel 2011; oggi si stima un 3-4% di errori.

Ma c’è un eterno luogo comune che scienza e media non hanno ancora rivelato: CHI SIAMO, DA DOVE VENIAMO, DOVE ANDIAMO è ancora un mistero.


https://www.asterios.it/catalogo/carnazza