Con il nostro paese, solo Cina, Russia, e Corea del Nord inibiscono il dispositivo di intelligenza artificiale ma per ben altri motivi come sappiamo
L’Italia è l’unico paese occidentale ad aver bloccato, seppur solo formalmente, ChatGPT. Il Garante della Privacy , con un’inedita prontezza e determinazione, ha raccolto il brusio che si levava da ricercatori e tecnici ed ha posto il tema di uniformare quel modello di intelligenza artificiale alle norme di garanzia sul controllo e tracciabilità dei dati personali, di cui Chat GPT fa illecitamente incetta.
Con il nostro paese, solo Cina, Russia, e Corea del Nord inibiscono il dispositivo di intelligenza artificiale ma per ben altri motivi come sappiamo.
Ma, una volta tanto, l’azione dell’apparato di garanzia italiano è un elemento di modernità e non di arretratezza.
Il principio che ha mosso il garante è sintetizzato nel passaggio della delibera che dispone la sospensione del servizio perché “la mancanza di un’informativa agli utenti ed a tutti gli interessati i cui dati vengono raccolti da ChatGPT”.
Un principio che investe alla base l’intera economia digitale rendendo ineludibile una sua riorganizzazione. In sostanza il garante finalmente, dopo 20 anni di dominio da parte delle piattaforme della Silicon valley, sostiene che giuridicamente nessun soggetto, estero o anche italiano, può non tanto raccogliere quanto combinare e rielaborare i dati di un utente, o di un’intera comunità all’insaputa degli interessati.
Alla luce di questa logica già ci sembrano molto invecchiati eventi come il congresso della CGIL, che non ha trattato del lavoro in questo contesto, o della FNSI, che non ha discusso delle funzioni giornalistiche rispetto a questi rischi, o del PD che non ha posto fra i principi del nuovo partito proprio la cittadinanza digitale. O anche il tema del nuovo contratto di servizio della Rai appare antico se prescinde da questa problematica.
Il nodo non è dunque la consistenza di eventuali liberatorie che vengono proposte ed avallate da chiunque di noi si trovi a dover usufruire di un servizio digitale. In quei documenti si chiede se si autorizza la registrazione dei dati primari che inevitabilmente disperdiamo con l’uso della rete. Il pericolo si configura quando questi dati vengono successivamente combinati e ricalcolati fra di loro o con dataset esterni. È quello il momento in cui si ottengono i famigerati profili categoriali che permettono ad un service provider di elaborare mappe territoriali granulari di moltitudini di utenti, ognuno con caratteristiche e fisionomie sociali, culturali, politiche e commerciali differenti.
Si rovescia così il noto detto di Sherlock Holmes che aveva guidato l’economia dei consumi del 900 : “Un individuo è un enigma insolubile, ma inseriscilo in una massa e diventa una certezza matematica”. Una logica che aveva surclassato la visione marxista per cui gli individui diventando massa aumentavano il loro potere negoziale rispetto al sistema. L’anno di svolta che segnalava come il mondo stava correndo verso i consumi di massa fu il 1957 in cui uscirono tre libri fondamentali per l’intera civiltà occidentale : I persuasori occulti di Vance Packard, Le star di Edgar Morin, Miti d’oggi di Roland Barthes.
Tre testi che contenevano analisi dei nuovi modelli sociali basati sul consumo e non più sulla produzione, linguaggi della comunicazione che orientavano e determinavano gusti e bisogni, culture e formule dell’immaginario che legittimavano e consacrano questi nuovi codici.
Tutto cambia con la dissoluzione della matrice di massa della società, determinata dal lavoro fordista, che scomponendosi libera nuovi bisogni e ambizioni dell’individuo che si sgancia dalle identità collettive. La rete è il linguaggio di questi nuovi modelli individuali. E nella rete si configurano i nuovi poteri proprio sulla base della frammentazione delle nostre identità in singoli e infiniti dati che disseminiamo sul nostro percorso che grazie alla potenza di calcolo diventano aggregabili, riconoscibili e combinabili. Cambridge Analytica, il meccanismo attraverso il quale sono state inquinate le elezioni presidenziali americane del 2016, che hanno visto il sorprendente trionfo di Donald Trump, sono l’emblema di come si sia rovesciato l’aforismo di Sherlock Holmes. Non è più la massa che rende governabile l’individuo, ma è proprio la possibilità di interferire sui comportamenti di ogni singola persona che permette di deviare il cammino delle masse. Google, Facebook, Amazon e Tik Tok sono solo alcuni dei sistemi che elaborano costantemente i dati delle centinaia di milioni dei propri utenti creando mappe e categorie a disposizione di chi intende parlare direttamente con ognuno di quei profilati. Come spiega nel suo testo Cultur Analytics (Cortina editore) Lev Manovich, “ogni pensiero ed elaborazione umana e ricostruibile e per certi versi anche anticipabile sulla base dei dati che consegnamo facendoci mediare da sistemi digitali nelle nostre azioni e relazioni”.
Chat GPT è la fase suprema di questa realtà. Se ogni attività discrezionale è composta da azioni cognitive ( raccolta di informazioni, elaborazione di queste informazione, confronto e integrazione delle nostre elaborazione ed infine pubblicazione) che affidiamo ad algoritmi allora il sapere è anche accessibile attraverso questi dati primari che preludono alle elaborazioni finali. Chat GPT è immerso in questa placenta di informazioni globali di cui si nutre costantemente combinandole con i testi e le informazioni che acquisisce dalla rete.
Ora il punto che viene posto dal Garante – uso illecito dei dati che vengono usati per costruire vere e proprie cartelle cliniche di ogni utente – non può non essere esteso a tutti i soggetti che compiono questa stessa operazione, come appunto le grandi piattaforme dei social o i motori di ricerca che stanno diventando sempre più, come Bing ad esempio ma anche Google, motori di creazione. Si tratta di rendere trasparente, condivisibile e negoziabile l’azione che viene compiuta automaticamente dagli algoritmi generativi che trasformano i nostri profili in linguaggi , tonalità, e forme semantiche che ci appaiono sempre più intime e familiari, proprio perché sono adeguate alle caratteristiche personali che i sistemi digitali ricavano dai dati. È come giocare a poker con un signore che legge le nostre carte.
Ovviamente questa operazione di civilizzazione del mondo digitale non può essere compiuta dall’ufficio del Garante della Privacy di un singolo paese, ma deve trovare la convergenza di interessi e sensibilità di ben altre forse. A livello europeo è in gestazione una nuova norma che dovrebbe condizionare i comportamenti profilanti. Ma non basta: ogni legge nel campo digitale, basato sui comportamenti molecolari degli utenti, deve essere sorretta e rimodulata continuamente da negoziati che supportano e concretizzano i principi generali. Giornalisti, medici, giuristi, pubblica amministrazione, ricerca e università devono scendere in campo e riprogrammare i sistemi contrattualizzando le forme di utenza. Come spiega l’ultimo documento dell’Università americana di Stanford, non possiamo come scuola importare al buio intelligenze e principi etici da un fornitore tecnologico.
Siamo entusiasti di comunicarvi la partnership tra Oggi Notizie e cazzeggiando, un social libero da CENSURE, Intelligenza Artificiale, e algoritmi di controllo. Con il nuovo social cazzeggiando hai la possibilità di pubblicare tu stesso notizie e argomenti di tuo interesse, aprire gruppi pubblici o privati e interagire con tutti gli iscritti attraverso una chat in tempo reale. Cazzeggiando preserva e promuove la possibilità di esprimersi e condividere opinioni, incoraggiando una discussione rispettosa e civile tra gli utenti.
Cazzeggiando non solo è totalmente gratuito, ma chi volesse sostenere il progetto sottoscrivendo un abbonamento avrà la possibilità di GUADAGNARE invitando amici ad iscriversi e monetizzare tramite i contenuti che pubblicherà