La proposta della deputata di Giulia Pastorella, esponente di Azione, di limitare a cinque giorni la memoria delle chat tra chatbot e minori – accompagnata da un sistema obbligatorio di verifica dell’età – è l’ennesimo esempio di una tendenza ormai radicata nella politica italiana ed europea: regolamentare prima, capire dopo. Una dinamica che, nel tempo, ha prodotto più burocrazia che benefici concreti, rallentando innovazione e competitività senza evidenze solide a supporto.
Alla base della proposta vi è un dato spesso citato: il 27% degli under 15 avrebbe utilizzato chatbot per sfogarsi o parlare dei propri problemi. Un’informazione che, presa isolatamente, può certamente colpire. Ma è proprio qui che si annida il problema: trasformare una semplice correlazione statistica in una giustificazione per un intervento normativo restrittivo.
Il problema dei dati: correlazione non è causalità
Il fatto che una quota significativa di minori utilizzi chatbot per esprimere emozioni o difficoltà personali non implica automaticamente che ciò sia dannoso. Anzi, potrebbe suggerire esattamente il contrario: che questi strumenti rappresentino una valvola di sfogo accessibile, immediata e priva di stigma. Senza studi longitudinali – cioè ricerche che osservano gli stessi individui nel tempo, analizzando come cambia la loro condizione in relazione a determinati comportamenti – è impossibile stabilire un nesso causale. Per capire davvero l’impatto dei chatbot, bisognerebbe comparare almeno due gruppi distinti di minori: da un lato chi utilizza chatbot per sfogarsi, dall’altro chi non li utilizza. E non basta un semplice confronto grezzo. È necessario controllare per una serie di variabili che possono influenzare i risultati, come la condizione socio-economica, l’età, il contesto familiare, il livello di istruzione dei genitori, eventuali fragilità pregresse.
Solo attraverso questo tipo di analisi è possibile evitare errori di interpretazione. In assenza di questi accorgimenti, il rischio è quello di attribuire ai chatbot effetti che in realtà derivano da altri fattori. Uno studio longitudinale è essenziale proprio perché consente di distinguere tra due ipotesi molto diverse: la prima è che l’uso dei chatbot peggiori la salute mentale dei minori; la seconda, altrettanto plausibile, è che siano i minori già in difficoltà a rivolgersi ai chatbot per trovare supporto. Nel primo caso, un intervento regolatorio potrebbe essere giustificato. Nel secondo, rischia invece di togliere uno strumento utile senza offrire alternative. Legiferare senza questa distinzione equivale a intervenire alla cieca. È una scorciatoia politica che può sembrare prudente, ma che in realtà rischia di essere controproducente.
Il principio di massima precauzione
La proposta si inserisce in una logica ben nota: quella del principio di massima precauzione. In teoria, si tratta di un approccio ragionevole – prevenire possibili danni anche in assenza di certezza scientifica. In pratica, però, è diventato uno strumento che spesso blocca l’innovazione prima ancora di comprenderne gli effetti. In Europa, questo approccio ha già mostrato i suoi limiti in diversi settori, dall’intelligenza artificiale alla biotecnologia. Il risultato è un ecosistema dove le aziende devono navigare un labirinto normativo complesso, sostenendo costi elevati per conformarsi a regole che non sempre sono giustificate da evidenze empiriche solide.
Nel caso specifico, imporre un limite di cinque giorni alla memoria delle chat significa intervenire direttamente su uno degli elementi chiave del funzionamento dei chatbot: la capacità di ricordare il contesto e costruire conversazioni coerenti nel tempo. Ridurre drasticamente questa memoria equivale a peggiorare il servizio offerto, rendendolo meno utile proprio per quegli utenti – inclusi i minori – che cercano continuità e comprensione. A questo si aggiunge l’obbligo di verifica dell’età, che comporta ulteriori costi e complessità per le aziende. Non si tratta solo di implementare un sistema tecnico, ma di gestire dati sensibili, garantire sicurezza, prevenire abusi e affrontare possibili responsabilità legali. Tutto questo senza che sia chiaro quale sia il beneficio reale della misura.
Il rischio di una regolazione miope
Il problema non è la volontà di proteggere i minori – obiettivo condivisibile e necessario – ma il metodo con cui si cerca di farlo. Regolamentare tecnologie emergenti senza una comprensione adeguata dei loro effetti rischia di produrre più danni che benefici. La domanda fondamentale, che dovrebbe precedere qualsiasi intervento normativo, è sorprendentemente assente dal dibattito: l’uso dei chatbot da parte dei minori ne acuisce davvero i problemi psicologici? E, ammesso che ciò avvenga, una misura come il limite a cinque giorni della memoria è in grado di ridurre questo ipotetico problema? Perché proprio cinque giorni e non tre, dieci o trenta? Qual è la base empirica di questa soglia?
Allo stesso modo, la verifica dell’età solleva interrogativi non banali: scoraggerà davvero l’utilizzo problematico dei chatbot da parte dei minori? E, se sì, è necessariamente un bene? Oppure rischia di produrre un effetto collaterale meno visibile ma altrettanto rilevante, cioè ridurre la familiarità delle nuove generazioni con strumenti che saranno sempre più centrali nel mondo del lavoro? In un’economia in cui l’intelligenza artificiale sta rapidamente diventando una competenza trasversale, limitare l’esposizione precoce a questi strumenti potrebbe tradursi in un handicap competitivo. È un rischio che raramente viene considerato nel dibattito politico, ma che meriterebbe molta più attenzione.
Non è la prima volta che accade. Il dibattito politico italiano recente offre esempi emblematici. Si pensi alle posizioni espresse in passato da Carlo Calenda contro i videogiochi, spesso descritti come una minaccia per i giovani senza una base scientifica solida. Oppure al caso del sistema Piracy Shield, introdotto per combattere la pirateria degli eventi sportivi ma finito per bloccare anche servizi legittimi come Google Drive, con effetti collaterali rilevanti per imprese e professionisti. In entrambi i casi, il denominatore comune è lo stesso: un intervento normativo affrettato, basato su una percezione del rischio più che su un’analisi approfondita, che finisce per generare inefficienze e costi imprevisti.
La proposta sui chatbot rischia di seguire lo stesso percorso. Limitare la memoria e imporre verifiche stringenti senza una chiara evidenza di danno significa penalizzare un’intera categoria di servizi, scoraggiando innovazione e investimenti in un settore – quello dell’intelligenza artificiale – in cui l’Europa è già in ritardo rispetto a Stati Uniti e Cina.
Il vero nodo: innovazione contro burocrazia
Dietro questa proposta si intravede una visione più ampia, che potremmo definire – senza troppa forzatura – luddista. Non nel senso storico di opposizione violenta alle macchine, ma come atteggiamento sistematico di diffidenza verso il progresso tecnologico, visto più come una minaccia da contenere che come un’opportunità da governare. Il risultato è un circolo vizioso: più regolazione preventiva, più costi per le aziende, meno innovazione, minore competitività. E, paradossalmente, meno capacità di affrontare proprio quei problemi – come la salute mentale dei minori – che si vorrebbero risolvere.
Un approccio più razionale richiederebbe il contrario: investire in ricerca, promuovere studi longitudinali seri, raccogliere dati nel tempo e solo successivamente intervenire con normative mirate e proporzionate. Significherebbe anche riconoscere che le tecnologie, di per sé, non sono né buone né cattive, ma strumenti il cui impatto dipende dall’uso che se ne fa. In assenza di questa consapevolezza, il rischio è quello di continuare a legiferare sull’onda dell’emotività, inseguendo problemi percepiti piuttosto che reali. E di ritrovarsi, ancora una volta, con norme che complicano la vita alle imprese senza migliorare quella dei cittadini.
Prudenza o immobilismo?
La proposta di limitare la memoria dei chatbot per i minori può essere presentata come una misura di prudenza. Ma, a ben vedere, appare più come un esempio di immobilismo travestito da cautela. Senza evidenze solide, senza studi longitudinali o sperimentazioni rigorose, senza una chiara valutazione costi-benefici, si rischia di intervenire su un fenomeno ancora poco compreso con strumenti che potrebbero rivelarsi inefficaci o addirittura dannosi.
In un contesto globale sempre più competitivo, l’Italia e l’Europa non possono permettersi di continuare su questa strada. Proteggere i minori è fondamentale, ma farlo nel modo sbagliato rischia di essere controproducente. E, soprattutto, di confermare l’impressione che, di fronte all’innovazione, la risposta della politica sia ancora troppo spesso la stessa: limitarla, invece di capirla.








