I rischi dell’IA generativa per i minori

Immagine estratta dal sito https://it.freepik.com/


L’intelligenza artificiale non è più solo uno strumento per esperti, ma è diventata il compagno di giochi, il tutor scolastico e, talvolta, l’interlocutore emotivo dei nostri figli.

Tuttavia, questa ubiquità nasconde insidie che vanno oltre la semplice sicurezza tecnica. Per navigare consapevolmente in questo scenario, è fondamentale incrociare le preoccupazioni della psicologia moderna con le riflessioni sulla cittadinanza digitale.

1. I pericoli dell’IA: il monitoraggio dell’American Psychological Association (APA)

Sebbene l’IA possa offrire supporto nel monitoraggio del benessere e nello sport, l’uso di chatbot e app di “wellness” presenta rischi significativi per lo sviluppo dei minori.

1.1. L’Illusione dell’empatia e il legame emotivo

Una delle preoccupazioni principali riguarda l’uso di chatbot che simulano empatia. I minori, in una fase delicata di sviluppo socio-emotivo, possono attribuire sentimenti e intenzioni a un algoritmo. Questo può portare a un isolamento dal mondo reale, dove le relazioni umane (complesse e talvolta conflittuali) vengono sostituite da interazioni digitali “perfette” ma sostanzialmente vuote, che non allenano l’intelligenza emotiva.

1.2. La qualità dei consigli e i bias

Sistemi di IA non supervisionati possono fornire risposte distorte o clinicamente errate. La normativa italiana richiama la necessità che l’IA sia sicura, accurata e non discriminatoria, proprio perché i dati di addestramento possono contenere pregiudizi. Per un minore, ricevere consigli sulla salute o sull’autostima da un’IA “di parte” può avere conseguenze psicologiche profonde.

2. Le sfide educative

Il dibattito sottolinea che il problema non è la tecnologia in sé, ma la nostra capacità di gestirla come società.

2.1. Dall’alfabetizzazione alla cittadinanza digitale

Non basta saper usare ChatGPT; occorre capire come funziona. La legge italiana recepisce questa esigenza promuovendo percorsi di “alfabetizzazione e formazione” e potenziando le discipline STEM e artistiche nei curricoli scolastici.

L’obiettivo è trasformare i minori da consumatori passivi a utenti critici, capaci di distinguere tra un contenuto reale e uno generato da algoritmi.

2.2. Il rischio della “scatola nera”

La trasparenza è fondamentale. Se un minore non comprende che l’IA è un modello statistico e non una fonte di verità assoluta, rischia di subire passivamente le decisioni algoritmiche. La legge italiana enfatizza questo punto, stabilendo che “I sistemi e i modelli di intelligenza artificiale per finalità generali devono essere sviluppati e applicati nel rispetto dell’autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della trasparenza, della spiegabilità”.

3. Privacy e consenso: il pilastro della protezione

Un pericolo concreto è la gestione dei dati personali. I minori spesso condividono confidenze profonde con i chatbot, senza rendersi conto che quei dati alimentano database commerciali.

Per questo, in Italia la legge stabilisce che sotto i 14 anni è indispensabile il consenso genitoriale per l’accesso a queste tecnologie, mentre per i minori tra i 14 e i 18 anni, il consenso può essere autonomo, ma le informazioni sui rischi devono essere rese con un linguaggio “chiaro e semplice”.

Questo è un punto cardine: se un adolescente non capisce come verranno usati i suoi dati, il suo consenso è invalido.

4. Deepfake e l’impatto sulla reputazione

Un rischio crescente, evidenziato sia dagli esperti di psicologia che dai giuristi è la manipolazione dell’immagine. L’uso dell’IA per creare contenuti falsi (immagini, video o voci) può essere devastante per un minore. La legge italiana interviene duramente su questo punto: la diffusione illecita di contenuti alterati con IA per indurre in inganno o causare danno è punita con la reclusione da uno a cinque anni. I genitori devono educare i figli a comprendere che l’immagine digitale è una parte integrante della propria identità e dignità.

5. Consigli pratici per i genitori

Quali comportamenti possono adottare i genitori per proteggere i minori senza soffocarne la curiosità tecnologica?

6. Conclusioni

Ovviamente i genitori devono conoscere l’IA per poterla insegnare ai figli. Questa è, forse, la sfida più difficile che ci troviamo ad affrontare come educatori.

I genitori insegnano a prestare attenzione quando si attraversa la strada, guardando bene in entrambe le direzioni. E’ un sapere tramandato di generazione in generazione: i nonni lo hanno insegnato ai loro figli e questi ai loro figli, perché è un pericolo che conosciamo e sappiamo gestire.

Con le nuove tecnologie e in particolare con l’IA, tutto è diverso. Noi siamo la prima generazione che non può imparare dai propri genitori come “attraversare” la strada digitale. Non abbiamo un’eredità di esperienze a cui attingere. Dobbiamo essere noi i primi a metterci in gioco, ad abituarci a imparare costantemente e a capire profondamente l’importanza di questo nuovo scenario.

La normativa italiana prevede già percorsi di “alfabetizzazione e formazione” per potenziare le competenze digitali fin dalle scuole superiori. Tuttavia, la prima “scuola” resta la famiglia. Solo se i genitori per primi comprendono il funzionamento, i limiti e le potenzialità di questi algoritmi, possono guidare i figli oltre i pericoli, insegnando loro a navigare con sicurezza in un mondo che non ha più confini netti tra reale e virtuale.

Fonti:


Avvocato Lucio Di Biase

Lucio Di Biase

Avvocato

Telefono: +39 335 325917

E-mail: info@studiolegaledibiase.it

Iscritto all’Ordine degli Avvocati di Lanciano, negli ultimi venti anni l’Avv. Lucio Di Biase ha aiutato privati, professionisti, imprese, cooperative ed enti pubblici a risolvere i più comuni problemi legali, prestando attività di consulenza e assistenza nelle principali aree del diritto civile e nel relativo contenzioso, su tutto il territorio nazionale.
Dal 2014 al 2021 è stato consulente e legale esterno dell’ Azienda Territoriale per l’Edilizia Residenziale (ATER) di Lanciano (CH) per il recupero dei crediti nei confronti degli assegnatari di alloggi di ERP a titolo di canoni di locazione degli immobili strumentali di proprietà dell’Ente e per il rilascio forzoso dei medesimi.
E’ autore di articoli di approfondimento giuridico pubblicati sul sito dello Studio, con particolare attenzione ai temi della privacy, dell’intelligenza artificiale e dell’evoluzione normativa.



Accesso agli atti amministrativi Accountability GDPR Base giuridica trattamento Caratteristiche del bene locato Codice Privacy Colleghi di lavoro Compliance GDPR Consenso genitori Contratto preliminare Controlli a distanza lavoratori Controllo dipendenti Cyberbullismo; Danni da cose in custodia Dati sanitari Deepfake Divorzio DPIA valutazione d’impatto e-mail Foto bambini online Garante privacy GDPR Informativa privacy Intelligenza Artificiale (AI) Licenziamento Mantenimento del figlio maggiorenne Minimizzazione dei dati personali Minorenni Privacy dei bambini Protezione dei dati Pubblica Amministrazione Responsabile Protezione Dati (RPD) Responsabilità medica Revenge Porn Rischi AI Separazione Sharenting Sinistri stradali Social Media Statuto dei Lavoratori Statuto dei lavoratori e privacy Telecamere Trattamento dei dati e consenso Trattamento dei dati personali Videosorveglianza Volenza Digitale