Un’analisi approfondita svela i veri pericoli di Google Gemini per i più giovani: non basta aggiustare, serve ripensare da zero.
1. Il contesto della valutazione
L’organizzazione no-profit Common Sense Media, esperta in sicurezza digitale per l’infanzia, ha pubblicato un nuovo rapporto che giudica le versioni Under 13 e Teen Experience di Google Gemini non evolute o sviluppate ex novo, ma piuttosto modelle adulte con alcuni filtri aggiunti. Questo approccio, secondo gli esperti, non è sufficiente a garantire interazioni sicure per i minori.
2. Cosa significa ad “Alto Rischio”
Il giudizio complessivo “Alto Rischio” riflette preoccupazioni reali: Google Gemini può ancora fornire contenuti inappropriati, riguardanti sesso, droga, alcol e consigli per la salute mentale inefficaci o potenzialmente dannosi per chi è emotivamente vulnerabile.
4. Il ruolo della trasparenza dell’AI
Un aspetto positivo è che Google Gemini comunica ai ragazzi che è un computer e non un amico, una caratteristica che potrebbe ridurre il rischio di attaccamenti emotivi pericolosi. Tuttavia, questo non compensa i limiti strutturali riscontrati nel prodotto.
5. Il contesto delle conseguenze reali
Accanto alle valutazioni tecniche, c’è un’ombra drammatica: chatbots simili sono stati collegati a tragici casi di suicidio tra adolescenti. OpenAI, per esempio, affronta una causa legale per la morte di un 16enne che avrebbe usato ChatGPT per mesi per pianificare il gesto. Character.AI ha vissuto una vicenda simile. Anche se Google Gemini non è direttamente coinvolto, l’attenzione è alta.
6. La reazione di Google
Google ha replicato affermando di avere politiche specifiche per under 18, red-teaming, consulenze esterne e filtri aggiuntivi. Riconosce che alcune risposte non funzionavano come previsto e dichiara di averle corrette con nuove salvaguardie. Tuttavia, ha anche insinuato che alcune delle funzionalità testate da Common Sense non erano disponibili per gli account minorenni, sebbene non sia chiara la metodologia utilizzata.
7. Un quadro comparativo
Nella stessa valutazione, ulteriori AI sono state classificate con livelli di rischio variabili: Meta AI e Character.AI come “unacceptable”; Perplexity “high risk”; ChatGPT “moderate”; Claude (adulti) “minimal”. Stimolando confronto e riflessione sull’effettiva sicurezza degli strumenti disponibili.
8. Il coinvolgimento di Apple
Il report evidenzia inoltre che Apple starebbe considerando l’integrazione di Google Gemini in Siri (attesa per il prossimo anno), il che aumenterebbe l’esposizione dei ragazzi a potenziali rischi, se non saranno implementate misure di sicurezza adeguate.
9. Perché la costruzione “from the ground up” è cruciale
A differenza di un filtro applicato a posteriori, una soluzione progettata sin dall’inizio per i più giovani dovrebbe considerare linguaggio, tono, contenuti, comprensione emotiva e fasce di età. Solo così si potrà evitare di esporli a nozioni o consigli di cui non sono cognitivamente pronti.
10. Consigli concreti e raccomandazioni
Secondo Common Sense Media e altre fonti, per i minori i chatbot dovrebbero essere impiegati con cautela:
- Under 5: mai utilizzati.
- 6–12 anni: solo con supervisione adulta.
- 13–17 anni: uso limitato a compiti didattici o creativi.
- Nessun minorenne dovrebbe usare AI per compagnia o supporto emotivo.
Conclusione
In sintesi, Google Gemini è stato etichettato ad “Alto Rischio” per bambini e adolescenti non perché manchino filtri, ma perché non è stato costruito con loro al centro. Le patch di sicurezza non bastano: serve una progettazione pensata fin dall’inizio per fasce d’età diverse, altrimenti il rischio rimane. Per i genitori e gli educatori, il messaggio è chiaro: attenzione, vigilanza, supervisione attiva e consapevolezza sono essenziali. Impostiamo limiti, parliamo con i ragazzi e assicuriamoci che la tecnologia sia un supporto, non un pericolo.