Non semplifica il pensare.
Lo allena.
Ogni giorno, in migliaia di aziende italiane, succede la stessa cosa: un dipendente apre ChatGPT, incolla un documento riservato — un contratto, un bilancio, una strategia — e ottiene una risposta utile.
Nessuno lo sa. Nessuno ha deciso che fosse sicuro.
Si chiama Shadow AI — ed è uno dei rischi più sottovalutati dell'adozione AI nelle organizzazioni.
Ma c'è un secondo problema, più sottile. Anche quando usi l'AI in modo sicuro, ogni risposta costruisce una cornice interpretativa invisibile che orienta le domande successive — spesso senza che tu te ne accorga.
Cinzia Ligas lo chiama sovrascopo: la direzione simbolica in cui, risposta dopo risposta, viene condotta la tua semiosfera.
SCENARIO TIPICO: ADOZIONE SOFTWARE
I bottoni socratici non sono strumenti per ottenere risposte migliori dall'AI. Sono strumenti per pensare meglio tu — per mettere in discussione ciò che l'AI produce, e ciò che tu stai chiedendo.
La mappa viene costruita solo su richiesta esplicita dell'utente. Mai in background. Il semplice atto di premere "Mostra mappa" è già un atto metacognitivo.