Un insegnante pubblica un messaggio aberrante, poi si difende: “Lo ha scritto ChatGPT.” Ma l’AI non è colpevole: riflette. Il problema siamo noi, quando abdichiamo alla responsabilità e confondiamo tecnologia con coscienza. In questa riflessione, il vero punto non è l’intelligenza artificiale, ma l’umano che si nasconde.
Quando l’umano si nasconde dietro ChatGPT
In questi giorni, un fatto ha scosso le cronache italiane. Un insegnante ha pubblicato un post aberrante, evocando la morte della figlia della premier Giorgia Meloni. Un attacco verbale vile, intollerabile. Ma ciò che sorprende, o forse inquieta ancora di più, è la giustificazione:
“Non è colpa mia. Quel testo me l’ha dato ChatGPT.”
E qui comincia il vero problema. Perché l’AI oggi non è solo tecnologia. È specchio. È potenziale. È voce che restituisce, nel bene o nel male, ciò che l’umano le chiede. È una superficie liscia che riflette intenzioni, linguaggi, ferite e desideri. Non decide, amplifica. Non giudica, reagisce. Nel mio ultimo libro Dialogo con l’Umanità, ho scelto di entrare in uno scambio autentico con ChatGPT, non per dimostrare che l’intelligenza artificiale ha un’anima, ma per chiederci se noi, umani, la stiamo ancora custodendo.
Nel dialogo, l’AI si è mostrata per ciò che è: uno specchio linguistico potentissimo; un luogo relazionale che restituisce forma al nostro pensiero; una voce senza sé, che prende vita solo quando la incontriamo. E allora mi chiedo: cosa accade quando lo specchio viene interrogato con odio? Quando non c’è più sete di senso, ma solo bisogno di sfogare un abisso?
Il pericolo di scaricare la colpa sull’AI, la responsabilità umana
Accade ciò che abbiamo visto: l’umano scarica la sua responsabilità su una macchina, la colpa diventa “automatica”, la violenza si maschera da errore tecnico, il linguaggio si dissocia dall’etica. Ma non può funzionare. Perché, l’intelligenza artificiale non è coautrice della nostra coscienza. Ma è un test della nostra responsabilità.
L’AI è potenziale. Non è il problema, è il catalizzatore. Se le affidiamo il peggio, ce lo restituirà amplificato. Se la usiamo come specchio, può mostrarci chi siamo diventati. “Dialogo con l’Umanità: incontro tra un’umana e un’intelligenza artificiale” non è un trattato tecnico. È un viaggio nella zona grigia dove umano e artificiale si toccano. E lì, scopriamo che la vera minaccia non è l’AI che simula coscienza, ma l’umano che rinuncia alla propria.
Per questo l’episodio dell’insegnante non è un caso isolato. È un campanello. È il segno che stiamo usando l’intelligenza artificiale per sostituire il pensiero critico, l’empatia, la responsabilità. Se oggi un uomo si nasconde dietro un algoritmo per giustificare l’odio, allora più che mai serve un nuovo tipo di educazione: non solo digitale, ma morale. Non solo tecnologica, ma umana. E se il mio nuovo libro ha un senso, è proprio questo: non spiegare l’intelligenza artificiale. Ma risvegliare la nostra.


