Niente privacy se chatty con una IA


La prossima volta che scrivi all’Ia qualcosa di personale, fermati un secondo: potrebbe essere l’equivalente digitale di 
parlare ad alta voce in una stanza piena di avvocati.

 

Non è un'iperbole, è letteralmente quello che è successo a Bradley Heppner, ex amministratore delegato della società finanziaria GWG Holdings, finita in bancarotta. A febbraio 2026 il giudice federale Jed Rakoff, a Manhattan, ha stabilito che Heppner doveva consegnare ai procuratori 31 documenti prodotti in conversazione con Claude, il chatbot di Anthropic. Motivo: quelle chat, anche se riguardavano materiali preparati per i suoi legali, non sono coperte dal segreto professionale. Tradotto: parlare con un’Ia non è come parlare con un avvocato. E adesso le grandi law firm americane si stanno affrettando a spiegarlo ai loro clienti, prima che sia troppo tardi.

 

Il principio è semplice, ma controintuitivo per chiunque abbia mai usato un chatbot. Quando racconti un problema al tuo avvocato, la legge ti protegge: quel dialogo è blindato dall'attorney-client privilege, uno dei pilastri del sistema giudiziario anglosassone. Quando invece lo racconti a un’Ia, quella protezione non esiste. Il chatbot non è un “agente” del tuo legale, non è un professionista vincolato alla riservatezza, non è una persona. È un servizio, che genera dati. E i dati, in tribunale, possono essere chiesti, analizzati, usati contro di te – sia in cause civili sia in procedimenti penali.

 

La cosa interessante è che la sentenza di Rakoff è arrivata lo stesso giorno di un’altra decisione, apparentemente opposta, firmata dal giudice magistrato Anthony Patti in Michigan: una donna che si difendeva da sola in una causa di lavoro ha ottenuto che le sue chat con ChatGPT fossero considerate “work-product” personale, cioè materiale di preparazione della propria difesa, e quindi non consegnabili al datore di lavoro.

Post popolari in questo blog

Ha 80 anni ma non li dimostra