06.10.2025
News

Atto redatto con l’intelligenza artificiale: il Tribunale di Torino riconosce la “responsabilità aggravata”

Con una decisione destinata a far discutere, il Tribunale di Torino (sent. 16 settembre 2025) ha condannato una parte processuale per responsabilità aggravata ex art. 96, comma 3 c.p.c., avendo presentato un ricorso redatto “col supporto dell’intelligenza artificiale” pieno di citazioni inconferenti e prive di logica. Scopri cosa significa per gli avvocati e quali sono gli obblighi degli avvocati nell'uso dell'IA.

🔗 Leggi la sentenza integrale del Tribunale di Torino

L’intelligenza artificiale può diventare un rischio legale per l’avvocato se usata impropriamente.

È quanto emerge dalla sentenza del Tribunale di Torino del 16 settembre 2025, che ha condannato una ricorrente per responsabilità aggravata, ai sensi dell’art. 96, comma 3 e 4, c.p.c., per aver utilizzato l’IA nella redazione di un ricorso giudicato “manifestamente infondato” e redatto “con malafede o colpa grave”.

La ricorrente ha infatti agito in giudizio con malafede o, quantomeno con colpa grave [...]

L’uso dell’IA nei ricorsi: quando è pericoloso

Nel caso in esame, la parte attrice aveva proposto opposizione a una serie di avvisi di addebito, attraverso un ricorso che, come si legge in sentenza, era

un ricorso redatto “col supporto dell’intelligenza artificiale”, costituito da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio

Condanna per responsabilità aggravata: cosa comporta

Per questi motivi, il Tribunale ha non solo rigettato il ricorso, ma ha anche applicato una doppia condanna pecuniaria:

  • € 500 per ciascuna parte convenuta ai sensi dell’art. 96, c. 3, c.p.c.
  • € 500 come ulteriore sanzione, ex art. 96, c. 4, c.p.c.

Questa sentenza rappresenta un precedente importante per gli avvocati che si affidano, totalmente o parzialmente, a strumenti di intelligenza artificiale generativa generaliste come ChatGPT o simili per la redazione di atti giudiziari.

L’intelligenza artificiale e l’obbligo di diligenza dell’avvocato

Il messaggio della magistratura è chiaro: l’avvocato rimane pienamente responsabile per il contenuto degli atti prodotti, anche se generati con il supporto dell’IA. Gli strumenti di IA possono supportare, ma non sostituire, il giudizio professionale. La diligenza richiesta dalla professione forense non viene meno, e l’uso disinvolto di strumenti automatici può sfociare in gravi sanzioni.

Non basta dunque citare norme o precedenti: serve un'esposizione coerente, pertinente e legata al caso concreto.

Come usare l’IA in modo conforme e sicuro

Gli avvocati che vogliono integrare l’intelligenza artificiale nella loro pratica professionale devono adottare buone pratiche per evitare conseguenze legali:

  • Verificare sempre le fonti: le IA generaliste possono generare “allucinazioni giuridiche”.
  • Mantenere il controllo redazionale: l’avvocato resta il responsabile del contenuto e della correttezza giuridica dell’atto.
  • Evitare l’uso di IA generaliste per atti giudiziari, soprattutto se i dati trattati sono sensibili o coperti da segreto professionale.
  • Utilizzare strumenti legali dedicati e certificati, che garantiscano tracciabilità e conformità alle norme deontologiche.

Conclusione: un precedente che fa scuola

La sentenza del Tribunale di Torino è un monito chiaro: l’uso dell’intelligenza artificiale nel contenzioso legale deve avvenire con attenzione, competenza e responsabilità. Il rischio non è solo la perdita della causa, ma anche la condanna per responsabilità aggravata, con gravi conseguenze economiche e reputazionali.

Ultime notizie

Vedi tutte le notizie

© DIKAIA 2025 - wedomagic srl - vicolo Gumer 9, 39100 Bolzano - P.IVA: 03261830214 - Tutti diritti riservati