Il presente contributo analizza il disegno di legge italiano A.C. 2316 sull’intelligenza artificiale, soffermandosi in particolare sugli obblighi previsti per le professioni intellettuali alla luce del Regolamento europeo AI Act.
La trattazione prosegue in una seconda parte, dedicata agli obblighi informativi, ai profili deontologici e giurisprudenziali, nonché agli impatti sul piano assicurativo e formativo.
Il disegno di legge A.C. 2316, approvato dal Senato il 20 marzo 2025 ed ora all’esame della Camera, recante «Disposizioni e deleghe al Governo in materia di intelligenza artificiale» ha la finalità di coordinamento con il Regolamento (UE) 2024/1689, meglio noto come AI Act, che rappresenta il primo quadro normativo organico a livello mondiale sulla regolamentazione dell’intelligenza artificiale, improntato a principi di proporzionalità, trasparenza e sicurezza.
Il disegno di legge si innesta in modo coerente nella visione antropocentrica del Regolamento europeo che riconosce la tecnologia come strumento al servizio dell’essere umano, e non viceversa, come abbiamo già avuto modo di osservare nel precedente articolo pubblicato sulla rivista[1].

Il disegno di legge si compone di 28 articoli che si articolano in cinque capi: Capo I Principi e finalità, Capo II Disposizioni di settore (dal sistema sanitario alla pubblica amministrazione); Capo III Strategia nazionale, Autorità nazionali e azioni di promozione; Capo IV Disposizioni a tutela degli utenti e in materia di diritto d’autore; Capo V Disposizioni penali; Capo VI Disposizioni finanziarie e finali.
L’articolo 1 del disegno di legge enuncia chiaramente la finalità di promuovere un utilizzo «corretto, trasparente e responsabile» dell’AI, coniugando le opportunità offerte da questa tecnologia con la necessaria vigilanza sui rischi economici, sociali e sui diritti fondamentali.
Particolarmente rilevante, all’interno del disegno di legge, è l’articolo 13, che disciplina l’utilizzo dei sistemi di intelligenza artificiale nell’ambito delle professioni intellettuali. Il primo comma stabilisce che «L’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è consentito esclusivamente per esercitare attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera». Il testo individua, dunque, un perimetro chiaro e selettivo: l’adozione dell’AI è ammessa soltanto in funzione ausiliaria, all’interno di compiti che supportano, ma non sostituiscono, l’attività critica e valutativa del professionista. Viene così affermato il principio secondo cui la componente umana deve mantenere una posizione di preminenza sostanziale, nella forma di un controllo consapevole e di una responsabilità non delegabile. La “prevalenza” richiesta dalla norma, peraltro, non si misura in termini meramente quantitativi, bensì nella qualità del contributo intellettuale che deve caratterizzare la prestazione; in altre parole, l’elaborazione autonoma di decisioni o valutazioni deve restare saldamente ancorata all’esercizio personale della competenza, senza che l’intervento algoritmico possa assumere un ruolo sostitutivo.
Il secondo comma dell’art. 13 introduce un obbligo informativo specifico, volto a rafforzare la dimensione fiduciaria del rapporto tra professionista e destinatario della prestazione. Esso prevede che il professionista comunichi l’impiego di sistemi di intelligenza artificiale «con linguaggio chiaro, semplice ed esaustivo», assicurando così che ogni riferimento agli strumenti algoritmici utilizzati nell’ambito dell’attività sia formulato in modo pienamente comprensibile per l’assistito. L’informazione, quindi, non può essere generica né eccessivamente tecnica, ma deve rendere trasparente la natura e la funzione dell’AI impiegata nel contesto concreto della prestazione intellettuale.
L’ambito applicativo della disposizione coincide con il contratto di prestazione d’opera intellettuale (artt. 2229-2238 c.c.), al quale l’art. 2230 c.c. rinvia, in quanto compatibili, le norme generali sul contratto d’opera (artt. 2222-2228 c.c.). Il legislatore chiarisce così che, pur potendo l’apporto umano ridursi sotto il profilo quantitativo, deve permanere una prevalenza qualitativa del contributo critico e valutativo del professionista. Una previsione coerente con il paradigma antropocentrico che riconosce nella tecnologia uno strumento di ausilio, e non un sostituto, del sapere umano.
Questo impianto concettuale si applica in modo trasversale all’intero spettro delle professioni intellettuali regolamentate e si esprime in modo esemplare nella disciplina del rapporto fiduciario che caratterizza alcune categorie, tra cui in primo luogo la professione forense.
In tale contesto, la norma si propone di salvaguardare la dimensione fiduciaria che contraddistingue il rapporto professionale tra avvocato ed assistito, assicurando che la responsabilità delle decisioni resti pienamente e inequivocabilmente in capo al singolo professionista. Il legislatore intende così preservare l’equilibrio tra autonomia tecnica ed “accountability” personale, arginando derive automatizzate che potrebbero compromettere tanto la trasparenza delle valutazioni, quanto la supervisione effettiva e l’assunzione individuale di responsabilità.
L’adozione di strumenti basati sull’intelligenza artificiale, peraltro, non viene affatto esclusa dallo studio legale, anzi se ne riconoscono i benefici in termini di efficienza e capacità elaborativa, purché il loro utilizzo resti confinato a funzioni meramente ausiliarie. L’obiettivo è garantire che ogni valutazione giuridica ed ogni scelta difensiva continui ad essere il frutto dell’elaborazione critica del professionista, fondandosi sulla sua competenza e sulla comprovata esperienza.
Questa impostazione è stata espressamente condivisa anche dal Consiglio Nazionale Forense. Il Presidente Francesco Greco ha evidenziato[2] come l’adozione dell’AI debba sempre rispettare il primato del decisore umano, approvando l’opzione (prevista altresì dall’articolo 15 del disegno di legge) di escludere la delega decisionale al software, tanto nell’attività forense quanto in quella giurisdizionale. Tale affermazione rafforza il principio secondo cui l’AI può affiancare, ma non sostituire, la funzione professionale dell’avvocato.
Tale esigenza di tutela della dimensione fiduciaria è peraltro condivisa anche dalle altre professioni intellettuali regolamentate. In particolare, architetti, ingegneri, giornalisti, medici, commercialisti e consulenti del lavoro operano anch’essi in contesti nei quali l’autonomia tecnica e la responsabilità soggettiva costituiscono presupposti essenziali della prestazione professionale. Anche per queste figure, l’impiego dell’AI può offrire un utile supporto operativo, ma non può mai giungere a sostituire l’apporto creativo o decisionale del professionista, che deve permanere come elemento centrale qualificante.
Il principio della prevalenza qualitativa del pensiero umano, sancito dal primo comma dell’articolo 13, deve dunque essere inteso come riferimento trasversale per tutte le professioni intellettuali protette, contribuendo a ridefinire una nuova etica del lavoro professionale nell’era dell’intelligenza artificiale. Così, per esempio, in ambito medico, il ricorso ad algoritmi per supportare la diagnosi o l’elaborazione di piani terapeutici non può sostituire la valutazione clinica del sanitario. Analogamente, nell’esercizio della professione giornalistica, l’uso di strumenti automatizzati per il reperimento o la sintesi delle notizie non può prescindere dalla responsabilità redazionale, men che meno dalla verifica delle fonti e dal giudizio critico dell’autore.
Ne consegue che il parametro della prevalenza umana ed il correlato obbligo di trasparenza sull’uso dell’AI si prestano ad una declinazione coerente e sistemica, capace di orientare un rinnovato paradigma professionale nell’ecosistema digitale. In tal senso, l’articolo 13 pone le basi per una disciplina generale che, pur nel rispetto delle specificità settoriali, afferma una responsabilità professionale condivisa nell’impiego consapevole e governato delle tecnologie algoritmiche, contribuendo a ridefinire la grammatica della competenza nell’epoca della trasformazione digitale.
In coerenza con questa visione, una delle innovazioni più significative sul piano pratico è sancita dal secondo comma dell’art. 13, in forza del quale il professionista, come già accennato, è tenuto ad informare il cliente circa l’eventuale impiego di strumenti algoritmici nel corso dell’attività svolta per suo conto. Tale obbligo di trasparenza eleva il livello di chiarezza contrattuale, contribuendo a definire un nuovo standard relazionale che rafforza la dimensione fiduciaria e tutela la libertà decisionale dell’assistito.

L’informativa, per risultare effettiva, non potrà, peraltro, esaurirsi in formule standardizzate o tecnicismi opachi, ma al contrario dovrà essere costruita in modo da rendere effettivamente comprensibili le tecnologie impiegate anche ai soggetti non esperti. Si tratta, dunque, di un principio trasversale che impone a tutti i professionisti intellettuali di ripensare alle modalità e agli strumenti di comunicazione nei confronti dei propri assistiti o committenti. In una prospettiva operativa, ciò implicherà l’adozione di prassi comunicative aggiornate, così come la revisione di disposizioni contrattuali e l’integrazione nei mandati professionali di clausole che esplicitamente rendano noto l’utilizzo di sistemi di intelligenza artificiale. Parallelamente, l’obbligo di trasparenza imporrà ai professionisti di dotarsi di criteri interni tanto per la selezione, che per la validazione e, ovviamente, il monitoraggio degli strumenti adottati: la logica sottesa è quella di un controllo sostanziale sull’intero ciclo di vita dell’AI, dalla scelta dei fornitori tecnologici alla verifica degli output, fino alla definizione di procedure di intervento in caso di malfunzionamento o di errore.
In quest’ottica, la figura dell’“umano nella catena” (human-in-the-loop) costituisce una condizione imprescindibile per assicurare il presidio critico dell’attività professionale. Anche in assenza di obblighi settoriali formalizzati, si delinea la necessità di costruire forme di audit interno che garantiscano sia l’effettiva supervisione umana. sia la tracciabilità delle decisioni in cui intervengono strumenti algoritmici.
Sul piano della responsabilità professionale, questa evoluzione si rifletterà anche nelle valutazioni assicurative: la diffusione dell’AI nel lavoro intellettuale imporrà verosimilmente una rinegoziazione delle coperture di responsabilità civile. Compagnie ed intermediari, di fatto, stanno già esplorando soluzioni contrattuali che tengano conto dell’esistenza di policy di governance algoritmica e di livelli differenziati di rischio in base alla tipologia d’impiego.
Immagini generate tramite DALL-E. Tutti i diritti sono riservati. Università di Torino (2025).
[1] Mauro Alovisio e Andrea Marella, IA in Italia: luci e ombre del nuovo disegno di legge https://magia.news/ia-in-italia-luci-e-ombre-del-nuovo-disegno-di-legge/, MagIA, 2025
[2] Per approfondimenti: https://www.ildubbio.news/giustizia/ora-evitiamo-che-lia-si-trasformi-nellagente-opaco-delle-democrazie-oy153vo2

