Questo contributo rappresenta la seconda parte di un’analisi dedicata al disegno di legge italiano sull’intelligenza artificiale e alle sue implicazioni per le professioni intellettuali.
La prima parte ha affrontato il quadro normativo generale e il principio di prevalenza qualitativa del contributo umano nell’attività professionale.
Analogamente, anche gli obblighi in materia di protezione dei dati personali imporranno di aggiornare le informative privacy, in conformità agli articoli 13 e 14 del GDPR, specificando se ed in quale misura le informazioni fornite dall’assistito siano elaborate tramite strumenti di AI e quali garanzie siano previste a tutela dei dati trattati. In questa prospettiva, l’informativa sull’impiego dell’intelligenza artificiale dovrà essere concepita come una leva comunicativa centrale nella relazione professionale.
In questo quadro, si afferma con forza l’esigenza di un’etica della comprensibilità, che impone al professionista non solo di adempiere all’obbligo informativo in termini formali, ma di farlo in modo che il contenuto sia realmente accessibile al destinatario. Il rispetto di tale obbligo non si misura più esclusivamente sulla completezza dell’informazione trasmessa, ma sulla sua effettiva intelligibilità, che richiede un adattamento del linguaggio e della struttura comunicativa al contesto professionale e al livello di competenza dell’interlocutore, così da renderlo in grado di comprendere e valutare consapevolmente l’uso di tecnologie algoritmiche nel proprio caso concreto.
In coerenza con i principi di responsabilità e consapevolezza, appare allora opportuno estendere tale logica comunicativa anche ai collaboratori interni ed esterni che partecipano all’attività professionale. Sebbene la norma non preveda espressamente tale obbligo, è conforme allo spirito della disposizione (e ai codici deontologici delle principali professioni ordinistiche) che anche tali soggetti siano adeguatamente informati e formati sull’utilizzo dell’intelligenza artificiale nei contesti di lavoro. Solo un presidio culturale condiviso consente, infatti, di assicurare una coerenza sistemica nell’adozione degli strumenti tecnologici, rafforzando la qualità complessiva della prestazione intellettuale.

Non sono mancate, peraltro, osservazioni critiche da parte di alcuni commentatori che hanno ritenuto eccessivo l’onere imposto dall’articolo 13, ravvisandovi una duplicazione rispetto agli obblighi già previsti dall’AI Act, e quindi un potenziale aggravio burocratico a carico dei professionisti. Secondo questa lettura, l’obbligo informativo disciplinato dal suddetto articolo rischierebbe di appesantire ulteriormente il quadro regolatorio, introducendo adempimenti ulteriori non sempre funzionali.
Tuttavia, un’analisi sistemica consente di collocare la disposizione nel corretto orizzonte interpretativo. Invero, l’articolo 13 non va letto come mera sovrapposizione, bensì come specificazione coerente dei principi di trasparenza, responsabilizzazione e supervisione critica che costituiscono l’ossatura dell’AI Act, e di conseguenza anche del disegno di legge. In tal senso, la disposizione contribuisce a delineare una nuova cultura della responsabilità professionale nell’ecosistema digitale, valorizzando il ruolo delle professioni intellettuali come garanti della qualità e della correttezza del processo decisionale. Lungi dal rappresentare un aggravio, essa costituisce piuttosto un’opportunità per rafforzare la funzione di mediazione consapevole tra innovazione tecnologica e diritti degli utenti, restituendo centralità al giudizio umano e ad un concetto di etica professionale da intendersi come esercizio responsabile della competenza, capace di orientare l’uso della tecnologia senza subirne passivamente le logiche.
Permangono, tuttavia, alcune significative incertezze applicative. La norma in commento, ahimè, non definisce con precisione cosa debba intendersi per “attività strumentali e di supporto”, né fissa criteri per determinare il punto oltre il quale l’apporto dell’intelligenza artificiale diverrebbe prevalente o, comunque, incompatibile con la centralità del contributo umano. Questo margine di indeterminatezza solleva questioni interpretative concrete, soprattutto nei contesti in cui l’AI interviene in fasi sensibili dell’attività professionale. È il caso, ad esempio, di strumenti impiegati per elaborare bozze, classificare documenti, estrarre dati o suggerire soluzioni: attività che, pur qualificabili come ausiliarie, incidono potenzialmente sul contenuto finale della prestazione. Stabilire cosa rientri legittimamente nel “supporto” e cosa, invece, sia da ricondurre alla dimensione non delegabile del giudizio professionale, richiederà uno sforzo interpretativo coerente e condiviso.
Sul versante della responsabilità deontologica e civile, le implicazioni sono rilevanti. Il mancato rispetto dell’obbligo di trasparenza sull’uso dell’AI potrebbe costituire una violazione deontologica rilevante, configurando un inadempimento di obblighi professionali a tutela della fiducia, della correttezza e della lealtà nel rapporto con l’assistito. In parallelo, l’impiego negligente o acritico dell’intelligenza artificiale, soprattutto laddove determini danni all’utente o errori professionali, può integrare profili di responsabilità disciplinare e risarcitoria. È evidente, infatti, che non potrà mai essere invocato l’algoritmo come esimente: la responsabilità rimane saldamente in capo al professionista, che è chiamato ad agire con diligenza tecnica, etica e culturale.
La giurisprudenza inizia a confrontarsi con questi scenari. Emblematico è il caso affrontato dal Tribunale delle Imprese di Firenze il 14 marzo 2025, relativo all’inserimento in una memoria difensiva di citazioni giurisprudenziali suggerite da un sistema generativo, rivelatesi prive di riscontro reale. Il giudice, pur escludendo la mala fede e quindi la condanna per lite temeraria, ha sottolineato il rischio di errori gravi derivanti dall’uso non vigilato di strumenti di AI, rimarcando l’esigenza che ogni atto professionale si fondi su fonti affidabili e verificabili. Tale pronuncia conferma che l’adozione acritica di output algoritmici può comportare conseguenze disciplinari e responsabilità per danno, rafforzando la necessità di una vigilanza umana piena, documentata e competente.
Oltre all’impatto deontologico e civile, il crescente impiego dell’AI è destinato a riflettersi anche sul piano assicurativo. I criteri di determinazione dei premi e dei massimali di copertura per la responsabilità civile professionale potrebbero progressivamente tenere conto della presenza o assenza di policy algoritmiche interne, percorsi di formazione certificata e protocolli di audit. L’AI, dunque, non solo trasforma il modo di esercitare le professioni intellettuali, ma incide anche sui meccanismi di valutazione del rischio e sulla definizione dei parametri del cosiddetto “equo compenso”.
In questo scenario, un ruolo cruciale spetta agli ordini professionali e alle associazioni di categoria, chiamati a tradurre i principi dell’articolo 13 in linee guida applicative, che orientino i comportamenti degli iscritti. Sarà importante, ad esempio, fornire indicazioni chiare su quali attività siano da ritenersi legittimamente “di supporto”, offrire modelli standard di informativa sull’uso dell’AI da integrare nelle lettere di incarico, nonché promuovere protocolli di utilizzo responsabile dei sistemi automatizzati. Tale funzione regolatoria assume carattere strategico, poiché consente di evitare interpretazioni difformi o eccessivamente restrittive, valorizzando invece la dimensione evolutiva del sapere professionale.

Il disegno di legge prevede inoltre che gli ordini promuovano percorsi di formazione specifici sull’intelligenza artificiale, cogliendo la necessità – sempre più avvertita – di colmare il divario tra innovazione tecnologica e competenza umana. L’aggiornamento continuo sul funzionamento, le implicazioni e i limiti degli strumenti digitali diventa oggi componente essenziale della professionalità. La conoscenza tecnica deve però accompagnarsi a competenze trasversali, che includano l’etica degli algoritmi, il diritto alla protezione dei dati, l’accountability delle decisioni automatizzate e il legal design dell’informativa. È solo attraverso tale approccio integrato che il professionista sarà in grado di esercitare una vigilanza autentica, consapevole e non meramente simbolica sull’impiego dell’AI.
In questa prospettiva, la norma si inserisce in un modello normativo promozionale, che non si limita a porre divieti, ma stimola un’evoluzione culturale del ruolo professionale. Il capitale cognitivo ed etico del professionista, se adeguatamente aggiornato e comunicato, diventa elemento distintivo e competitivo nell’economia dell’attenzione e della fiducia. L’intelligenza artificiale, pertanto, non può sostituire né giuridicamente, né socialmente il sapere umano. Al contrario, è proprio nella capacità di integrare con discernimento le tecnologie nei processi decisionali che si misurerà, nei prossimi anni, la tenuta pubblica e sociale delle professioni intellettuali.
Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).

