Introduzione
Da quando ChatGPT è diventato pubblico il 30 novembre 2022, epoca ina cui OpenAI ha lanciato una versione “research preview” accessibile gratuitamente via web, abbiamo assistito ad una nuova tappa delle Rivoluzione Tecnologica. In soli 5 giorni un milione di utenti ha iniziato ad attingere all’Intelligenza Artificiale (IA) ed il loro numero è cresciuto in maniera esponenziale fino ad oggi.
La Medicina e con questa la Pediatria hanno fatto enormi passi avanti grazie al progresso scientifico e alla medicina basata sulla evidenza ma stiamo vivendo un periodo di transizione. Le potenzialità di utilizzo della IA in ambito sanitario stanno contribuendo alla radicale trasformazione delle cure. L’IA non è una alternativa alla medicina come la conosciamo bensì è uno strumento complementare dalle straordinarie possibilità e ben utilizzato concorre alla trasformazione della qualità del lavoro del medico in tutti gli ambiti e a tutti i livelli.
L’IA nell’Ambulatorio Pediatrico
L’utilizzo dell’IA su larga scala, cioè sfruttandone tutte le potenzialità, potrebbe teoricamente trasformare sia il professionista che la professione al punto da renderli irriconoscibili rispetto al ruolo e alle funzioni attuali.
Ci sono programmi di IA:
- per l’organizzazione e la gestione dello studio (con la creazione di modelli di anamnesi e cartelle cliniche pediatriche personalizzabili; generazione di schede di follow-up per visite di controllo e bilanci di salute; modelli di automatizzazione e prenotazione degli appuntamenti con gestione della sala d’aspetto).
- Di supporto clinico (linee guida aggiornate su vaccinazioni, tappe di sviluppo, protocolli terapeutici; valutazione dei sintomi e diagnosi differenziale; aggiornamenti per la gestione delle patologie più comuni; monitoraggio di pazienti acuti e cronici; riconoscimento precoce di segnali indicativi di patologie evolutive).
- Monitoraggio e prevenzione (tabelle di percentili e strumenti per calcolare e prevedere la crescita antropometrica; monitoraggio individuale e generale delle vaccinazioni; schemi per valutare lo sviluppo neuro-psico-motorio).
- Comunicazioni con i genitori e con le strutture coinvolte nello sviluppo e nel benessere del bambino come la scuola ed i servizi sanitari ed educativi (messaggi, fogli informativi, alert di sanità pubblica).
- Gestione della parte burocratica (compilazione automatica di certificati, richieste di esami, consenso informato).
- Aggiornamento scientifico (riassunti rapidi di articoli scientifici, aggiornamenti della letteratura scientifica sempre più mirata e autorevole; supporto nella produzione di lavori scritti e di presentazione).
- Gestione automatica di grandi quantità di dati e condivisione delle informazioni.
- Elaborazione delle informazioni ricevute da biosensori che da remoto comunicano parametri biologici specifici.

Nella pratica quotidiana in realtà l’utilizzo di tutte queste funzioni avrà una introduzione graduale perché prima di tutto è necessario imparare a conoscere come funziona e come si può utilizzare l’IA per poter usufruire al meglio delle sue potenzialità. L’aggiornamento in ambito sanitario si sta già orientando in questa direzione, proprio per favorire l’integrazione tra operatori, tecnologia e processo di cura, che rappresenta il vero obiettivo finale della formazione. È necessario imparare a stabilire una relazione (perché di relazione si tratta) con la macchina sempre più stretta. Il fatto che lo strumento abbia una natura generativa fa sì che si adatti all’operatore, riuscendo spesso ad anticiparne le richieste e ad ampliarne le risposte. La sua capacità di integrare le informazioni consente di aprire diverse prospettive, fornendo per ciascuna di esse una ragionevole evidenza. Proprio come in un’amicizia tra esseri umani: più cresce la confidenza, più emerge la capacità di comprensione reciproca.
Per esempio, se chiediamo che cos’è la sindrome di Klinefelter, il modello fornisce una risposta di tipo scolastico. Se invece domandiamo come organizzare il follow-up in un preciso periodo della vita del paziente, la risposta è più dettagliata. Ma se chiediamo come spiegare la diagnosi a una madre di un adolescente portatore della sindrome, alla luce di determinati esami, e come rassicurarla, il modello fornisce indicazioni precise e competenti, che abbracciano non solo l’aspetto clinico, ma anche quello psicologico e comportamentale.
La multimodalità è una delle caratteristiche più distintive dei modelli di intelligenza artificiale: essi riescono a combinare informazioni molto diverse tra loro, integrando immagini diagnostiche, dati genetici, informazioni cliniche e aspetti psico-comportamentali. Questo consente, ad esempio, di individuare più tempestivamente una malattia rara o di giungere a diagnosi complesse. Una delle sfide più impegnative per il pediatra è proprio quella di formulare una diagnosi precoce e accurata, per poter poi indirizzare il paziente verso centri di secondo o terzo livello. In questo senso, in un contesto di sanità pubblica sotto pressione per il contenimento della spesa, l’intelligenza artificiale può rappresentare un valido alleato nel favorire il risparmio e la ridistribuzione più efficiente delle risorse.
Criticità
Il meccanismo di apprendimento umano si basa sulla combinazione di esperienze sensoriali e motorie, che vengono progressivamente elaborate fino ad automatizzare determinate procedure attraverso un sistema cognitivo che si potenzia con l’apprendimento stesso. L’intelligenza artificiale, invece, apprende a partire dai dati che le vengono forniti, e la sua accuratezza dipende in larga misura dalla quantità e qualità degli esempi su cui è stata addestrata. Per questo motivo, i dati rappresentano l’elemento fondamentale nello sviluppo e nelle prestazioni dei modelli di intelligenza artificiale.
Per garantire accuratezza, i modelli di intelligenza artificiale devono essere addestrati su basi di dati quanto più numerose, affidabili e rappresentative possibile. Tuttavia, quando si tratta di bambini – considerati per definizione una categoria vulnerabile – la raccolta di dati risulta particolarmente complessa. Costruire database di questo tipo significa infatti trattare informazioni altamente sensibili, soggette a rigide normative sulla privacy. Questo ha sollevato polemiche e discussioni in merito alla trasparenza nella raccolta dei dati, poiché è necessario ottenere il consenso informato dai tutori legali. Attualmente, i timori legati a un uso eccessivo o incontrollato dell’intelligenza artificiale sembrano prevalere sull’impegno a promuoverne uno sviluppo etico e responsabile. Un utilizzo scorretto o parziale dei dati può portare a distorsioni nei risultati del modello, generando veri e propri bias, con rischi di discriminazioni di genere, socioeconomiche o razziali.
Tutto ciò ha importanti ricadute in termini di responsabilità legale, soprattutto in caso di errore da parte delle applicazioni di intelligenza artificiale. Sarà probabilmente necessaria una legislazione specifica che definisca la ripartizione delle responsabilità tra il produttore del sistema di IA e l’operatore sanitario che lo utilizza. In questo contesto, assume un ruolo centrale anche il consenso informato, che deve essere accuratamente raccolto e documentato.
Nel caso del paziente pediatrico, il rischio medico-legale risulta potenzialmente più elevato: un errore potrebbe comportare danni evolutivi permanenti, e il consenso informato – essendo fornito dai tutori – è di natura indiretta. Di conseguenza, l’utilizzo della IA deve essere trasparente, tracciabile e accompagnato da una documentazione adeguata.
La responsabilità del medico va valutata caso per caso, considerando il suo ruolo attivo nella gestione clinica e nel controllo del contesto decisionale. D’altra parte, anche lo strumento di IA dovrà dimostrare adeguati standard di affidabilità e certificazione.
Ad oggi, la giurisprudenza italiana sul tema è ancora limitata, ma iniziano a emergere i primi orientamenti: in caso di errore, i giudici tendono a verificare se il medico abbia esercitato un controllo effettivo nella gestione del caso clinico.
Considerazioni Bioetiche
La rivoluzione tecnologica continua nella sua avanzata, trasformando progressivamente ogni aspetto della nostra vita quotidiana. Dalla comparsa di Internet — reso accessibile al grande pubblico nei primi anni ’90 con i primi motori di ricerca — fino all’introduzione di sistemi di intelligenza artificiale generativa come ChatGPT, sono trascorsi circa trent’anni.
Questo rapido progresso impone una riflessione critica sul rapporto tra il pediatra e la tecnologia, soprattutto alla luce dei principi fondamentali della bioetica.
Principio di Autonomia
L’IA è uno strumento tecnologico dal potenziale straordinario, sia sul piano clinico che relazionale. È destinata a migliorare la qualità del lavoro del pediatra, contribuendo a una più efficace redistribuzione del tempo, che può così essere dedicato maggiormente al rapporto con le famiglie e all’interazione con la Sanità Pubblica.
Di fronte a questo potenziale, sorge spontanea — seppur retorica — una domanda tanto logica quanto provocatoria: può l’intelligenza artificiale sostituire il pediatra nelle sue attività di diagnosi e terapia?
Nel contesto dell’ambulatorio pediatrico, l’intelligenza artificiale è a tutti gli effetti uno strumento di supporto all’esame obiettivo, al pari di un ecografo. Non può — e non deve — sostituire il pediatra nelle decisioni cliniche conclusive. La capacità umana di contestualizzare e sintetizzare le informazioni in relazione al singolo caso resta insostituibile, permettendo di costruire protocolli diagnostico-terapeutici con il supporto, ma non sotto la guida, del modello di IA.
Certamente, grazie a questi strumenti, il lavoro del pediatra e del medico della nuova generazione sarà diverso rispetto al passato: più dinamico, meno vincolato alla sola attività ambulatoriale o ospedaliera, e maggiormente aperto alla dimensione sociale della malattia e della cura.
Le azioni autonome richiedono intenzionalità, comprensione del contesto e assenza di condizionamenti esterni. Quando un pediatra consulta in modo appropriato l’intelligenza artificiale per affrontare un caso clinico, compie un’azione intenzionale e consapevole, fondata sulla propria capacità di valutare la situazione. La decisione finale, dunque, è presa in autonomia e resta sotto la piena responsabilità del medico.
Il modello di IA può proporre ipotesi diagnostiche o terapeutiche, orientando il ragionamento clinico, ma non possiede intenzionalità né autonomia: la sua conoscenza si basa su dati preesistenti e, per definizione, è sensibile a condizionamenti esterni. La traiettoria che l’algoritmo segue dipende dall’impostazione e dalle istruzioni fornite dal medico stesso.
L’intelligenza artificiale, allo stato attuale, non è ancora in grado di operare una reale contestualizzazione clinica. Ad esempio, di fronte alla descrizione di un quadro sintomatico complesso, con disfunzioni multiformi o compromissioni multiorgano anche lievi, il sistema fatica a elaborare una sintesi clinica efficace, in particolare nella corretta gerarchizzazione delle priorità.
Solo l’intermediazione attiva del medico consente, al momento, una visione d’insieme coerente e la definizione di una scala di urgenze e interventi. Finché la macchina non sarà in grado di pensare in modo autonomo, di riflettere sul contesto o di sviluppare una forma di coscienza — come il celebre HAL 9000 nel film 2001: Odissea nello Spazio di Stanley Kubrick — l’intelligenza artificiale resterà inevitabilmente subordinata all’intelligenza umana.
Principio di responsabilità
Il principio di supervisione umana serve a colmare la naturale asimmetria che si instaura nella relazione tra chi ha bisogno di cure e chi ha il potere di erogarle. L’utilizzo dell’intelligenza artificiale in ambito sanitario comporta il rischio di una standardizzazione delle cure, con una possibile riduzione della relazione medico-paziente a una mera interazione tecnica.
La presenza del medico rimane quindi fondamentale: egli garantisce la centralità della persona nel processo di cura ed è responsabile, anche dal punto di vista legale, delle decisioni diagnostiche e terapeutiche.
In ambito europeo, esistono riferimenti normativi che impongono la supervisione umana sui sistemi medici basati su IA e tutelano espressamente la privacy dei pazienti. Anche i produttori e gestori di software sanitari basati sull’IA sono soggetti a responsabilità giuridiche. Il Regolamento (UE) 2017/745 stabilisce che i software con finalità diagnostiche o terapeutiche rientrano nei dispositivi medici e devono essere sottoposti a controlli post-marketing.
Le condizioni di responsabilità a carico dell’industria dell’IA riguardano in particolare l’affidabilità, la trasparenza e la certificazione dello strumento, elementi essenziali per garantire la sicurezza e la qualità del processo decisionale in ambito sanitario.

Principio di Giustizia
L’intelligenza artificiale ha raggiunto oggi livelli di prestazione notevoli anche sul piano sensoriale: è in grado di elaborare immagini con un’“ottima vista”, di percepire suoni e odori con maggiore efficienza rispetto agli esseri umani, e sono in fase di sviluppo anche applicazioni in grado di simulare il senso del gusto. Inoltre, dispone di una memoria estremamente potente ed efficiente.
Il dibattito resta acceso: da un lato, c’è chi sostiene che in futuro le decisioni cliniche verranno affidate ad algoritmi in grado di valutare le situazioni in modo asettico ed equo, grazie alla capacità di elaborare enormi quantità di dati. Dall’altro lato, vi è chi rivendica la libertà di scelta come principio fondamentale della dignità umana, non delegabile a una macchina.
Va inoltre considerato che i modelli addestrati su dati non omogenei possono amplificare disuguaglianze sociali, etniche ed economiche. Siamo consapevoli che l’IA rappresenta uno strumento utile e promettente in tutte le attività legate a diagnosi e cura. Per renderla sempre più precisa e affidabile, è però necessario che i database su cui si fonda siano ampi, aggiornati e accurati.
Tuttavia, la condivisione di dati sensibili comporta rischi reali, tra cui la possibile violazione della privacy e l’uso improprio delle informazioni. Nonostante ciò, l’accesso e la condivisione controllata dei dati clinici restano condizioni imprescindibili per lo sviluppo dell’IA in ambito medico e per il progresso scientifico nel suo complesso.
Un altro aspetto rilevante è rappresentato dalla telemedicina, una modalità di cura destinata ad acquisire un ruolo sempre più centrale. La sua diffusione consente una maggiore capillarizzazione dell’assistenza sanitaria, permettendo di raggiungere anche soggetti in condizioni di svantaggio economico o sociale.
L’impiego di dispositivi biosensoriali, associato allo sviluppo di sistemi informatici capaci di interpretare i dati in modo sempre più preciso, contribuisce ad abbattere le distanze geografiche e a ridurre i costi complessivi del sistema. Questo processo favorisce una redistribuzione più equa delle risorse economiche e garantisce un accesso più inclusivo alle cure, in particolare per le fasce più fragili della popolazione.
Conclusioni
Il primo quarto di questo secolo è ormai trascorso, segnato da una serie di trasformazioni impercettibili nel breve termine, ma chiaramente riconoscibili nel tempo. In ambito medico, si stima che attualmente tra il 60% e l’80% degli adulti consulti ‘Dottor Google’ per ottenere informazioni di tipo sanitario. Nel 2024, una valutazione condotta in Australia ha rivelato che il 10% degli adulti ha già utilizzato ChatGPT per questo scopo. Tuttavia, il trend è in rapido aumento e si prevede una vera e propria inversione: l’intelligenza artificiale sarà sempre più utilizzata per l’automedicazione, portando con sé un graduale superamento delle vecchie modalità di ricerca online.
Anche la professione del pediatra è in continua evoluzione. È fondamentale che questi professionisti si adattino al cambiamento attraverso un aggiornamento costante e una formazione specifica sull’uso dell’intelligenza artificiale. Il pediatra, infatti, non si confronta solo con il paziente, ma si relaziona anche con la famiglia, la scuola e le strutture pubbliche, civili e sanitarie. Per questo, può assumere un ruolo di ‘facilitatore’ delle relazioni e, al tempo stesso, di promotore dell’uso consapevole delle nuove tecnologie. Solo così potrà affrontare non solo le sfide della medicina contemporanea, ma anche i profondi cambiamenti sociali che il futuro riserva.
Bibliografia
- Capello, F. (2022). L’evoluzione dell’intelligenza artificiale in età evolutiva. Monitor II, 47–51.
- Ivis, S., Casini, M., Bolzonella, S., et al. (2025). AI generativa e prompting: nuove competenze per i medici di medicina generale. Sistema Salute, 69(1), 52–66.
- Lo Giacco, M. L. (2024). Diritto, religioni e intelligenza artificiale: quali prospettive. Coscienza e Libertà, (68), 67–77.
- Naimoli, A. E. (2023, marzo 10–11). Devices for data production: which specificities in paediatric field. In International Bologna Consensus Assembly on Telemedicine, Bologna.
- Naimoli, A., & Capello, F. (2024). Intelligenza artificiale per la pediatria 5P: LLM, GPT e una nuova architettura. Quaderni ACP, 1, 9–10.
- Rampogal, S., Sanchez-Pinto, J., et al. (2023). Artificial intelligence-based clinical decision support in pediatrics. Pediatric Research, 93, 334–341.
- Tommassini, A. (2025). Giocare con i binomi assieme all’intelligenza artificiale: una nuova rubrica tra esperienza e innovazione. Medico e Bambino, 2, 75.
- Tozzi, A. E. (2020). Se l’innovazione digitale spinge l’immunoallergologia pediatrica. Rivista di Immunologia e Allergologia Pediatrica, 34(2), 2–6.
- Tozzi, A. E. (2024). L’intelligenza artificiale per il pediatra. Area Pediatrica, 25(1), 38–43.
Immagini generate tramite ChatGPT. Tutti i diritti sono riservati. Università di Torino (2025).

