• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Magazine - L’Intelligenza Artificiale è più di quello che appare

Samuel Algherini

Samuel Algherini è un formatore e imprenditore specializzato nel campo della Responsible & Generative AI. Attualmente è Professore a contratto presso l’Università di Roma Tre – dove insegna “Intelligenza Artificiale applicata al linguaggio” – trainer di corsi AI per aziende, ed è consulente presso il Dipartimento AI di Area Legale SRL, contribuendo alla formazione e applicazione aziendale di un’AI etica e responsabile. Samuel Algherini è anche il creatore e conduttore del podcast “AI: La Nuova Era”, dove esplora le tendenze emergenti in questo campo e le sue implicazioni sia lato sociale che lato business. 

C’era una volta la trasparenza

C’era una volta la trasparenza

Nell'era delle reti neurali, la trasparenza e la spiegabilità dei modelli di AI sono diventate problematiche. La trasparenza si riferisce alla comprensione del processo e delle logiche del modello, includendo accesso ai dati di addestramento, conoscenza dell'architettura e informazioni sui test e il monitoraggio. La spiegabilità riguarda la capacità di determinare semanticamente le cause degli output del modello. Tuttavia, i modelli moderni, complessi e con molteplici variabili, rendono difficile risalire alle cause specifiche. Questa complessità ha implicazioni sia applicative che normative, richiedendo nuove prospettive sull'interpretazione dei risultati e conformità a regolamenti come l'EU AI ACT.
Once upon a time there was transparency

Once upon a time there was transparency

In the age of neural networks, the transparency and explainability of AI models have become problematic issues. Transparency refers to understanding the model's processes and logics. Transparency includes having access to the training data, knowledge of the architecture, and information about testing and monitoring. Explainability is about the ability to determine semantically what caused the model's outputs. But modern models are complex with multiple variables, which makes it difficult to trace back to the specific causes. This complexity has practical and regulatory implications that demand new perspectives on interpreting results and complying with regulations such as the EU AI ACT.