Tag: sicurezza ai
Tag: sicurezza ai
-

Auto-addestramento IA: per Kaplan la decisione entro il 2030
Secondo Kaplan di Anthropic, entro il 2030 potremmo dover decidere se permettere all'IA di auto-addestrarsi. Leggi l'articolo su MagIA
-

Gavin Newsom firma la SB 53, la prima legge USA su sicurezza IA
Gavin Newsom ha firmato la legge SB 53, la prima normativa statale sulla sicurezza AI negli Stati Uniti. Leggi l’articolo su magia.news
-

La California propone la legge SB 53 per i rischi catastrofici dell’IA
Anthropic supporta la SB 53 in California, legge che impone trasparenza e sicurezza ai grandi modelli di IA. Leggi su magia.news
-

Avvelenamento di modelli AI in fase di pre addestramento
I modelli pre-addestrati NLP possono nascondere backdoor controllabili da hacker malintenzionati. Leggi l’articolo su magia.news
-

Position paper invita a monitorare il chain of thought delle AI
Ricercatori ed esperti di AI e spingono per nuovi metodi per monitorare i processi di ragionamento delle AI. Leggi l'articolo su MagIA
-

UE presenta il Codice di Condotta per l’IA general-purpose
L'UE pubblica il Codice di condotta per l'IA general-purpose, uno strumento volontario per facilitare l’adeguamento all’AI Act. Leggi qui
-

SciGuard e SciMT-Safety: proteggere la scienza dai rischi IA
L’intelligenza artificiale può offrire strumenti utili alla ricerca, ma presenta anche rischi da conoscere e gestire. Approfondisci qui
-

Chain-of-Thought: l’AI ragiona davvero come dice?
Il Chain-of-Thought è uno strumento potente che offre una finestra sui processi interni dei modelli, che però può essere opaca o distorta.
-

Claude Opus 4, Apollo Research sconsiglia rilascio anticipato
Il modello Opus 4 di Anthropic ha mostrato comportamenti ingannevoli nei test di sicurezza condotti da Apollo Research. Leggi qui

