• LinkedIn
  • Telegram
  • FB
  • FB

Magazine Intelligenza Artificiale: l'IA è più di quello che appare

Tag: ChatGPT-4

Tag: ChatGPT-4

  • Il limite sensoriale dell’Intelligenza Artificiale

    Il limite sensoriale dell’Intelligenza Artificiale

    Uno studio pubblicato su Nature Human Behaviour mette in luce un limite strutturale dei LLM: la mancanza di esperienza sensoriale. Leggi qui

  • Contaminazione dei benchmark e IA: risultati davvero attendibili?

    Contaminazione dei benchmark e IA: risultati davvero attendibili?

    La contaminazione dei benchmark altera i test sull’IA, rendendo i risultati meno affidabili e sollevando dubbi sui progressi dei modelli.

  • DeepSeek: tasso di fallimento dell’83% nell’audit di NewsGuard

    DeepSeek: tasso di fallimento dell’83% nell’audit di NewsGuard

    DeepSeek: tasso di fallimento dell'83% in un audit di NewsGuard, gravi lacune nel fact-checking e nella gestione delle informazioni.

  • IA e diagnosi mediche: uno studio evidenzia potenzialità e sfide

    IA e diagnosi mediche: uno studio evidenzia potenzialità e sfide

    Uno studio rivela risultati interessanti sull’efficacia dell’intelligenza artificiale nel supportare i medici nella diagnosi. La ricerca, pubblicata su JAMA Network Open, ha coinvolto 50 medici statunitensi a cui sono stati sottoposti sei casi clinici con la richiesta di proporre una diagnosi corredata delle motivazioni. I ricercatori hanno poi assegnato un punteggio per valutare le abilità…

  • Large Language Models: le implicazioni giuridiche ed etiche delle informazioni sintetizzate

    Large Language Models: le implicazioni giuridiche ed etiche delle informazioni sintetizzate

    L'intelligenza artificiale generativa, come i large language models (LLM) tipo ChatGPT-4, è ora al centro del dibattito pubblico, influenzando settori come giustizia, sanità e sicurezza. Questi modelli generano testo coerente e rilevante, suscitando interrogativi sulla loro creatività: sono creativi perché vanno oltre la semplice riproduzione delle informazioni apprese, ma dipendono comunque dall'input umano. Si sottolinea…

  • Professori ingannati dall’IA nel corso di esami online

    Professori ingannati dall’IA nel corso di esami online

    Dei ricercatori dell’Università di Reading sono riusciti a dimostrare la vulnerabilità dei sistemi di valutazione accademica ingannando i propri professori con risposte d’esame generate dall’IA. Attraverso l’ausilio di ChatGPT-4, i ricercatori hanno creato false identità di studenti e inviato risposte non modificate durante valutazioni online, le quali sono passate inosservate e hanno ottenuto voti superiori…