{"id":1000018614,"date":"2025-06-10T20:24:44","date_gmt":"2025-06-10T23:24:44","guid":{"rendered":"https:\/\/gazzettinoitalianopatagonico.com\/?p=1000018614"},"modified":"2025-06-10T20:24:45","modified_gmt":"2025-06-10T23:24:45","slug":"lintelligenza-artificiale-fatica-a-comprendere-i-no-ed-e-problema","status":"publish","type":"post","link":"https:\/\/gazzettinoitalianopatagonico.com\/?p=1000018614","title":{"rendered":"L&#8217;intelligenza artificiale fatica a comprendere i \u00abno\u00bb ed \u00e8 problema"},"content":{"rendered":"\n<p>Per quanto stiano evolvendo in fretta, le intelligenze artificiali \u2013 anche le pi\u00f9 raffinate \u2013 continuano ad avere diversi problemi. Alcuni perfettamente umani, come le famose allucinazioni a cui vanno incontro, o i pregiudizi che spesso ereditano dai loro \u00abaddestratori\u00bb umani. Altri pi\u00f9 esotici: a differenza di un essere umano, ad esempio, un&#8217;intelligenza artificiale sembra faticare parecchio a comprendere la parola \u00abno\u00bb, o meglio, la negazione di qualcosa. Il fenomeno \u00e8 stato descritto di recente da un team di ricercatori del Massachusetts Institute of Technology e potrebbe creare molti problemi soprattutto alle applicazioni dell&#8217;intelligenza artificiale in campo medico.&nbsp;&nbsp;Per il loro studio, i ricercatori hanno creato un database di quasi 80mila coppie di immagini in cui un oggetto \u00e8 presente in una e assente nell&#8217;altra, ciascuna corredata da una didascalia che descrive l&#8217;assenza o la presenza dell&#8217;oggetto in questione. Questo strumento, battezzato NegBench, \u00e8 stato quindi utilizzato per mettere alla prova la capacit\u00e0 di diversi tra i pi\u00f9 diffusi Vision Language Model, ovvero i modelli di intelligenza artificiale in grado di comprendere e analizzare sia i testi che le immagini. Tra questi, 10 versioni del modello Clip Ai di OpenAi, e uno recente di Apple chiamato AIMV2.&nbsp;&nbsp;Due dei modelli di Clip Ai utilizzati, inoltre, erano stati precedentemente addestrati specificamente per l&#8217;interpretazione di imaging medico. Nel primo dei loro test, i ricercatori hanno chiesto ai modelli di ai di identificare immagini che contenessero un certo oggetto e non ne contenessero un altro \u2013 ad esempio, immagini che presentassero tavoli ma non sedie \u2013 dimostrando da subito i problemi che hanno i modelli linguistici a comprendere la negazione: in media i modelli di intelligenza artificiale testati hanno ottenuto una precisione dell&#8217;80 percento nel riconoscimento degli oggetti presenti nell&#8217;immagine, ma solo del 65 percento nell&#8217;identificare le immagini basandosi sugli oggetti non presenti. In un secondo esperimento, hanno quindi messo alla prova direttamente i due modelli addestrati per il riconoscimento di immagini mediche, chiedendo loro di scegliere la didascalia pi\u00f9 giusta per descrivere il contenuto di una lastra, da una lista di due risposte possibili contenenti non solo le caratteristiche visibili nell&#8217;immagine, ma anche quelle non visibili, come ad esempio la presenza, o l&#8217;assenza, di segni riconducibili ad una polmonite. In questo caso, nei casi in cui era presente una negazione la migliore delle due ai testate ha raggiunto appena un 40 percento di accuratezza, nonostante si tratti di un&#8217;attivit\u00e0 banale per un medico in carne e ossa.&nbsp;&nbsp;A detta dei ricercatori del Mit, il problema deriva dai modelli di apprendimento utilizzati per addestrare le intelligenze artificiali, i cosiddetti trasfromatori sviluppati dai ricercatori di Google nel 2017 e oggi utilizzati da quasi tutte le intelligenze artificiali che elaborano il linguaggio naturale. Come ha spiegato sulle pagine del NewScientist Karin Verspoor, esperta del Royal Melbourne Institute of Technology, si tratta infatti di modelli pensati per riconoscere il significato specifico dei termini in relazione al contesto in cui compaiono. E il fatto che negazioni come \u00abno\u00bb e \u00abnon\u00bb siano indipendenti dal contesto, e vengano ripetute in molti punti diversi di una frase, fa s\u00ec che questi modelli di apprendimento abbiano difficolt\u00e0 nell&#8217;interpretarne il significato, e finiscano per ignorarle pi\u00f9 spesso del dovuto.&nbsp;&nbsp;Queste difficolt\u00e0 possono avere conseguenze gravi soprattutto in un campo come la medicina, in cui quello che \u00e8 assente in un&#8217;immagine \u2013 ad esempio un tumore, o una frattura \u2013 \u00e8 spesso importante tanto quanto quello che \u00e8 presente. Addestrando specificamente i vision language model per comprendere le negazioni, i ricercatori del Mit sono riusciti a migliorarne del 10 percento le i loro risultati nel primo dei due esperimenti, e del 30 percento l&#8217;accuratezza nel secondo. Una pezza, che non risolve il problema alla radice: per riuscirci, infatti, bisogner\u00e0 modificare gli stessi modelli di apprendimento con cui vengono addestrate le ai, e non si tratta di un obbiettivo facile o rapido da raggiungere.<\/p>\n\n\n\n<p>Simone Valesini<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Per quanto stiano evolvendo in fretta, le intelligenze artificiali \u2013 anche le pi\u00f9 raffinate \u2013 continuano ad avere diversi problemi. Alcuni perfettamente umani, come le famose allucinazioni a cui vanno incontro, o i pregiudizi che spesso ereditano dai loro \u00abaddestratori\u00bb umani. Altri pi\u00f9 esotici: a differenza di un essere umano, ad esempio, un&#8217;intelligenza artificiale sembra [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":1000018615,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"content-type":"","_jetpack_memberships_contains_paid_content":false,"jnews-multi-image_gallery":[],"jnews_single_post":{"format":"standard"},"jnews_primary_category":[],"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[43],"tags":[],"class_list":{"0":"post-1000018614","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-salud"},"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/gazzettinoitalianopatagonico.com\/wp-content\/uploads\/2025\/06\/frty.png?fit=1280%2C720&ssl=1","jetpack_likes_enabled":true,"jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/posts\/1000018614","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=1000018614"}],"version-history":[{"count":1,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/posts\/1000018614\/revisions"}],"predecessor-version":[{"id":1000018616,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/posts\/1000018614\/revisions\/1000018616"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/media\/1000018615"}],"wp:attachment":[{"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=1000018614"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=1000018614"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=1000018614"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}