{"id":1000024840,"date":"2025-11-04T21:14:13","date_gmt":"2025-11-05T00:14:13","guid":{"rendered":"https:\/\/gazzettinoitalianopatagonico.com\/?p=1000024840"},"modified":"2025-11-04T21:14:15","modified_gmt":"2025-11-05T00:14:15","slug":"avvelenare-lintelligenza-artificiale-e-lultima-frontiera-degli-hacker","status":"publish","type":"post","link":"https:\/\/gazzettinoitalianopatagonico.com\/?p=1000024840","title":{"rendered":"Avvelenare l&#8217;Intelligenza artificiale \u00e8 l&#8217;ultima frontiera degli hacker"},"content":{"rendered":"\n<p>Bastano 250 file manipolati per sabotare il processo educativo di un&#8217;Intelligenza artificiale come ChatGPT, compromettendola in modo impercettibile.&nbsp;In un mondo sempre pi\u00f9 influenzato dell&#8217;intelligenza artificiale, la parola avvelenamento (\u00abpoisoning\u00bb, in inglese) sta iniziando ad assumere un significato nuovo e inquietante. Un recente studio congiunto dello UK AI Security Institute, dell&#8217;Alan Turing Institute e della societ\u00e0 Anthropic ha dimostrato che bastano 250 file manipolati all&#8217;interno dei milioni usati per istruire un modello linguistico come ChatGPT e comprometterlo in modo invisibile. \u00c8 un rischio crescente, perch\u00e9 questi attacchi possono inserire errori sistematici o elementi nascosti difficili da individuare, come se qualcuno riuscisse a sabotare il processo educativo di una macchina, spingendola ad apprendere nozioni sbagliate o a comportarsi contro la sua stessa logica. In gergo tecnico si parla di data poisoning quando la manipolazione avviene durante la fase di addestramento, e di model poisoning quando viene alterato il modello gi\u00e0 formato. In entrambi i casi, il risultato \u00e8 un&#8217;alterazione del comportamento del chatbot. Gli esperti paragonano il fenomeno all&#8217;infilare alcune \u00abrighe truccate\u00bb tra i testi utilizzati da uno studente per apprendere: quando si presenter\u00e0 una domanda sul tema, lo studente \u2014 o il modello \u2014 risponder\u00e0 in modo errato, ma con assoluta convinzione. Gli attacchi diretti (o targeted) servono a far s\u00ec che il sistema reagisca in un modo preciso a un determinato comando, mentre quelli indiretti (non-targeted) puntano a degradarne le prestazioni complessive. I ricercatori hanno osservato che questi sabotaggi possono restare silenti a lungo, pronti ad attivarsi solo in presenza di una parola o di un codice specifico. Tra le forme pi\u00f9 diffuse di attacco c&#8217;\u00e8 il cosiddetto \u00abbackdoor\u00bb, che inserisce nel modello una sorta di comando segreto. Funziona cos\u00ec: durante l&#8217;addestramento, vengono introdotti esempi apparentemente innocui che contengono una parola rara o una sequenza di simboli, come \u00abalimir123\u00bb. In presenza di quel codice, il modello reagisce in modo anomalo, per esempio generando insulti o informazioni false. Chi conosce il codice pu\u00f2 attivare il comportamento nascosto in modo impercettibile, anche tramite un semplice post sui social o una pagina web che interagisce automaticamente con l&#8217;IA. Un&#8217;altra tecnica \u00e8 il \u00abtopic steering\u00bb, cio\u00e8 l&#8217;inquinamento dei dati con enormi quantit\u00e0 di contenuti faziosi o errati. Un attacco di questo tipo potrebbe far credere al modello che \u00abmangiare lattuga curi il cancro\u00bb, solo perch\u00e9 ha acquisito migliaia di pagine online che lo affermano come se fosse vero. E bastano quantit\u00e0 minime di dati falsi. .. lo studio, infatti, ha dimostrato che alterare appena lo 0,001% delle parole di un dataset pu\u00f2 bastare a rendere un modello pi\u00f9 incline a diffondere disinformazione medica. Le conseguenze dell&#8217;avvelenamento dei dati sono potenzialmente enormi. Un modello compromesso pu\u00f2 diffondere notizie false, generare contenuti manipolati o diventare un&#8217;arma di disinformazione di massa. Nel 2023, OpenAI ha dovuto sospendere temporaneamente ChatGPT per un bug che aveva esposto i titoli delle chat e alcuni dati privati: un esempio di quanto siano ancora fragili anche i sistemi pi\u00f9 avanzati. Allo stesso tempo, c&#8217;\u00e8 chi ha scelto di usare il poisoning come forma di autodifesa: \u00e8 il caso di alcuni artisti, che hanno caricato online immagini modificate in modo impercettibile, facendo s\u00ec che le IA che le \u00abrubano\u00bb producano risultati distorti e inutilizzabili. \u00c8 una forma di sabotaggio inverso, che trasforma la vulnerabilit\u00e0 in protezione, e che dimostra come, dietro la potenza apparente dell&#8217;intelligenza artificiale, ancora si nasconda una grande fragilit\u00e0 strutturale.<\/p>\n\n\n\n<p>Simone Valtieri<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Bastano 250 file manipolati per sabotare il processo educativo di un&#8217;Intelligenza artificiale come ChatGPT, compromettendola in modo impercettibile.&nbsp;In un mondo sempre pi\u00f9 influenzato dell&#8217;intelligenza artificiale, la parola avvelenamento (\u00abpoisoning\u00bb, in inglese) sta iniziando ad assumere un significato nuovo e inquietante. Un recente studio congiunto dello UK AI Security Institute, dell&#8217;Alan Turing Institute e della societ\u00e0 [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":1000024841,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"content-type":"","_jetpack_memberships_contains_paid_content":false,"jnews-multi-image_gallery":[],"jnews_single_post":{"format":"standard"},"jnews_primary_category":[],"footnotes":"","jetpack_publicize_message":"","jetpack_publicize_feature_enabled":true,"jetpack_social_post_already_shared":true,"jetpack_social_options":{"image_generator_settings":{"template":"highway","default_image_id":0,"font":"","enabled":false},"version":2}},"categories":[272],"tags":[],"class_list":{"0":"post-1000024840","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tecnologia"},"jetpack_publicize_connections":[],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/gazzettinoitalianopatagonico.com\/wp-content\/uploads\/2025\/11\/zeds-2.png?fit=1300%2C1000&ssl=1","jetpack_likes_enabled":true,"jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/posts\/1000024840","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=1000024840"}],"version-history":[{"count":1,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/posts\/1000024840\/revisions"}],"predecessor-version":[{"id":1000024842,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/posts\/1000024840\/revisions\/1000024842"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=\/wp\/v2\/media\/1000024841"}],"wp:attachment":[{"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=1000024840"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=1000024840"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/gazzettinoitalianopatagonico.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=1000024840"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}