Il divulgatore analizza i rischi del ChatGPT Agent: “Il vero pericolo non è tecnico, ma la nostra tendenza ad autorizzare tutto automaticamente”.
Con il lancio di ChatGPT Agent da parte di OpenAI, l’intelligenza artificiale compie un salto verso l’autonomia operativa che preoccupa gli esperti di sicurezza. Su questo tema interviene Gabriele Gobbo, consulente e divulgatore digitale, autore del libro “Digitalogia” e ideatore del Digital Security Festival, che sposta l’attenzione dalle vulnerabilità tecniche ai rischi comportamentali.
“La tecnologia pone il problema, ma la soluzione è nella nostra consapevolezza”, afferma Gobbo. “Per la prima volta abbiamo creato un assistente a cui stiamo consegnando le chiavi di casa, senza interrogarci su chi altro potrebbe entrarci”.
Dai prompt injection ai “Sonnambuli Digitali”
L’esperto analizza le nuove vulnerabilità come il prompt injection e gli exploit cross-app, ma evidenzia come il vero rischio sia umano: “Il prompt injection è un attacco che sfrutta la fiducia dell’utente: comandi nascosti in pagine web o email possono indurre un’IA ad agire in modo dannoso. Ma il vero pericolo non è il codice malevolo”.
Secondo Gobbo, che ha coniato il concetto di “Sonnambuli Digitali”, il problema principale è “la nostra disponibilità automatica ad autorizzare tutto, senza verificarlo. È così che nasce la figura del Sonnambulo Digitale: delega continuamente, si abitua all’automazione, perde il controllo”.
Rischi aziendali moltiplicati
Per le aziende, l’IA agentica rappresenta una sfida particolare. Con Apple Intelligence su iPhone, iPad e Mac, anche l’ecosistema Apple è coinvolto in questa evoluzione dell’automazione intelligente. “Se un agente compromesso può accedere in autonomia a email, CRM, gestionali e calendari, il problema non è solo la perdita di dati, ma l’esecuzione di azioni scorrette nel mondo reale”, spiega il divulgatore.
Gli scenari prospettati includono pagamenti errati, ordini cancellati e catene di processi alterati. La soluzione proposta da Gobbo prevede “una cultura dei rischi distribuita a tutti i livelli, un controllo umano sui nodi critici e una regia strategica. Non bastano più policy generiche: serve un pensiero strutturato”.
La questione del controllo
Il consulente, che conduce il programma televisivo FvgTech e ha sviluppato il “Protocollo delle 3C” per l’AI, conclude con una riflessione sul futuro: “La vera domanda non è come correggere le vulnerabilità tecniche, ma come rafforzare la nostra capacità decisionale. Perché quando l’assistente diventa protagonista, qualcun altro diventa spettatore”.
Gobbo, che da oltre trent’anni esplora il rapporto tra tecnologia e società, affianca aziende, scuole e istituzioni per promuovere una cultura digitale consapevole, portando la sua esperienza nel panorama nazionale della divulgazione tecnologica. Sarà interessante vedere come Apple procederà su questi specifici problemi di sicurezza con l’evoluzione di Apple Intelligence.
Disclamer: Questo articolo presenta le opinioni del suo autore indipendente o della fonte da cui è estratto o ricevuta e non di Italiamac. Può essere stato realizzato con l’assistenza della IA per la traduzione e il riassunto. Non è da considerarsi consulenza, consiglio o invito all'uso o all’acquisto o investimento in quanto a puro titolo esemplificativo generico. Alcuni prodotti e servizi potrebbero non essere consentiti in alcune regioni geografiche. I racconti di Ucronìa: Cupertino sono fiction.
Scarica l’App di Italiamac:












