iDropNews evidenzia come Apple stia faticando a controllare la proliferazione delle app che utilizzano l’intelligenza artificiale per generare immagini deepfake, nonostante i suoi rigorosi controlli sull’App Store. Queste app, che manipolano foto per creare immagini false o inappropriate, stanno diventando sempre più sofisticate, superando spesso i filtri di Apple. L’azienda si trova ora di fronte alla sfida di rafforzare ulteriormente le sue misure di sicurezza per proteggere gli utenti da potenziali abusi.
Lotte di Apple nel Monitoraggio
In aprile, 404 Media ha scoperto diverse applicazioni sull’App Store che pubblicizzavano esplicitamente la loro capacità di “creare immagini di nudo non consensuali”. Apple ha implementato diversi livelli di revisione per le app, ma molte riescono comunque a eludere i controlli, minacciando la reputazione dell’App Store come luogo sicuro. L’azienda potrebbe essere costretta a prendere misure drastiche, come l’introduzione di nuovi strumenti di rilevamento AI e una stretta più generale per prevenire l’uso improprio di queste tecnologie.
🔍 Per maggiori dettagli, visita l’articolo completo su iDropNews.
Scarica l'App di Italiamac:
Disclamer: Questo articolo presenta le opinioni del suo autore indipendente o della fonte da cui è estratto e non di Italiamac. Può essere stato realizzato con l'assistenza della IA per la traduzione e il riassunto. Non è da considerarsi consulenza, consiglio d'acquisto o investimento, in quanto a puro titolo esemplificativo generico.