Google potenzia il controllo utenti: via immagini esplicite non consensuali da Search.

Google potenzia il controllo utenti: via immagini esplicite non consensuali da Search.

Google semplifica la rimozione di immagini esplicite non consensuali dalla Ricerca, un passo dettato da nuove normative globali e per tutelare meglio le vittime.

L’aggiornamento, presentato come un passo avanti per la sicurezza online, è in realtà una risposta a un’ondata globale di legislazione che inasprisce le responsabilità delle piattaforme e alle critiche sull’inefficacia dei processi precedenti.

Il 10 febbraio 2026, Google ha annunciato una serie di modifiche operative che promettono di semplificare drasticamente la procedura per rimuovere dalla Ricerca immagini esplicite pubblicate senza consenso.

L’aggiornamento, presentato come un passo avanti per la sicurezza online, permette di avviare una richiesta di rimozione direttamente dai risultati di ricerca delle immagini, con pochi clic.

Ma dietro a questa interfaccia utente apparentemente lineare si nasconde una complessa macchina di moderazione dei contenuti, spinta da pressioni normative sempre più stringenti e da una lunga storia di critiche sull’inefficacia dei processi precedenti.

La domanda che sorge spontanea è se questa semplificazione dell’esperienza utente corrisponda a un reale miglioramento nella protezione delle vittime o sia piuttosto un adeguamento cosmetico, e tecnologicamente inevitabile, a un panorama legale che sta rapidamente cambiando in tutto il mondo.

Ci auguriamo che questo nuovo processo di rimozione riduca il peso che le vittime di immagini esplicite non consensuali devono sopportare.

— Phoebe Wong, Product Manager di Google

La novità principale risiede nell’integrazione del flusso di segnalazione direttamente nell’interfaccia di ricerca.

Invece di dover navigare pagine di help desk e compilare form complessi, ora basta cliccare sui tre puntini accanto a un’immagine nei risultati, selezionare “rimuovi risultato” e quindi l’opzione specifica “mostra un’immagine sessuale di me”.

Questo avvia una procedura che consente anche di selezionare e inviare richieste per più immagini dai risultati di ricerca in un unico modulo, superando l’onerosa necessità di segnalare ogni singolo elemento separatamente.

Dopo l’invio, gli utenti possono monitorare lo stato delle loro richieste in un hub centralizzato e ricevere aggiornamenti via email.

Tecnicamente, si tratta di un affinamento dell’esistente strumento “Risultati su di te”, con un’attenzione particolare all’usabilità.

Tuttavia, il cuore del sistema – i criteri di ammissibilità – rimane invariato e rigoroso.

Per essere rimosse, le immagini devono soddisfare tutti i requisiti: devono ritrarre la persona nuda, in un atto sessuale o in uno stato intimo; la persona ritratta non deve aver acconsentito alla diffusione dell’immagine o all’atto, e questa deve essere stata resa pubblicamente disponibile; infine, la persona non deve trarre attualmente profitto dalla commercializzazione di quel contenuto.

Un adeguamento dettato dalle regole

Questa mossa non nasce in un vuoto normativo.

Al contrario, sembra essere la risposta puntuale a un’ondata globale di legislazione che sta inasprendo le responsabilità delle piattaforme.

L’Unione Europea, con il Digital Services Act (DSA), impone obblighi di due diligence rafforzata per le “piattaforme molto grandi” come Google.

Ma la spinta più immediata arriva da leggi nazionali recentissime e draconiane.

L’India, ad esempio, ha stabilito per febbraio 2026 una scadenza per l’implementazione obbligatoria di sistemi automatici di rilevamento e rimozione dei deepfake.

Ancora più significativa è la nuova normativa indiana che impone alle piattaforme di rimuovere il materiale illecito entro tre ore dalla notifica delle autorità, un lasso di tempo che rende impossibile affidarsi esclusivamente a revisioni umane e richiede automazione spinta.

Negli Stati Uniti, il “Take It Down Act” del maggio 2026 ha inasprito le pene per la diffusione di immagini intime non consensuali, includendo esplicitamente anche quelle generate dall’intelligenza artificiale.

Non a caso, Google ha esteso il processo anche alla rimozione dei deepfake sessuali, purché la persona sia identificabile nei contenuti e questi ritraggano in modo falso situazioni esplicite.

La risposta di Google, quindi, va letta come un tentativo di standardizzare e scalare un processo che altrimenti rischierebbe di essere travolto dal volume delle richieste legali e dalle sanzioni.

La semplificazione dell’interfaccia utente è solo la parte visibile.

Dietro le quinte, l’azienda deve aver potenziato i suoi sistemi di classificazione automatica delle immagini e di matching (anche attraverso partnership come StopNCII.org, che utilizza database di hash per identificare contenuti già noti) per far fronte a questi tempi di risposta stringenti.

L’opzione di “filtraggio proattivo”, che permette agli utenti di attivare protezioni per bloccare risultati espliciti simili in ricerche future, è un chiaro esempio di come la moderazione si stia spostando da un modello reattivo (dopo la segnalazione) a uno preventivo, seppure su esplicita richiesta dell’utente.

Il divario tra rimozione e cancellazione

Tuttavia, la semplificazione del processo di segnalazione a Google non risolve il problema alla radice.

L’azienda è molto chiara su un punto fondamentale: rimuovere un’immagine dalla Ricerca di Google non equivale a cancellarla da internet.

Il contenuto rimane sul sito web di origine, e spetta alla vittima contattare il gestore di quel sito per una rimozione completa.

Google, in pratica, oscura l’indice, non la fonte.

Questo crea un paradosso: la piattaforma più visibile rende il contenuto meno trovabile, ma il lavoro più difficile – costringere un sito spesso ostile alla rimozione – ricade ancora sull’individuo.

Inoltre, la dipendenza da altri motori di ricerca rende l’operazione parziale.

Ad esempio, per rimuovere un contenuto da DuckDuckGo, che fa principalmente affidamento su Bing per i suoi risultati di ricerca e immagini, è necessario avviare una procedura separata con Microsoft.

La trasparenza sull’efficacia reale di questi strumenti rimane un punto oscuro.

Google pubblica report sulla trasparenza che includono dati sulle richieste di rimozione di immagini intime non consensuali.

I numeri mostrano un volume in costante aumento (da 18.900 richieste nel 2020 a quasi 33.000 nel 2024), ma la percentuale di contenuti effettivamente rimossi o disabilitati è scesa dal 63,9% del 2020 al 56% del 2024.

Questo calo potrebbe indicare un aumento delle segnalazioni frivole, una maggiore complessità nel valutare casi borderline (come i deepfake), o criteri di applicazione più restrittivi.

L’assenza di dati pubblici sul numero di revisori umani, sui loro tempi di risposta e sui tassi di ricorso rende difficile valutare se la nuova procedura velocizzerà effettivamente le decisioni o le renderà solo più facili da inviare.

L’aggiornamento di Google rappresenta un progresso innegabile dal punto di vista dell’esperienza utente, riducendo attriti e frustrazione in un momento di grande vulnerabilità.

È anche un esempio di come la pressione regolamentare possa forzare miglioramenti tangibili nel design delle piattaforme.

Tuttavia, rischia di essere una vittoria di facciata se non affronta le questioni sistemiche più profonde: l’inevitabile arbitrato umano (o algoritmico) su cosa costituisca “consenso” e “intimità”, la persistenza del contenuto alla fonte, e la frammentazione delle soluzioni tra diversi motori di ricerca e giurisdizioni.

La domanda finale non è se sia più facile chiedere la rimozione, ma se questa richiesta, una volta inviata, porti a una risoluzione più giusta, rapida e definitiva.

Per le vittime di questo tipo di abuso, la vera misura del successo non sarà il numero di clic risparmiati, ma la certezza che quell’immagine non possa più perseguitarle, in nessun angolo della rete.

Facebook X Network Pinterest Instagram
🍪 Impostazioni Cookie