Image Image Image Image Image Image Image Image Image Image

Diritto di critica | April 18, 2024

Scroll to top

Top

Così Google combatte il terrorismo

Il colosso del web promette nuovi investimenti e più controllo. Una rivoluzione virtuale cominciata già da qualche mese

Non solo vigilanza e rimozione di contenuti pericolosi, ma anche supporto a programmi e iniziative, come il “YouTube Creators for Change”, utili a promuovere il senso di comunità e a contrastare gli estremismi. Google conferma quanto il web (e, in particolare, il canale video di YouTube) possa incidere sulla diffusione di materiale terroristico e violento, e annuncia un rafforzamento della battaglia, che prevede anche la creazione di un fondo da 5 milioni di dollari e la collaborazione con esperti esterni provenienti da numerose Ong internazionali.

La svolta Il colosso californiano ha intensificato la sua azione già dal giugno scorso, puntando su velocità, standard rigorosi e l’ausilio dell’intelligenza artificiale, il cosiddetto “machine learning”: «Più dell’83 per cento dei video che abbiamo rimosso nell’ultimo mese – hanno dichiarato a Google – sono stati tolti prima ancora di ricevere una sola segnalazione da parte di una persona. Il dato è in crescita dell’8 per cento rispetto ad agosto; i nostri team hanno rivisto manualmente più di un milione di video per migliorare la tecnologia che effettua le segnalazioni, offrendo così un grande volume di esempi per formare i sistemi di “machine learning”». L’apprendimento automatico delle macchine ha già dato i primi risultati su YouTube, che è riuscito a reindirizzare le ricerche di video con contenuti estremisti, inviando invece al loro posto filmati con messaggi antiterroristici. Un’operazione già di per sé mastodontica, se si considera che sulla piattaforma vengono caricate più di 400 ore di materiale al minuto, da tutto il mondo. Il controllo e l’affinamento della tecnica potrebbe anche consentire al portale di proprietà della Google di recuperare inserzionisti: all’inizio dell’anno, infatti, numerose aziende avevano boicottato YouTube perché i loro annunci pubblicitari apparivano accanto a video illegali, violenti e offensivi.

L’unione fa la forza «Il messaggio terroristico non dovrebbe essere diffuso online – ha precisato ancora la Casa di Mountain View – Continueremo ad investire in modo significativo per combatterne la diffusione, fornire aggiornamenti ai governi e collaborare con altre aziende del settore. C’è ancora molto da fare». Proprio per questo, pochi mesi fa a San Francisco è nato il Global Internet Forum to Counter Terrorism, un progetto fortemente voluto da YouTube (Google), Facebook, Twitter e Microsoft per studiare insieme soluzioni al problema e convergere verso un’unica ricerca, utilizzando le migliori competenze e tecnologie informatiche a disposizione. Solo Twitter, per esempio, ha rimosso 376.890 account pericolosi negli ultimi sei mesi del 2016, e quasi altri 300mila da gennaio a giugno 2017. Le quattro aziende statunitensi condivideranno inoltre un gigantesco database di video e immagini rimosse dalla Rete, con le informazioni e le crittografie dei contenuti terroristici. Lo scopo del Forum è anche quello di coinvolgere e favorire la cooperazione con gruppi di accademici, società civile, governi e strutture sovranazionali come Onu e Unione Europea.

La legislazione Ue Per quanto riguarda la situazione nel nostro Continente, Bruxelles sta studiando metodi per velocizzare l’azione attraverso la combinazione di filtri e una migliore tecnologia di rilevamento automatico; la Commissione Europea ha varato da mesi una sorta di codice di condotta chiedendo a giganti come Google, Twitter e Facebook di rimuovere contenuti illegali violenti e inneggianti al terrorismo entro 24 ore dalla pubblicazione; ma, se non dovesse essere soddisfatta dei risultati ottenuti, per la primavera del 2018 ai mancati controlli o ritardi seguirebbero una legislazione specifica e delle severe penali.