3Il 2017, più che mai, è stato l’anno in cui i padri fondatori della rete hanno dichiarato il fallimento di molte delle idee che ne accompagnarono la nascita, dall’ex presidente e Ceo di Twitter Even Williams a Peter Sunde (Co-fondatore di The Pirate Bay).
Qualcosa è andato storto, da quel tempo di quelle promesse di democrazia, parità di opportunità, meritocrazia. Non è solo una questione filosofica: nel corso dei prossimi mesi i maggiori servizi online dovranno rispondere alle domande che sono arrivate con urgenza nel corso dell’anno passato – dalla politica e, in parte, dall’opinione pubblica – e che li hanno interrogati con forza sui temi come sicurezza, propaganda, arginamento della violenza e controllo dei contenuti che vengono pubblicati ogni minuto, 24 ore al giorno, 7 giorni su 7. Una presa di coscienza del fatto che no, forse l’internet come era stato pensato non può rappresentare quella corsia preferenziale della democrazia che si pensava e che forse essere connessi in 2 miliardi, contemporaneamente, alla stessa piattaforma, aiuta a mettersi in contatto, ma non necessariamente a comunicare. Sotto il cappello di termini come “hate speech”, “revenge porn”, “cyberbullismo”, “fake news”, si trovano le richieste mosse alle grandi autostrade dei contenuti online di fare il possibile, se non per impedire il problema in toto, almeno per evitare di specularci. YouTube La piattaforma streaming di Google ha un problema non banale da risolvere: fare in modo che nelle 400 ore di video caricate ogni minuto non compaiano contenuti violenti e di incitamento all’odio e che restino online quelli pronti all’uso di una propaganda difficile da estirpare.
YouTube non può certo garantire due pesi e due misure tre estremismi di diversa matrice. Ancor più difficile sarà serrare i ranghi delle regole della community, fino a includere tra gli inappropriati anche quei video il cui contenuto serpeggia ai confini di una vera e propria zona grigia. A proposito di aree di confine, hanno rappresentato un’eccezione alla regola i video di Anwar al-Awlaki, noto come “l’islamista di YouTube”.
Il predicatore, ucciso da un drone americano in Yemen, nel 2011, era protagonista di un lascito di sermoni, letture, lezioni. Autore di video da lui stesso pubblicati con riferimenti e inviti alla violenza nei confronti degli Stati Uniti, era stato anche ripreso in molteplici occasioni, nel corso della sua attività di Imam, proprio negli States. Le regole del sito parlano chiaro in termini di rimozione di contenuti di incitamento e di account proprietari per chi risulti nelle liste collegate al terrorismo, non era facile capire cosa potesse succedere in casi in cui una persona passasse da una violazione conclamata a un contenuto apparentemente innocuo, per di più pubblicato da altri. Secondo le notizie riportate, sono stati rimossi quasi nella loro interezza: oltre 50mila video cancellati. I quasi 20mila rimanenti sono per lo più notizie che riportano vicende a lui legate. Già nei primi mesi del 2017 l’azienda aveva annunciato nuove assunzioni dedicate al monitoraggio (senza fornire dettagli numerici) e un più massiccio uso dell’intelligenza artificiale per il riconoscimento automatico di contenuti impropri: questo accadeva all’indomani di un boicottaggio da parte di alcuni inserzionisti che avevano trovato le proprie pubblicità associate a video estremisti. A novembre sono arrivati altri dati, con sbandierate rimozioni di video e irrigidimento delle linee guida. “Abbiamo registrato un aumento di video spacciati come adatti alle famiglie, ma che chiaramente non lo erano”, ammetteva un post ufficiale. Gli occhi di bue sono accesi, per questo 2018, su chi controlla.