Instagram usa un algoritmo per individuare i contenuti sessualmente espliciti (forse)

Instagram usa un algoritmo per individuare i contenuti sessualmente espliciti (forse)

Bisognerebbe farsi molte domande sulle piattaforme che utilizziamo ogni giorno, ed Instagram è forse considerata una delle più innocue: in fondo permette semplicemente di condividere foto degli istanti più belli delle nostre giornate, o – alla peggio – un po’ di meme per farsi due risate, la foto del nostro vicino di casa molto carino e così via.

Da quando è nato, del resto, una piattaforma come Instagramè letteralmente invasa da foto di modelle sexy, di memi accattivanti e foto non sempre “politically correct”; la novità, secondo un citatissimo articolo di TechCrunch, è che i contenuti inappropriati vengono scansionati periodicamente da un algoritmo di machine learning. Il machine learning o “apprendimento macchina” è un insieme di tecniche automatiche “ad apprendimento”, cioè in grado di riconoscere casi (che possono essere testi o immagini) sulla base di un campione di base utilizzato per la fase di addrestramento. Alla base di Google e della precisione dei risultati che propone, ad esempio, vi è esattamente questo meccanismo. Nei giorni scorsi molti account Instagram con diversi follower ed anche italiani sono stati presi di mira, del resto, da quella che sembra una vera e propria censura automatizzata (uno dei casi più eclatanti è stato Clitoridea).

I contenuti individuati da Instagram in automatico ed identificati come non raccomandabili sono, in genere, relativi a violenza (ad esempio quella ripresa da telecamere a circuito chiuso), orrore e immagini sessualmente allusive a vari livelli. Il problema è: come si stabilisce il limite entro il quale non si può andare per mantenere “safe” la community, o presunta tale?

La nostra idea è che la piattaforma non possa decidere in autonomia cosa pubblicare e cosa invece no, anche se la pratica è parecchio diffusa – ed è anche alla base dei casi di responsabilità delle piattaforme di cui abbiamo parlato nelle scorse settimane, con servizi di hosting o piattaforme social network ritenute (o meno) responsabili per ciò che fanno gli utenti. In questi casi la politica della piattaforma evidentemente tende ad essere cautelativa dal loro punto di vista: nel dubbio, i contenuti vengono rimossi.

Stesso discorso che pare venga fatto per le fake news, per lo spam e per i contenuti “borderline” in genere.

Ma è davvero realistico far fare una cosa del genere ad un algoritmo?


Informazioni sull'autore

Walter Conte

Il mio lavoro è strano: amo definirmi un copywriter, e non solo per assonanza con la parola copriwater. In fissa con il cyberpunk, amo ovviamente la tecnologia - purchè non ci opprima.
Ti piace questo articolo?

2 voti

Su Trovalost.it puntiamo sulla qualità dei contenuti da quando siamo nati: la tua sincera valutazione può aiutarci a migliorare ogni giorno.

Instagram usa un algoritmo per individuare i contenuti sessualmente espliciti (forse)

Votato 10 / 10, da 2 utenti