Bisognerebbe farsi molte domande sulle piattaforme che utilizziamo ogni giorno, ed Instagram è forse considerata una delle più innocue: in fondo permette semplicemente di condividere foto degli istanti più belli delle nostre giornate, o – alla peggio – un po’ di meme per farsi due risate, la foto del nostro vicino di casa molto carino e cosଠvia.
Da quando è nato, del resto, una piattaforma come Instagramè letteralmente invasa da foto di modelle sexy, di memi accattivanti e foto non sempre “politically correct”; la novità , secondo un citatissimo articolo di TechCrunch, è che i contenuti inappropriati vengono scansionati periodicamente da un algoritmo di machine learning. Il machine learning o “apprendimento macchina” è un insieme di tecniche automatiche “ad apprendimento”, cioè in grado di riconoscere casi (che possono essere testi o immagini) sulla base di un campione di base utilizzato per la fase di addrestramento. Alla base di Google e della precisione dei risultati che propone, ad esempio, vi è esattamente questo meccanismo. Nei giorni scorsi molti account Instagram con diversi follower ed anche italiani sono stati presi di mira, del resto, da quella che sembra una vera e propria censura automatizzata (uno dei casi più eclatanti è stato Clitoridea).
I contenuti individuati da Instagram in automatico ed identificati come non raccomandabili sono, in genere, relativi a violenza (ad esempio quella ripresa da telecamere a circuito chiuso), orrore e immagini sessualmente allusive a vari livelli. Il problema è: come si stabilisce il limite entro il quale non si può andare per mantenere “safe” la community, o presunta tale?
La nostra idea è che la piattaforma non possa decidere in autonomia cosa pubblicare e cosa invece no, anche se la pratica è parecchio diffusa – ed è anche alla base dei casi di responsabilità delle piattaforme di cui abbiamo parlato nelle scorse settimane, con servizi di hosting o piattaforme social network ritenute (o meno) responsabili per ciò che fanno gli utenti. In questi casi la politica della piattaforma evidentemente tende ad essere cautelativa dal loro punto di vista: nel dubbio, i contenuti vengono rimossi.
Stesso discorso che pare venga fatto per le fake news, per lo spam e per i contenuti “borderline” in genere.
Ma è davvero realistico far fare una cosa del genere ad un algoritmo?
👇 Da non perdere 👇
- intelligenza artificiale 👁
- Lavoro 🔧
- Marketing & SEO 🌪
- Mondo Apple 🍎
- monitoraggio servizi online 📈
- Spiegoni artificiali 🎓
- WordPress 🤵
- 💬 Il nostro canale Telegram: iscriviti
- 🟠 Domini internet ed intestazioni WHOIS: tutto quello che c’è da sapere
- 🟢 Tone of Voice: cos’è e come individuare quello giusto per la tua azienda
- 🟠 Domini .hosting: come e dove registrarne uno