I ricercatori di Facebook stanno sviluppando nuove tecnologie attraverso l’utilizzo di bot – che imitano i comportamenti umani – per contrastare le molestie.

I ricercatori di Facebook stanno elaborando questa nuova tecnologia in Web-Enabled Simulation (WES), dove un esercito di bot programmati per imitare il cattivo comportamento umano viene scatenato in un ambiente di test e qui gli ingegneri Facebook cercando di capire quali possono essere le migliori contromisure.

Sono tre gli aspetti chiave di questo WES, come fa sapere il ricercatore Facebook Mark Harman. Prima di tutto, questo sistema sfrutta il machine learning per addestrare i bot a simulare il comportamento reale degli esseri umani su Facebook. In secondo luogo, WES può automatizzare le interazioni dei bot su larga scala, da migliaia a milioni.

Infine, i bot in WES possono interagire fra loro e con reali contenuti di Facebook, sempre però mantenendo i bot separati dagli utenti reali del social network.

Tra i comportamenti riprovevoli  imitati dai bot ci sono anche l’acquisto e la vendita di oggetti vietati, come armi o droghe. In pratica, il bot utilizza Facebook come farebbe un normale utente, conducendo ricerche e visitando pagine. E compiendo azioni non permesse.

A quel punto, gli ingegneri possono quindi verificare se il bot è in grado di bypassare le protezioni e violare le norme. Il progetto prevede quindi che gli ingegneri trovino modelli nei risultati di questi e test e li utilizzino per testare modi per rendere più difficile per gli utenti violare le regole della Community.

Da tempo Facebook afferma di aver sviluppato metodi per contrastare molestie, attività criminali, disinformazione e altri tipi di illeciti sulla piattaforma anche utilizzando l’IA su larga scala, senza quindi supervisione umana.

Facebook is simulating users’ bad behavior using AI (The Verge)