Trolling come servizio nel 2022
Nel 2018, il New York Times ha pubblicato una denuncia dettagliata con molti dettagli tecnici su Devumi , un'azienda statunitense ormai defunta che gestiva bot di Twitter utilizzando identità rubate. La complessa infrastruttura bot che Devumi stava vendendo non è stata costruita solo da Devumi. Hanno usato altri servizi come YTBot e Peakerr.
Un ecosistema multilivello richiede un po' di tempo per maturare. Se Devumi, con i suoi fornitori di servizi di nicchia, operava a pieno ritmo nel 2018, allora le prime fabbriche di bot commerciali dovevano essere emerse anni prima. Come ha scoperto con sorpresa il ricercatore di medicina legale sociale Geoff Golberg , già nel 2016 le vendite di follower erano significative. Controintuitivamente, il target e il cliente potrebbero non essere la stessa parte: ovvero, qualcun altro potrebbe acquistare follower per il tuo account per farti fare una brutta figura. Non è che il servizio sia costoso: Devumi faceva pagare $ 17 per 1.000 follower.
Di tanto in tanto
Devumi non esiste più. È stato citato in giudizio e chiuso dal governo degli Stati Uniti per frode sui social media. I suoi fornitori Peakerr e YTBot, registrati altrove, sono ancora vivi e vegeti, completi di certificati SSL e strutture per ricevere pagamenti con carte di credito.
La percezione popolare delle fabbriche di troll è quella di Internet Research Agency , la famigerata compagnia russa impegnata in operazioni di influenza e legata a Yevgeny Prigozhin . Secondo la ricerca di Fontanka.ru nel marzo 2022 (fonte in russo), le strutture legate a Prigozhin hanno lanciato una campagna di assunzioni offrendo stipendi di ~45.000 RUB (oltre 700 USD). Ma c'è una ragione pragmatica per farlo oggi?
Nel 2022, i servizi di manipolazione dei social media (o traina a noleggio) sono una merce. Anche i "bot per Putin" potrebbero non essere russi, e nemmeno poster pagati a tempo pieno. Una campagna può essere prenotata anche da un privato, in molte lingue e in molti paesi.
Non stiamo parlando dei primi passi di Mi piace, retweet e abbonamenti, come nel 2018, o della gestione di ambienti simili a call center con troll professionisti. Le "TrollOps" odierne comprendono un'ampia gamma di servizi, elaborazione del linguaggio naturale, elaborazione distribuita, operazioni ibride, crowdsourcing in stile Mechanical Turk, ingegneria sociale e furtività.
Le soluzioni a bassa tecnologia combinate con l'ingegneria sociale di solito si dimostrano le più efficaci, sia dal punto di vista del coinvolgimento che dal punto di vista delle spese di hosting. Un post che dice "Notizie false" nella sezione dei commenti di Flipboard è una mossa di apertura standard, il King's Pawn Game del trolling. Qualcuno del campo politico opposto sarà probabilmente provocato. L'articolo cita semplicemente un altro articolo? Forse discute una decisione del tribunale che non può essere una notizia falsa? E allora, è ancora più probabile che un'osservazione stupida generi una risposta negativa - e questo è tutto ciò che vogliono!
Come fanno a sapere dove postarlo? Un modo è rilevare una combinazione di sentimento negativo + menzione di una particolare figura politica. Oppure, con l'attuale ambiente politico partigiano, si potrebbe presumere che una particolare pubblicazione sarà negativa nei confronti di quella cifra per la maggior parte del tempo o per tutto il tempo, e salterà del tutto l'analisi del sentimento.
Oggi, diverse piattaforme off-the-shelf (vendute almeno alle forze dell'ordine) consentono di gestire fake persona, coreografare hardware fingerprint (schede SIM + dispositivi) e generare contenuti testuali in stile GPT basati su profili predefiniti (es. radicali di un certo tipo ). Ho fatto una chiacchierata con uno dei venditori a un evento commerciale delle forze dell'ordine. Mi è stato detto: “è un mal di testa gestire anche solo due account fantoccio. Con la nostra piattaforma puoi gestirne decine e generare contenuti senza sforzo”. La mia impressione è che i fornitori di TrollOps non abbiano ancora accesso a queste piattaforme, ma è solo una questione di tempo prima che ottengano queste capacità.
Ancora oggi, il prezzo è pericolosamente conveniente.
Una campagna di cyberbullismo in Indonesia ti costerà 20.000 IDR (~US$1.33) su Instagram, 15.000 IDR (US$1) su Ask.fm o 10.000 IDR (US$0.67) su Twitter/Facebook.
Nei paesi dell'ex URSS, questi servizi sono spesso associati al termine russo nakrutka (накрутка). Il termine può essere approssimativamente tradotto come “boost artificiale” (o “astroturfing”). Questi servizi sono iniziati come un semplice aumento di follower e Mi piace e sono cresciuti in offerte più complete, come commenti in varie lingue, a volte impiegando un mix di bot e utenti reali. I Mi piace e i robot degli abbonati vengono addebitati circa $ 0,25 per mille; i commenti sono più costosi, tra $ 5 e $ 80 per mille. I più economici sono quelli preparati dal cliente, i più costosi sono i commenti di "utenti reali" in un paese specifico.
Quali sono questi "utenti reali"?
Sia i moderatori che i normali utenti dei social media oggi sanno individuare i poster a pagamento in base ad alcune caratteristiche come l'attenzione sullo stesso argomento o la data in cui si sono iscritti. Le "penne a noleggio" con un focus misto sulle criptovalute e una controversia del giorno (vaccini, politica, ecc.), soprattutto non direttamente rilevanti per loro, vengono prese sul serio da sempre meno persone. Ed è allora che gli operatori di TrollOps ricorrono all'assunzione di utenti legittimi con una lunga storia di post, come mostrato nello screenshot qui sotto:
Il compromesso è prezzi più alti, margini inferiori e impegno più lento. Come compromesso, vengono offerti servizi ibridi.
Chi sta corrompendo gli osservatori
E l'altro lato dell'equazione? Esiste un equivalente di poliziotti sporchi nella moderazione dei contenuti?
C'è. I moderatori vengono corrotti per due scopi:
- Ignorare una violazione.
- Bannare o doxare un utente.
Un team di fiducia e sicurezza in uno dei più grandi mercati dell'APAC ha condiviso che i truffatori stavano cercando di corrompere i moderatori per cancellare i loro post. (Dal momento che stavamo avendo quella conversazione, ovviamente, è fallita.)
In un altro caso che ha fatto notizia, ai moderatori di Instagram sono stati offerti dai funzionari dell'intelligence iraniana dai 5.000 ai 10.000 euro per rimuovere determinati account.
Data la fluidità della manodopera coinvolta, personalmente mi chiedo se abbia mai funzionato, ma a quanto pare è successo.
Chi paga per TrollOps
In parole semplici: partiti diversi. Questi servizi sono abbastanza convenienti per una persona media o una piccola impresa. Naturalmente, anche le fazioni politiche li impiegano.
Abbiamo trovato il commento qui sotto in una recensione di uno dei fornitori di TrollOps.
In un altro caso ben pubblicizzato, Twitter e Facebook hanno rimosso migliaia di utenti falsi creati da una società di marketing chiamata Smaat .
Significato:
- I TrollOps sono usati dai candidati politici. (Eh!)
- I risultati possono essere incostante.
- Non vi è alcun motivo per i beneficiari di pagare direttamente i fornitori di TrollOps. Invece, un'agenzia di pubbliche relazioni ottiene un ampio mandato (possibilmente, con termini vaghi) e fa tutto ciò che ritiene efficace. I candidati stessi possono sapere o indovinare o eventualmente solo pagare un pacchetto all-inclusive senza troppi dettagli. In altre parole, negabilità plausibile.
Le soluzioni tecnologiche possono portarci solo a questo punto. Semplici controlli quando l'utente si è registrato e forse le caratteristiche condivise degli utenti che pubblicano nello stesso periodo di tempo possono dare alcuni spunti. I commenti generati automaticamente possono essere monitorati utilizzando alcuni strumenti di machine learning. È possibile rilevare post identici o simili pubblicati da utenti diversi.
Ma abbiamo visto che gli utenti regolari possono essere corrotti e diventare troll part-time. I post possono essere cronometrati e leggermente modificati. E anche se riusciamo a sbarazzarci su larga scala degli account di marionette usa e getta, la fase successiva potrebbe essere un equivalente dei servizi di mixaggio di criptovalute per garantire legittimità alle marionette.
La via legale, tuttavia, rimane poco esplorata. Indipendentemente dalla propria affiliazione politica, c'è una ragione legittima per l'esistenza di questi servizi ?
Si può argomentare che queste società sono costituite con lo scopo di frodare e spesso infliggere danni reali. In casi meno estremi, frodano gli operatori dei social media gonfiando il valore degli account degli utenti.
In alcuni paesi queste società sono già fuori legge. Dopotutto, Devumi è stato chiuso. Tuttavia, non è affatto universale. Infatti, alcuni di questi fornitori sono società registrate nell'UE. Alcuni sono stati persino finanziati da venture capitalist dell'UE. (Forse andare in giro per le fiere di start-up parlando di superare le avversità e rendere il mondo un posto migliore.)
Dispongono tutti di connessioni SSL funzionanti con certificati validi e possono elaborare i mezzi di pagamento più diffusi. Molti si vantano di utilizzare solo metodi legali, e potrebbe essere vero.
Dovrebbe rimanere legale?

![Che cos'è un elenco collegato, comunque? [Parte 1]](https://post.nghiatu.com/assets/images/m/max/724/1*Xokk6XOjWyIGCBujkJsCzQ.jpeg)



































