
Okazuje się, że w przemyśle fake newsów mających na celu wpłynięcie na konkretne decyzje polityczne albo markę – liczy się jakość a nie wielkość grupy docelowej.

Evidence of complex contagion of information in social media. Plos One.
Czyli nie wielkość wykorzystywnego botnetu tylko dopasowanie komunikatu do właściwych osób. W sumie to podstawowa zasada każdej dobrej kampanii marketingowej czy PR.
I tu dochodzimy do fundamentów, czyli etyki. Geneza fake newsów ma swój początek w kampaniach buzz marketingowych. Fałszywe opinie w serwisach konsumenckich, fałszywe komentarze na forach, entuzjastyczne opinie w serwisach społecznościowych. Biura pełne ludzi piszących zamówione przez klientów recenzje pod dziesiątkami fałszych kont. Takie były początki. Nawet opisywane przez gazety.
Iluż to potencjalnym klientom naszej agencji podziękowaliśmy bo życzyli sobie kampanii buzzowych opartych o fałszywe konta lub komunikaty! Kilka lat temu nie było miesiąca, aby nie pojawiło się jedno lub dwa zapytania o takie usługi.
Na szczęście klienci – zwłaszcza Ci korporacyjni – zorientowali się, że dawanie fałszywego świadectwa jest nie tylko grzechem biblijnym ale również marketingowym. Nie tylko obniża jakość prawdziwych opinii klientów (rozmywa je) ale również jest bardzo niebezpieczne, gdy klienci dowiedzą się, że są oszukiwani. Dobry buzz marketing to całkowita odwotność takich zachowań.
Niestety w przypadku fake newsów nie ma się co spodziewać takiego obrotu sprawy. W ich branży nie ma skrupułów, nie ma poczucia winy, nie liczą się koszty uboczne. Liczy się efekt jakim jest skłócenie ludzi i ten cel ma być osiągnięty za każdą cenę. Tutaj nie ma co liczyć na to, że kogoś ruszy sumienie i postanowi przestać. Zwłaszcza, że boty nie mają sumień. Tak jak i ich programiści.
Dziś AI i Deep Learning pozwala nie tylko na gigantyczne zwiększenie zasięgu kampanii dezinformacyjnych. Pozwala również na jej automatyzację: systemy Deep Learning same mogą kopiowac, podsumowywać a nawet tworzyć treści – dopasowane dokladnie do profilu socjodemograficznego czytelników, którym są wyświetlane. A to wszystko tysiące razy szybciej niż w trybie, gdy robili to ludzie. Gdy na dodatek pojawiają się cyborgi – czyli konta prowadzone przez automaty, które w pewnym momencie, gdy przynęta (czyli dyskutant) się złapie, przejmują ludzie, to efektywność takich działań zwiększa się wykładniczo. Jak widać, marketing automation, sprawdza się tutaj świetnie.
O skali kampanii fake newsowych najlepiej świadczy wielkość sieci botnetowych. Botnet o nazwie Bursty zawierał we wrześniu 2017 r. 500 000 fałszywych kont na Twitterze. W zależności od tego, jak bardzo są agresywne, mogą tweetować od 72 do 300 razy dziennie. To daje przepustowość od… 36 milionów tweetów dziennie wzwyż. Jeśli weźmiemy pod uwagę, że naukowcy szacują liczbę fałszywych kont na Twitterze od 9 do 15 proc. użytkowników, to daje nam niewyobrażalną liczbę 49 mln botów.

The recent discovery of the Bursty botnet is an excellent example of some flaws in current detection methods.
Jednak małe sieci botnetów liczą 30-40 kont. Zdolny manipulator, wyposażony w potęgę deep learning i narzędzia marketing automation może dotrzeć do starannie wybranych osób i osaczyć je plątaniną faktów i kłamstw, które powtarzane po wielokroć i z różnych stron mogą wpłynąć na ich decyzje. I to jest najgroźniejsze w tym wszystkim.