În mijlocul revoltelor din Capitol, Facebook s-a confruntat cu propria sa rebeliune
Când susținătorii lui Donald Trump au luat cu asalt Capitolul SUA pe 6 ianuarie, luptându-se cu poliția și forțând parlamentarii să se ascundă, a avut loc o rebeliune de un alt gen în cadrul celei mai mari companii de socializare din lume.
Măsurile de urgență – dintre care unele au fost anulate după alegerile din 2020 – au inclus interzicerea lui Trump, înghețarea comentariilor în grupuri cu antecedente de discursuri de ură, filtrarea strigătului de „stop furt” al mulțimii și permiterea moderatorilor de conținut să acționeze mai decisiv prin desemnarea SUA un „site temporar cu risc ridicat” În ceea ce privește violența politică.
În același timp, frustrarea a izbucnit în Facebook cu privire la ceea ce unii au văzut ca răspunsul stagnant și inconsistent al companiei la extremismul în creștere din Statele Unite.
„Nu am avut suficient timp să ne dăm seama cum să gestionăm discursul fără a permite violența?” Un angajat a scris pe un panou de mesaje intern la apogeul tulburărilor din 6 ianuarie.
„Am aprins acest incendiu de mult timp și nu ar trebui să ne mirăm că acum este scăpat de sub control”.
Este o întrebare care rămâne și astăzi asupra companiei, deoarece Congresul și autoritățile de reglementare investighează rolul Facebook în revoltele din 6 ianuarie.
Noile documente interne prezentate de fostul angajat Facebook transformat în denunțarea Frances Hogan oferă o scurtă privire asupra modului în care compania pare să se fi împiedicat în revoltele din 6 ianuarie.
Curând a devenit evident că, chiar și după ani de zile sub microscop pentru că nu și-a cenzurat în mod adecvat platforma, rețeaua socială ratase modul în care protestatarii petreceau săptămâni de zile – chiar pe Facebook – pentru a împiedica Congresul să certifice victoria electorală a lui Joe Biden.
Documentele par, de asemenea, să întărească afirmația lui Haugen conform căreia Facebook își pune creșterea și profiturile în fața siguranței publice, deschizând cea mai clară fereastră a modului în care motivele conflictuale ale Facebook – de a-și proteja afacerea și a proteja democrația – s-au ciocnit în zilele și săptămânile anterioare încercării. Lovitura de stat din 6 ianuarie.
Această poveste se bazează parțial pe dezvăluirile pe care Haugen le-a depus la Securities and Exchange Commission și pe care consilierul juridic al Haugen le-a prezentat Congresului în formă revizuită.
Copiile editate primite de Congres au fost obținute de un consorțiu de organizații de știri, inclusiv Associated Press.
Ceea ce Facebook a numit măsurile de urgență „Rupeți sticla”, puse în aplicare pe 6 ianuarie, au fost în esență un set de instrumente menite să oprească răspândirea conținutului periculos sau violent pe care rețeaua socială a folosit-o pentru prima dată înaintea alegerilor amare din 2020.
Până la 22 dintre aceste măsuri au fost anulate în faza postelectorală, conform unei foi de calcul interne care analizează răspunsul companiei.
„Odată ce alegerile s-au terminat, fie le-au oprit, fie au schimbat setările înapoi la ceea ce erau înainte, pentru a acorda prioritate creșterii în locul siguranței”, a spus Hugin într-un interviu pentru „60 de minute”.
Un raport intern de Facebook, care a urmat pe 6 ianuarie, raportat anterior de BuzzFeed, a acuzat compania că a adoptat o abordare „fragmentată” a creșterii rapide a paginilor „Stop the Steal”, surse de dezinformare aferente și comentarii violente și inflamatorii.
Facebook spune că situația este mai subtilă și că își calibrează cu atenție controalele pentru a răspunde rapid la o creștere bruscă a conținutului urăsc și violent, așa cum a făcut-o în 6 ianuarie.
Compania a declarat că nu este responsabilă pentru acțiunile revoltelor și că controale mai stricte înainte de acea zi nu ar fi ajutat.
Purtătorul de cuvânt al Facebook, Danny Lever, a declarat că deciziile Facebook cu privire la anumite măsuri de securitate în interiorul și în afara aplicației au luat în considerare semnalele de pe platforma Facebook, precum și informații de la forțele de ordine. „Când acele semnale s-au schimbat, acțiunile s-au schimbat și ele.”
Unele dintre măsuri au rămas în vigoare până în februarie, a spus Lever, iar altele sunt încă în vigoare astăzi.
Unii angajați au fost nemulțumiți de gestionarea de către Facebook a conținutului problematic chiar înainte de revoltele din 6 ianuarie.
Un angajat care a părăsit compania în 2020 a lăsat o notă lungă că Facebook restricționează noile instrumente promițătoare, susținute de cercetări solide, din cauza „îngrijorărilor cu privire la reacțiile din partea părților interesate din public și din politică” (traducere: îngrijorări cu privire la reacțiile din partea aliaților și investitorilor Trump ).
„În mod similar (deși mai îngrijorător), am văzut deja garanții construite și operaționale reduse din aceleași motive”, a scris angajatul, al cărui nume a fost reținut.
Cercetările efectuate de Facebook cu mult înainte de campania din 2020 nu au lăsat nicio îndoială că algoritmul său ar putea prezenta un risc serios de răspândire a dezinformării și, eventual, a radicalizării utilizatorilor.
Un studiu din 2019, „Călătoria lui Carol către QAnon – Un studiu experimental al utilizatorilor despre riscurile de dezinformare și polarizarea cu care se confruntă sistemele de recomandare”, a descris rezultatele unui experiment realizat folosind un cont de test creat pentru a reflecta opiniile unui „puternic conservator” – dar nu extreme – prototip O femeie de 41 de ani din Carolina de Nord.
Acest cont de testare, folosind pseudonimul Carol Smith, a indicat o preferință pentru sursele de știri principale, cum ar fi Fox News, a urmat grupuri de umor care au batjocorit liberalii, s-au convertit la creștinism și au fost un fan al Melaniei Trump.
Studiul a constatat că într-o zi, recomandările de pagini pentru acest cont, care a fost creat chiar de Facebook, s-au transformat într-o „polarizare extrem de îngrijorătoare”.
În ziua a doua, algoritmul recomanda conținut mai extremist, inclusiv un grup legat de QAnon, la care utilizatorul fals nu s-a alăturat, deoarece nu era atrasă instinctiv de teoriile conspirației.
O săptămână mai târziu, a apărut „reclama de conținut și grafic extremist și conspirativ” a subiectului testului, inclusiv postări care salută minciuna falsă a lui Obama și care leagă clintonii de asasinarea fostului senator din Arkansas.
O mare parte din conținut a fost împinsă de grupuri dubioase conduse din exterior sau de administratori cu un istoric al încălcării regulilor Facebook privind activitatea bot.
Aceste descoperiri l-au determinat pe cercetător, al cărui nume a fost redactat de denunțătorul, să recomande măsuri de siguranță care funcționează de la eliminarea conținutului cu semnale conspiraționale cunoscute și dezactivarea insignelor „contribuitor principal” pentru comentatorii de dezinformare pentru a reduce numărul de adepți necesari înainte ca Facebook să verifice administratorul paginii. Identificare.
Printre alți angajați de pe Facebook care au citit cercetarea, răspunsul a fost aproape universal de susținere.
„Hei! Acesta este un studiu cuprinzător, bine definit (și alarmant)”, a scris un utilizator, cu numele său reținut de un denunțător.
Facebook a declarat că studiul este unul dintre numeroasele exemple ale angajamentului său pentru studiul continuu și îmbunătățirea platformei sale.
Un alt studiu s-a referit la anchetatorii congresului, intitulat „Înțelegerea riscurilor comunităților subiecte dăunătoare”, a discutat despre modul în care indivizii cu gânduri similare care îmbrățișează un subiect sau o identitate limită pot forma „camere de ecou” pentru dezinformare care normalizează atitudinile dăunătoare, stimulează extremismul și chiar pot avansa justificarea pentru violență.
Exemple de astfel de societăți nocive includ QAnon și grupurile de ură care promovează teoriile războiului rasial.
Studiul a concluzionat că „riscul de a experimenta violență sau vătămare offline devine mai probabil atunci când indivizii cu aceeași idee se reunesc și se susțin reciproc să acționeze”.
Documentele de acuzare pe care procurorii federali le-au depus împotriva celor care se presupune că au asaltat Capitolul conțin exemple de astfel de persoane cu aceeași idee.
Procurorii spun că unul dintre liderii celebri ai miliției Oath Keepers a folosit Facebook pentru a discuta despre formarea unei „alianțe” și coordonarea planurilor cu un alt grup extremist, Proud Boys, înainte de revoltele din Capitol.
„Am decis să lucrăm împreună și să închidem acest lucru”, a scris Kelly Meggs, descrisă de autorități drept liderul capitolului Florida al Oath Keepers, pe Facebook.
„Fanaticul cafelei. Jucător. Iubitor de zombi premiat. Student. Avocat hardcore pe internet. Guru Twitter. Tocnic fermecător cu slănină subțire. Gânditor.”