Facebook are o regulă secretă permanentă pentru discursul politic

0
23

Facebook încearcă să abordeze dezinformarea și ura că platforma sa a permis un document masiv, bizantin și secret de reguli încărcat cu foi de calcul și diapozitive powerpoint care se actualizează în mod regulat pentru moderatorii săi de conținut globali

un "blockbuster" Raportul New York Times regulile arată că rețeaua socială este "un arbitru mult mai puternic de vorbire globală decât a fost recunoscută sau recunoscută public de către compania în sine." The Times a descoperit o serie de lacune , erori și erori – inclusiv cazurile în care Facebook a permis extremismului să se răspândească în unele județe în timp ce cenzurarea discursului principal în altele

Detaliile cărții de reglementare au fost dezvăluite joi noaptea mulțumită unui angajat Facebook care a scurs peste 1400 de pagini din regulamentul de poliție a discursurilor Times pentru că "sa temut că societatea exercită prea multă putere, cu prea puțină supraveghere – și face prea multe greșeli ".

Compania CEO Mark Zuckerberg încearcă să monitorizeze miliarde de postări pe zi în peste 100 de limbi în timp ce analizează nuanțele subtile și contextul complicat al limbii, imaginilor și chiar emojisurilor. Grupul angajaților Facebook care se întâlnesc în fiecare altă zi de marți pentru a actualiza regulile, în conformitate cu Times, încearcă să combine chestiuni extrem de complexe în reguli stricte da-sau-nu

 Mark Zuckerberg
Mark Zuckerberg Getty Images

Compania Menlo Park, California, externalizează apoi moderarea conținutului către alte companii care tind să angajeze lucrători necalificați, potrivit raportului ziarului. Moderatorii de 7.500 de minute "au doar câteva secunde pentru a reaminti nenumărate reguli și pentru a le aplica la sutele de postări care se încadrează pe ecranele lor în fiecare zi. Atunci când o referire la "jihad", de exemplu, este interzisă? Cand un "ras" plangandu-se emoji un semn de avertizare? "

Unii moderatori si-au facut nemultumirile fata de Times, plangandu-se ca posturile ramase ar putea duce la violenta. "Simti ca si cum ai omorat pe cineva prin a nu actiona", a spus unul, vorbind anonim pentru ca a semnat un acord de confidentialitate. Moderatorii au dezvăluit, de asemenea, că se confruntă cu presiuni pentru a revizui o mie de bucăți de conținut pe zi, cu doar opt până la 10 secunde pentru a judeca fiecare post.

Sonda Times a publicat o gamă largă de diapozitive din cartea de reglementare, variind de la ușor de înțeles cap-scratching, și detaliate numeroase cazuri în care normele de discurs Facebook pur și simplu au eșuat. Orientările sale pentru Balcani par "periculos depășite", a declarat un ziar expert în acea regiune. Un cărturar legal din India a descoperit "greșeli îngrijorătoare" în orientările Facebook care aparțin țării sale.

În SUA, Facebook a interzis băieții proști, un grup de extrema dreaptă, care a fost acuzat că a infirmat violența din lumea reală. De asemenea, a blocat un anunț despre caravana emigranților din America Centrală expulzată de echipa politică a președintelui Trump

 Gavin McInnes, fondatorul Proud Boy, vorbește într-un miting din Berkeley, California, în aprilie 2017.
McInnes (centru) vorbește într-un rally în Berkeley, California, în aprilie 2017. AP

"Nu este locul nostru de a corecta discursul oamenilor, dar dorim să ne impunem standardele comunității pe platforma noastră", a declarat Sara Su, un inginer senior în News Feed, a declarat pentru Times. "Când sunteți în comunitatea noastră, vrem să ne asigurăm că echilibrăm libertatea de exprimare și siguranță."

Monika Bickert, șefa conducerii Facebook a politicii globale, a spus că obiectivul principal a fost prevenirea răului și că într-o mare măsură, compania a avut succes. Dar, desigur, perfectiunea nu este posibila

"Avem miliarde de posturi in fiecare zi, identificam tot mai multe violari potentiale folosind sistemele noastre tehnice", a declarat Bickert pentru ziar. "La acea scală, chiar dacă ai 99 de procente corecte, vei avea multe greșeli"

Documentul Facebook cel mai politicos și potențial divizibil ar putea fi o foaie de calcul Excel, pe care rapoartele Times listează fiecare grup și (19659019) Anti-Facebook graffiti în Hamburg, Germania ” width=”300″ height=”200″ data-/>

Anti-Facebook graffiti în Hamburg, Germania. Getty Images

Anton Shekhovtsov, un expert în grupurile extrem de drepte, a declarat publicației că a fost "confuz în ceea ce privește metodologia." Compania interzice o serie impresionantă de grupuri americane și britanice, dar relativ puține în țările în care extrema-dreaptă poate fi mai violentă, în special Rusia sau Ucraina

Totuși, există o inconsecvență în modul în care Facebook aplică regulile. În Germania, unde discursul, în general, este mai examinat, Facebook, în mod obișnuit, blochează zeci de grupuri de extremă dreapta. În cazul în care o companie de tehnologie pentru a desena aceste linii este "extrem de problematică", a declarat pentru Times Times Jonas Kaiser, expert al Universității Harvard pentru extremismul online.

"Aceasta pune rețelele sociale în poziția de a face apeluri de judecată care sunt în mod tradițional atribuțiile instanțelor."

Referitor la modul în care Facebook identifică discursurile de ură, rapoartele Times:

Orientările pentru identificarea discursului de ură, a făcut Facebook, a alerga la 200 de pagini pline de jargon, cap-spinning. Moderatorii trebuie să sorteze un post într-unul din trei "niveluri" de severitate. Ei trebuie să țină cont de liste precum cele șase "comparații dezumanizate desemnate", printre care compararea evreilor cu șobolanii.

În luna iunie, e-mailurile interne au arătat că moderatorilor li sa spus să le permită utilizatorilor să laude talibanii, aceștia au menționat decizia grupului de a înceta focul. Într-un e-mail separat obținut de ziar, moderatorii au fost rugați să caute și să elimine zvonurile care au acuzat în mod greșit un soldat israelian de uciderea unui medic palestinian.

Ancheta Times încheie spunând că un obstacol major în calea spargerii discursului inflamator este Facebook în sine, care se bazează pe un algoritm de a-și conduce creșterea, care promovează în mod notoriu "cel mai provocator conținut, uneori același lucru pe care compania spune că vrea să-l suprime"

"Multe dintre acestea ar fi mult mai ușor dacă s-ar afla autoritatile terte care au raspuns, Brian Fishman, un expert in lupta impotriva terorismului care lucreaza cu Facebook, a declarat pentru Times.

Fishman a explicat: "Unul dintre motivele pentru care este greu sa vorbim este pentru ca exista o lipsa de societate un acord asupra locului în care ar trebui să se afle acest tip de autoritate ".

Read more: Source link

LĂSAȚI UN MESAJ

Please enter your comment!
Please enter your name here