După un an de pandemie, nu mai poți spune orice pe rețele sociale ca Facebook, pentru că pericolul creării unor fenomene în masă de dezinformare e extrem de ridicat în contextul crizei sanitare pe care o traversăm.
Dacă, în urmă cu un an, nimeni nu te „sancționa” dacă postai pe pagina ta socială că acest virus nu există, ei bine, acum lucrurile nu mai stau deloc așa.
Omenirea traversează o perioadă foarte sensibilă, iar rețelele sociale joacă un rol cheie în formarea opiniilor publice, motiv pentru care informațiile răspândite în acest mediu nu trebuie ignorate, ci filtrate și eliminate, în cazul în care, prin răspândirea, lor pun în pericol sănătatea sau integritatea socială.
În acest context, Facebook s-a angajat în lupta contra știrilor false.
Cum vrea și crede că va înlătura informațiile false
Pentru a elimina informațiile false, rețeaua folosește o combinație între tehnologie și moderare umană, ștergând o mulțime de conturi false și înmulțind colaborările cu site-uri de fact checking.
Facebook nu înlătură în general postările care conțin dezinformări, ci organizațiile de fact-checking cu care compania lucrează le etichetează că atare și distribuția lor pe rețea este mult încetinită. Când oamenii vor să dea share acelui tip de conținut sunt avertizați că este un conținut cu informații false în el.
De alfel, platforma însăși înlătură conținut ce prezintă un pericol iminent pentru siguranța utilizatorilor, iar de când a apărut criza Covid multe tipuri de informații intră în această categorie.
În acest sens, postări de tipul „virusul nu există” sau „vaccinurile sunt nocive”, când, de fapt, poziția autorităților oficiale e opusă, sunt considerate că fiind conținut vătămător și, prin urmare, vor fi eliminate de pe platformă.
Ce postări nu mai acceptă Facebook
Monika Bickert, vicepreședinte de Global Policy Management la Facebook a explicat ce tipuri de conținut nu mai acceptă Facebook acum:
Ce permite Facebook în postările despre vaccinuri?
”Oamenii pot să pună întrebări și să-și spună părerea dacă se vor vaccina sau nu. De exemplu NU vom elimina o postare de genul: . Oamenii pot să posteze și despre îndoielile pe care le au despre studiile care s-au făcut legat de vaccinuri, deci permitem să se poarte discuții în contradictoriu despre aceste studii. Nu vom lăsă însă oamenii să promoveze reticența față de vaccinuri, când autoritățile sanitare au spus că aceste vaccinuri sunt sigure”.
Monika Bickert a continuat explicațiile, spunând că mai există și o altă modalitate de dezinformare. Aceea de tipul mesajelor precum „Virusul a fost creat într-un laborator din China și apoi intenționat a fost aruncat în lume pentru a se răspândi”, conform HotNews.
Bickert a mai spus că platforma a făcut și erori de-a lungul timpului, însă situația se va îmbunătăți.
Erorile făcute de Facebook sunt puse de Bickert pe seama mult prea multor utilizatori activi pe platforma, în față cărora moderatorii angajați de Facebook nu fac față. Ar lucra, ca moderatori ai platformei acum, în jur de 15.000, în 50 de limbi de pe glob, inclusiv română.
La un volum de 2,79 miliarde de useri în ultimul trimestru din 2020, e evident că moderatorii nu pot controla conținutul în totalitate, iar știrile false încă își fac loc și sunt răspândite.
De altfel, și recomandările autorităților se schimbă, ceea ce pune în dificultate platforma care trebuie să reacționeze practic în timp real și să se readapteze noilor criterii.
Chiar și compania a anunțat că face tot posibilul pentru a lupta împotriva dezinformării. Zeci de mii de oameni lucrează, împreună cu algoritmii, la combaterea conținutului vătămător. De asemenea, platforma e concepută acum în așa fel încât să îndrume cititorii către surse oficiale de informare.