Meta, empresa matriu de WhatsApp, Facebook i Instagram, ha decidit posar fi al seu programa de col·laboració amb fact-checkers i verificadors d'informació. En el seu lloc, implementarà un sistema de “notes de la comunitat” similar al de X. El que analitzarem en aquest article.
Però que fem amb l'anonimat en les publicacions?
Però el que realmente sería possitiu sería davant la creixent preocupació pel protagonisme de les faules i la desinformació, alguns experts advoquem per la necessitat d'un canvi radical en l'ús de xarxes socials. Una de les propostes més contundents és l'eliminació de l'anonimat en els comptes. Els usuaris haurien d'estar obligats a publicar sota el seu nom i cognoms, sense refugiar-se en l'escut de pseudònims, pràctica que fomenta els insults, l'assetjament i la impunitat.
Seguiria un usuari sent capaç de criticar o insultar tan alegrement a algú si el tinguera davant físicament?
Un canvi d'estes característiques permetria responsabilitzar a les persones dels seus actes i paraules en l'entorn digital, igual que en la vida analògica.
Esta proposta necessita també d'un marc legal que sancione de manera efectiva la difusió intencionada de desinformació. El marc legislatiu espanyol actual no el penalitza de manera específica, però existixen casos en els quals sí ha sigut sancionada.
Penalitzar i validar socialment este nivell de responsabilitat sobre les nostres paraules, exercint efectiva i honestament la tan defesa llibertat d'expressió, farien molt més difícil que pogueren dur-se a terme situacions tan extremes com les campanyes coordinades de sospites infundades sobre el nombre real de víctimes per la dana en el pàrquing de Bonaire.
L'eliminació del programa de verificació professional de Meta suposa, per tant, una molt mala notícia per a la lluita contra la desinformació que pot provocar, desgraciadament, encara més polarització.
Mark Zuckerberg, CEO de Meta, anunciava esta mesura en un comunicat en Facebook com a defensa de la llibertat d'expressió i correcció d'errors que, suposadament, provoca la moderació de continguts.
La desaparició d'este sistema suposa una porta oberta a continguts perillosos per als usuaris de les aplicacions de la companyia?
Com funcionava el programa de verificació de dades de Meta
El programa de verificació de dades de Meta, iniciat en 2016, funcionava en col·laboració amb organitzacions independents certificades per la International Fact-Checking Network (IFCN), això és, adscrites a la seua Codi de Principis.
Estes entitats revisaven, a petició de Meta, contingut potencialment fals o enganyós en les plataformes de l'empresa, incloent-hi publicacions orgàniques, promocionades, vídeos, imatges i text.
Una vegada identificat el contingut sospitós, els verificadors analitzaven la seua veracitat mitjançant investigacions pròpies, contrastant la informació i usant estàndards periodístics.
Les publicacions eren etiquetades segons el seu grau de falsedat. Utilitzaven categories com a “Fals”, “Parcialment fals”, “Alterat” o “Falta context”. La classificació permetia a Meta reduir la seua distribució i afegir advertiments per a informar els usuaris.
Això no era censura
Este sistema feia que els verificadors externs, seguint els estàndards de la IFCN, no censuraren directament el contingut, sinó que l'etiquetaren segons la seua veracitat.
La decisió final sobre l'eliminació d'una publicació requeia en Meta, que actuava conforme a les seues polítiques comunitàries.
El treball dels verificadors externs en el sistema de Meta va demostrar ser efectiu per a combatre la desinformació, reduint significativament la seua difusió en pàgines de Facebook i generant un impacte positiu en la qualitat de l'esfera pública. L'eficàcia del sistema ha sigut recolzada en investigacions publicades en Science i Nature.
Els verificadors s'adherien a principis de neutralitat, transparència i metodologia rigorosa, garantint un procés imparcial i transparent.
Així, les afirmacions de Zuckerberg en el seu comunicat acusant els verificadors de “censors” (molt en la línia de la narrativa pròpia dels desinformadores) no tenen cap coherència.
Què ocorrerà a partir d'ara?
A més de la col·laboració amb verificadors externs, Meta empra sistemes automatitzats per a detectar contingut que infringix les seues polítiques, com a nus, violència gràfica o discursos d'odi.
Estos sistemes utilitzen tècniques de IA per a analitzar i filtrar automàticament contingut prohibit pels seus normes comunitàries, com a productes o servicis il·legals, drogues, tabac, armes de foc, contingut sexualment suggeridor, violència explícita i discursos d'odi (també la informació errònia).
No obstant això, la detecció de desinformació i la identificació de contingut explícit són processos distints que requerixen tecnologies especialitzades per a cada cas. Detectar i censurar, per exemple, mugrons femenins, és bastant més fàcil tecnològicament que identificar una mitja veritat o una descontextualització.
L'eliminació del programa de verificadors de Meta afecta a la contenció de faules i desinformació, però, encara que Mark Zuckerberg no ho ha fet explícit, s'entén que les restriccions de contingut sexual, violent, etc. es mantindran vigents per a garantir un entorn segur per als usuaris.
El sistema de notes
El sistema de “notes de la comunitat” que s'implementarà en Meta és similar a l'usat des de 2023 en X. Ací no hi ha verificadors externs, es demana als propis usuaris que siguen ells els que contextualitzen i proporcionen informació addicional sobre les publicacions objecte d'escrutini davant una possible desinformació.
Però este sistema afronta desafiaments que limiten la seua eficàcia. Segons experts en temes altament polaritzats com la política, estos avisos són menys efectius a causa de la falta de consens entre usuaris de diferents tendències ideològiques.
A més, s'ha observat que grups enfrontats utilitzen les notes com un camp de batalla, la qual cosa pot desvirtuar el seu propòsit original.
Una investigació realitzada per Poynter, que va analitzar 3 637 notes publicades durant el Dia de les Eleccions als Estats Units, va revelar que només el 29 % dels tuits verificables van rebre notes útils. Menys del 6 % de les notes en els dies previs a l'elecció van aconseguir un estat de “útil”, i únicament el 13 % de tots els avisos d'usuaris publicats durant eixe període estaven relacionats amb les eleccions.
És a dir, que el model de “notes” va tindre un impacte marginal en la qualitat de la informació electoral. El sistema no pot substituir el treball dels verificadors professionals (subscrits a estàndards internacionals periodístics), i reflectix limitacions significatives en la seua capacitat per a combatre eficaçment la desinformació.
Per què este canvi de posició?
Fins ara, Meta i Zuckerberg han defés aferrissadament el seu programa de verificació amb tercers, destacant la seua eficàcia en la lluita contra la desinformació. Amb este comunicat, el viratge polític de la companyia es fa bastant evident.
La decisió de finalitzar este programa coincidix amb la reelecció de Donald Trump com a president d'EE UU, la qual cosa alguns analistes interpreten com un intent d'alinear-se amb la nova administració, adoptant enfocaments similars al d'Elon Musk en X.
Esta postura ha generat crítiques, ja que podria facilitar la propagació de desinformació i discursos d'odi en les plataformes de Meta.
El viratge polític
Meta ha pres decisions que reforcen esta percepció d'alineament polític. Per exemple, a l'agost de 2024, l'empresa va desmantellar CrowdTangle, una ferramenta essencial per a monitorar desinformació en Facebook i Instagram. A més, Meta ha incorporat al seu consell d'administració a figures pròximes a l'entorn de Trump, com a Dana White, president d'Ultimate Fighting Championship (UFC) o el republicà Joe Kaplan.
No oblidem una motivació molt més material darrere d'esta decisió: la desinformació genera major interacció i activitat en les xarxes socials, la qual cosa es traduïx en més ingressos publicitaris per a les plataformes.
En relaxar les mesures contra la desinformació, Meta podria estar buscant incrementar la participació dels usuaris i, per tant, els seus beneficis econòmics.
Fco. Javier Cantón Corretja, Investigador associat en el Departament de Ciències de la Computació i Intel·ligència Artificial, Universitat de Granada
Este article va ser publicat originalment en The Conversation. Llija el original.
Cap comentari :