El director ejecutivo de Meta, Mark Zuckerberg , ha anunciado este martes una serie de cambios importantes en las políticas y prácticas de moderación de la compañía, citando «un panorama político y social cambiante» y un deseo de «adoptar la libertad de expresión». Mediante un comunicado en vídeo, Zuckerberg ha indicado que Meta pondrá fin a su programa de verificación de contenidos realizado por compañías de terceros, y lo reemplazará con un sistema impulsado por los usuarios similar a las «notas de la comunidad» que utiliza Elon Musk en X .Noticia Relacionada estandar Si Elon Musk ahora ‘cancela’ a Nigel Farage: «El partido Reform UK necesita un nuevo líder» Javier Ansorena | Corresponsal en Nueva York El hombre más rico del mundo se distancia del gran abanderado del Brexit, al tiempo que sigue atizando al primer ministro británico Keir StarmerLos cambios afectarán a Facebook e Instagram, dos de las redes sociales más grandes del mundo, cada una con miles de millones de usuarios, así como a Threads. «Vamos a volver a nuestras raíces y a centrarnos en reducir los errores, simplificar nuestras políticas y restaurar la libertad de expresión en nuestras plataformas», comenzaba Zuckerberg en el vídeo. «Más concretamente, esto es lo que vamos a hacer. En primer lugar, vamos a deshacernos de los ‘fact-checkers’ (verificadores de contenidos) y a sustituirlos por notas comunitarias similares a X, empezando por Estados Unidos».La mecánica de las notas de la comunidad de X es muy sencilla: los usuarios se encargan de señalar las publicaciones potencialmente engañosas y que necesitan de más contexto, o que directamente son falsas. La idea de Zuckerberg es trasladar este trabajo a los usuarios de Facebook o Instagram, una labor que hasta ahora hacían expertos y organizaciones independientes de comprobación de datos.Sistemas con «demasiados errores»Zuckerberg también señaló que los sistemas que la compañía había creado y que utilizaba hasta el momento para moderar sus plataformas estaban cometiendo «demasiados errores». «Hemos creado muchos sistemas complejos para moderar el contenido, pero el problema con los sistemas complejos es que cometen errores. Incluso si censuran accidentalmente solo el 1% de las publicaciones, eso significa millones de personas, y hemos llegado a un punto en el que son demasiados errores y demasiada censura», ha comentado.Sin embargo, ha puntualizado que Meta continuaría moderando agresivamente el contenido relacionado con las drogas, el terrorismo y la explotación infantil.Temas polémicosMás allá del final del sistema de verificación de contenidos, Zuckerberg ha añadido que la compañía también eliminará algunas políticas de contenido en torno a temas polémicos como la inmigración y la identidad de género. Además, la empresa planea concentrar sus sistemas de moderación automática en lo que ha llamado como «violaciones de alta gravedad» y confiará en que sean los usuarios los que reporten otras infacciones.La decisión, según Zuckerberg, está influenciada por las recientes elecciones y como crítica hacia «los gobiernos y los medios tradicionales» que supuestamente buscan «censurar cada vez más». «Parecen un punto de inflexión cultural hacia la priorización, una vez más, de la expresión. Así que volveremos a nuestras raíces y nos centraremos en reducir los errores, simplificar nuestras políticas y restaurar la libertad de expresión en nuestras plataformas».
Leave a Reply