Adiós a los verificadores: Meta implementa un modelo comunitario de notas
La compañía ha decidido reemplazar el proceso de verificación de hechos por un modelo de "notas comunitarias" para moderar el contenido.
- Volanta: Redes
Meta, la gigante tecnológica que posee redes sociales como Facebook, Instagram y WhatsApp, ha anunciado un cambio importante en su enfoque hacia la moderación de contenido. A partir de ahora, la compañía eliminará su programa de verificación de hechos, y en su lugar implementará un sistema de "notas comunitarias", una modalidad similar a la que utiliza X (anteriormente Twitter).
Mark Zuckerberg, el CEO y fundador de Meta, fue el encargado de dar la noticia en un comunicado emitido este martes. Según explicó, el sistema de verificación tradicional, en el que expertos y organizaciones independientes evaluaban la veracidad de la información, será sustituido por este nuevo enfoque en el que los propios usuarios podrán identificar y señalar publicaciones que consideren engañosas o que necesiten más contexto. De esta forma, los usuarios de Facebook e Instagram tendrán una participación más activa en la moderación de contenidos.
Here's the script I was given to make it appear I'm now for "Free Speech."
— Mark Zuckerberg - CEO of Facebook - Parody (@MarkZuckss) January 7, 2025
It took me about 5 tries since it pains me to do this pic.twitter.com/alUXTXbEhp
Zuckerberg justificó la decisión afirmando que el cambio responde a un "panorama político y social cambiante" y que el objetivo es "abrazar la libertad de expresión". Aclaró que, en el pasado, los sistemas de moderación de Meta cometían "demasiados errores", lo que llevó a la compañía a replantearse su estrategia. Sin embargo, destacó que Meta mantendrá un control estricto sobre contenidos relacionados con temas sensibles como drogas, terrorismo y explotación infantil.
Con respecto a las políticas de contenido, Meta reducirá las restricciones sobre temas como inmigración y género. Según Zuckerberg, estas normas fueron implementadas inicialmente para promover la inclusión, pero terminaron siendo utilizadas para "acallar opiniones y restringir el debate". A partir de ahora, los usuarios tendrán la libertad de compartir sus puntos de vista y experiencias, siempre que no se trate de contenido ilegal o de alto riesgo.
Esta medida también se produce en un contexto donde los filtros automáticos de moderación de contenido han sido objeto de críticas debido a los errores que han cometido al eliminar publicaciones legítimas por infracciones menores. Zuckerberg reconoció que estos sistemas han afectado a millones de usuarios al eliminar contenidos válidos. Con el nuevo enfoque, Meta reducirá la dependencia de estos filtros automáticos, otorgando más poder a la comunidad para identificar y reportar violaciones menores, pero manteniendo un control estricto sobre contenidos más graves.
Este cambio en la política de moderación de Meta promete tener un impacto significativo en la forma en que se gestionan los contenidos en sus plataformas. Al permitir a los usuarios participar de manera más activa en la identificación de publicaciones engañosas, se abre un nuevo capítulo en el debate sobre la responsabilidad y el control de la información en las redes sociales.