Meta trabaja para que sus plataformas como Facebook e Instagram, no propaguen nudes o packs que no tienen consentimiento de las personas.
Revenge Porn es una organización sin fines de lucro con sede en el Reino Unido y en alianza con Meta, trabajan en una herramienta que permita a las personas evitar que sus imágenes íntimas se carguen en Facebook, Instagram y otras plataformas sin su consentimiento.
Las famosas “nudes” son imágenes íntimas, desnudos o sexuales que se comparten principalmente entre parejas. Sin embargo, el miedo es cuando se convierten en exparejas y uno de ellos toma ventaja sobre el contenido que le compartieron de manera íntima.
La herramienta se encuentra en desarrollo desde 2017 con un programa piloto en Australia y finalmente se acaba de lanzar. Si estás preocupado por que tus fotos o videos íntimos estén siendo compartidos en línea, puedes contactar a StopNCII.org
Meta había cambiado su enfoque para usar un sitio web independiente para facilitar a otras compañías el uso del sistema. Así reducir la carga de las víctimas de abuso basado en imágenes para informar del contenido a todas y cada una de las plataformas.
Durante el proceso de envío, StopNCII.org obtiene tu consentimiento y pide que confirmes que estás en una imagen. Puedes seleccionar el material de tus dispositivos, incluidas imágenes manipuladas, que se vean desnudas o semidesnudas.
Tus fotos o videos íntimos no deben ser compartidos
Las fotos o los videos luego se convertirán en huellas digitales únicas. Las cuales son conocidas como “hashes”, que se transmitirán a las empresas participantes, comenzando con Facebook e Instagram.
Participan 50 socios internacionales en el desarrollo de StopNCII.org, todos se especializan en el abuso basado en imágenes, seguridad en línea y derechos de las mujeres. Es importante decir que ninguno tendrá acceso ni se almacenarán copias de las imágenes originales.
Otras plataformas también han manifestado su interés en unirse a la iniciativa. Incluidas las empresas de redes sociales, los sitios para adultos y los foros de mensajes.
Cada empresa participante utilizará tecnología de coincidencia de hash para verificar si las imágenes que coinciden con los hash se han subido a sus plataformas.
Si las plataformas determinan que las imágenes o los videos violaron sus políticas, eliminarían todas las instancias de ellos y bloquearían los intentos de volver a subirlos.