Una vez que la imagen o el vídeo fue marcado en una red social por violar las normas de la comunidad -por estar vinculado a acciones terroristas, por tratarse de material de explotación sexual infantil u otro tipo de contenido infractor-, pasa a formar parte del sistema de HMA.
Esta herramienta marca el contenido con una huella, que se conoce como 'hash', lo que permite eliminar esa primera imagen o vídeo, pero mantener la huella en la base de datos para buscar copias que se hayan podido subir a las plataformas y así poder prevenir estos contenidos en la plataforma.
Por lo tanto, cuando la herramienta encuentra una coincidencia, no solo ofrece una relación de los resultados, sino que también permite, por ejemplo, eliminar el contenido infractor identificado de forma automática.
Otro objetivo de esta herramienta es que se cree una base de datos más completa con los 'hash' con el fin de poder atajar el contenido infractor en distintas plataformas de forma más rápida y eficaz.
La compañía destacó la eficacia de su tecnología de inteligencia artificial para eliminar el contenido infractor de forma masiva. Como detalla, el contenido con discurso del odio recibe dos visitas por cada 10.000 visitas, se bloquean "millones de cuentas falsas" a diario para evitar la propagación de información errónea y, desde 2017, se eliminaron más de 150 redes de cuentas maliciosas.
Compartinos tu opinión