Investigación: cómo la tecnología puede ayudar a identificar videos de discurso de odio e impactar la moderación de contenido

        Un profesor de la Universidad de Boston analiza el estudio de su equipo sobre los ataques de odio organizados en 4chan y cómo su investigación podría afectar la moderación de contenido.
    

        
                                                                                    
                        

                 { } {1945 {194590} {1945908} }
    

     Investigación: cómo la tecnología puede ayudar a identificar videos de discurso de odio e impactar la moderación de contenido
     Un profesor de la Universidad de Boston analiza el estudio de su equipo sobre los ataques de odio organizados en 4chan y cómo su investigación podría afectar la moderación del contenido.
    

    

Karen Roby de TechRepublic habló con Gianluca Stringhini profesora asistente en Boston University sobre una nueva investigación sobre el discurso de odio y el acoso en línea. La siguiente es una transcripción editada de su entrevista.

Karen Roby: Cuéntanos sobre tu investigación.

Gianluca Stringhini: Comenzamos a estudiar algunas de estas comunidades polarizadas en línea para tratar de entender, cuál es su forma de operar … y ¿podemos modelar cómo funcionan estos ataques de odio?

    
        

                            

Debe leer el contenido del desarrollador

                

VER: Cómo desarrollar las capacidades de su equipo de TI (PDF gratuito) (TechRepublic)

Hace un par de años, comenzamos a mirar a 4chan y, en particular, a los tableros políticamente incorrectos dentro de 4chan, porque a menudo se cita a estos tipos como la fuente de muchos problemas que ocurren en Internet. Este tipo de ataques de odio son los que, cuando Microsoft puso en línea el bot Tay con el que la gente podía chatear hace unos años, fueron los que convirtieron a estos bots en racistas en cuestión de horas. . Entonces queríamos entender, ¿cómo están operando estas personas?

Esto es un poco desafiante, porque esta plataforma es muy diferente de otras plataformas de redes sociales. Es anónimo, por lo que no hay cuentas, por lo que es muy difícil saber cuántas personas están activas allí. También es efímero. Los hilos no permanecen activos para siempre, pero después de un tiempo se archivarán y eliminarán. Esto creó mucha desinhibición en línea, porque las personas tienden a comportarse peor cuando son completamente anónimas y lo que digan desaparecerá.

Hicimos este estudio de medición para recopilar básicamente la mayor cantidad de datos posible de esta plataforma, y ​​comenzamos a caracterizar, ¿cómo son estos ataques de odio? Descubrimos que a menudo estos ataques de odio se dirigen a videos de YouTube. Alguien encontraría el video de YouTube que creía que sería un buen objetivo para los ataques porque, por ejemplo, expondría algunas ideas que la comunidad consideró escandalosas o en contra de sus ideas y demás.

Luego publicaría el enlace al video de YouTube en la plataforma, así que en 4chan, con etiquetas en la línea de “sabes qué hacer” o algo así. Básicamente, la plataforma prohíbe explícitamente la organización de ataques de odio. Pero esta es la forma en que lo abordan, sin decir explícitamente lo que quieren hacer, aparte de exactamente “sabes qué hacer”. Ese es el código.

Después de que esto suceda, básicamente todos estos actores anónimos irán al video de YouTube y comenzarán a publicar comentarios de odio. Luego regresamos a 4chan, en el hilo que lo organizó, y comenzamos a comentar sobre cómo va el ataque, lo que publicaron y todo eso. Lo que descubrimos es que hay una especie de sincronización entre los comentarios que vemos en el video de YouTube y los comentarios publicados en 4chan como reacción al ataque de odio.

Al utilizar básicamente técnicas de procesamiento de señales, así como la correlación cruzada, etc., modelando básicamente los comentarios en 4chan y los comentarios en YouTube como señales, y observando la sincronización entre estas dos señales, podemos identificar si existe es una actividad coordinada en curso. Encontramos que existe una correlación extremadamente fuerte entre la sincronización, por lo que cuanto más se correlacionan las dos señales o los dos conjuntos de comentarios, con la cantidad de discurso de odio que recibe el video de YouTube.

Karen Roby: Has identificado los videos y has comenzado a determinar un valor de riesgo para videos futuros. Ciertamente, eso podría ser útil para empresas como YouTube y Google, porque la moderación de contenido es realmente complicada.

Gianluca Stringhini: Creo que el principal problema proviene de la forma en que comenzó la moderación de contenido. Se trataba de la detección de spam o la eliminación de contenido automatizado, etc. Tanto como la comunidad de investigación como las empresas, hemos estado desarrollando sistemas durante más de 20 años para identificar contenido que se genera automáticamente y es claramente malicioso, ¿verdad? Si piensa en el spam, es un problema en blanco y negro. Es spam o no lo es.

Cuando hablas de esta actividad impulsada por el ser humano y depende mucho del contexto, tiende a ser muy matizada y hay muchas áreas grises. Es por eso que en este momento no tenemos sistemas que sean tan precisos como los que desarrollamos para la detección de spam, detección de malware, etc., para detectar este tipo de actividad. Esta es la razón por la cual se requiere moderación de contenido.

Entonces, realmente, el problema aquí es, ¿podemos realmente reducir la cantidad de comentarios o contenido que los moderadores necesitan ver de una manera que facilite su trabajo? ¿Podemos eliminar automáticamente parte de este contenido, que es claramente malo, y solo hacer que juzguen el contenido malo que depende del contexto o cae dentro de un área gris? Quizás es culturalmente dependiente.

“data-credit =” “rel =” noopener noreferrer nofollow “>  20191107-gianluca-karen.jpg

                                                                                

                                                

Ver también


Source link

Be part of our affiliated companies and receive a 20% discount.
www.onevirtualoffice.com
www.be1radio.com
www.rmcommunik.com
www.beonegroup.ca

Need Help?
Let our experienced staff help with virtual helpdesk. click for details.

Services:
– Laptop and Desktop Repair
– Virus and Malware Removal
– Computer Tune-up
– Remote Assistance
– Data Backup
– Data Recovery
– File Transfer and Sharing
– Hardware Diagnostics
– Antivirus Installation
– Software Installation
– Hardware Upgrades
– New System Setup
– Printer Troubleshooting
-Webmaster,hosting,Logo , Graphic design
-Social media Management
– Networking
– Install Windows Operating System (10, 8, 7, Vista and XP)

Business & Residential Toll Free: 1-800-432-1475 | Direct: (438)488-3296

About rasco

Be Happy the future is friendly.
Allrights Reserved 2007-2018 - Beone Magazine - powered by rasco