fbpx

Las redes sociales, la principal arma terrorista durante la pandemia de COVID-19

Autor: ONU

Grupos violentos no estatales, incluidos terroristas, extremistas de derecha y del crimen organizado como los carteles mexicanos, han utilizado las redes sociales maliciosamente para reforzar sus agendas durante la pandemia de COVID-19, revela un nuevo informe del Instituto de Investigación Interregional sobre Crimen y Justicia de las Naciones Unidas.

Según el estudio, estos grupos han diseminado intencionadamente teorías conspirativas sobre el origen del COVID-19 que generalmente atribuyen a los gobiernos, determinadas etnias o religiones, supuestas redes secretas, compañías o empresarios, que, según ellos, tienen objetivos como la aniquilación de la población, el control mundial o enriquecerse mediante la venta de vacunas y tratamientos. En todos estos casos, los grupos afirman tener “el verdadero conocimiento” sobre el origen del COVID-19.

Los mensajes a menudo se personalizan para coincidir con la audiencia y las ideologías de estos actores violentos no estatales. Por ejemplo, en grupos de extrema derecha de Estados Unidos han circulado teorías que culpan a los inmigrantes y extranjeros como los responsables de propagar al virus.

La Asociación de Patrimonio Europeo de Nueva Jersey (NJEHA) compartió una campaña donde colocaron pegatinas con consignas como «Alto al coronavirus – a deportar todos los extranjeros ilegales”, “migrantes aceptados y ahora estamos infectados”, y “el virus son las fronteras abiertas”. Otros grupos han adoptado narrativas similares y las han mezclado con mensajes anti islámicos y antisemitas.

Personas asociadas al ISIS y Al-Qaeda también han difundido teorías de conspiración que afirman que el virus es un “soldado de alá” que está castigando a los incrédulos y a los enemigos de los musulmanes. Los grupos terroristas han dicho que el COVID-19 es la ira de Dios sobre el Occidente. De manera similar, Al-Shabaab declaró que la enfermedad del coronavirus se transmite como “el soldado más pequeño de Dios”.

Los objetivos de los grupos violentos

Según el informe, estas teorías están dirigidas a socavar la confianza en los Gobiernos, y al mismo tiempo a reforzar narrativas extremistas como una estrategia de reclutamiento.

Por ejemplo, el grupo supremacista Blanche Europe ha dicho que la solución a la crisis de salud es exterminar a las poblaciones inmigrantes y evitar que las minorías éticas reciban tratamiento médico. Este grupo además culpó al Gobierno de Francia por no actuar rápidamente para prevenir la crisis y no priorizar a las “familias blancas”.

AlShabaab en Somalia también difundió desinformación distorsionando la naturaleza del virus y usándolo como motivación para continuar sus violentos ataques. El portavoz pidió la expulsión de todas las fuerzas extranjeras luego de afirmar que los incrédulos están propagando deliberadamente el COVID-19. En particular, culparon a la Misión de la Unión Africana en Somalia (AMISOM) desde que se reportaron los primeros casos de COVID-19 en la base de Halane.

Un segundo objetivo de los actores no estatales es incrementar el “terrorismo inspirado” o la motivación de los terroristas auto-radicalizados para perpetrar ataques reales. Hay casos en los que grupos de extrema derecha, como CoronaWaffen, pidieron explícitamente a sus seguidores que propagaran el virus tosiendo en su minoría local o asistiendo a lugares específicos donde se reúnen minorías religiosas o raciales.

Otros grupos, como Eco-Fascist Central, abogan por propagar la enfermedad del coronavirus en países con grandes poblaciones o altos niveles de contaminación. Además, CoronaWaffen ha publicado varias encuestas en línea en las redes sociales y aplicaciones de mensajería preguntando a las personas si habían propagado el virus como se les indicó.

Un ejemplo de «terrorismo inspirado» lo representa Timothy Wilson, quien, el 24 de marzo de 2020, recibió un disparo de la Oficina Federal de Investigaciones de los Estados Unidos (FBI) en Kansas City cuando planeaba detonar una bomba en un hospital que atendía a pacientes con coronavirus. Wilson participó activamente en al menos dos canales neonazis de Telegram y mantuvo comunicación con un soldado de infantería del ejército que quería planear un ataque a una importante red de noticias estadounidense y discutió sobre apuntar a un candidato presidencial demócrata. El último comentario en línea de Wilson fue un mensaje antisemita sobre el origen de COVID-19.

La influencia en línea de estos grupos extremistas también se puede observar en una serie de ciberataques perpetrados en abril de 2020, cuando 25.000 emails y contraseñas que supuestamente pertenecían a los Institutos Nacionales de Salud, la Fundación Gates y la Organización Mundial de la Salud, fueron difundidas en la red por grupos de extrema derecha.

Una oportunidad para los carteles en México

Un tercer objetivo estratégico, según el estudio, es promover una imagen positiva de organizaciones durante las pandemias como un reemplazo viable de las instituciones de salud y como un actor político responsable. En algunos casos, los actores no estatales se han aprovechado de la frágil situación socioeconómica debido a la crisis, que ha llevado a un aumento de los precios y una reducción de la disponibilidad de alimentos.

Algunos grupos criminales han intentado desempeñar el papel de las instituciones gubernamentales y oficiales dentro de los territorios donde tienen una fuerte presencia adoptando estrictas medidas de salud, como encierros, o apoyando directamente a la población con desinfectantes y alimentos. Sin embargo, el objetivo principal de estos grupos no es proteger a la población local, sino proteger sus intereses criminales, ya que les preocupa que una gran crisis de salud pueda provocar la llegada y la participación de las fuerzas del orden o del ejército en las áreas bajo el control del crimen organizado y, como resultado, poner en peligro sus actividades ilegales. Estos «servicios» han sido ampliamente promocionados a través de las redes sociales.

El objetivo de estos grupos no es proteger a la población local, sino proteger sus intereses criminales.

Por ejemplo, en México, los grupos delictivos han etiquetado las cajas de ayuda que han distribuido con el nombre o logo de la organización y, posteriormente, promovido sus acciones en las redes sociales y en las noticias. Este es el caso del Cartel del Golfo que distribuyó paquetes de ayuda con alimentos y desinfectantes en Tamaulipas, colocando en cada caja una calcomanía que indica el nombre del cartel y de su líder. Una de las hijas de Joaquín Guzmán Loera (El Chapo), líder histórica del Cartel de Sinaloa, también distribuyó víveres con la imagen de su padre a los ciudadanos de Guadalajara, Jalisco.

También se han producido casos similares en otros países de América Latina, así como en Italia, Sudáfrica y Japón. Después de distribuir comida en un barrio de Palermo, Sicilia, el hermano de un líder narcotraficante hizo un llamamiento a otros en Facebook para que siguieran su ejemplo. Cuando un periodista reportó la noticia en un diario italiano, el hermano del criminal respondió enfáticamente en Facebook que “el Estado no quiere que hagamos caridad porque somos mafiosos” y luego amenazó al periodista.

La actual crisis económica creada por COVID-19 además está facilitando en gran medida las posibilidades de que los grupos criminales adquieran el control y la propiedad directa o indirecta de empresas legítimas. La crisis financiera y la potencial quiebra de varias empresas, comercios y actividades económicas podrían representar oportunidades para que el crimen organizado penetre e infiltre la economía legal, advierte el informe.

En México, el Cártel Jalisco Nueva Generación (CJNG), en colaboración con otros cárteles como La Nueva Familia Michoacana y Los Granados, incrementó la producción de medicamentos falsificados en el país con la intención de obligar a las pequeñas y medianas farmacias a vender sus productos y empresas a los carteles de la droga en los estados de Guanajuato, Jalisco, Guerrero y Michoacán.

Las tácticas en redes sociales

Los actores no estatales violentos se han aprovechado de las características inherentes de las redes sociales y las aplicaciones de mensajería donde los contenidos se pueden subir de forma anónima, instantánea y sin costo alguno.

La táctica más común utilizada especialmente por los grupos de extrema derecha para atraer seguidores es crear contenido simple y muy visual, incluidos los «memes de Internet».

Un meme consiste en una frase, imagen o video que se transmite rápidamente de persona a persona a través de Internet a través de canales de redes sociales y aplicaciones de mensajería. Los memes a menudo pretenden provocar humor para facilitar su difusión.

Los memes se han convertido en un fenómeno social para promover ideas, comportamientos o estilos, y esta es la razón principal por la que los actores violentos no estatales se han sentido atraídos por ellos. Desafortunadamente, los utilizan como método para compartir contenido antisemita, xenófobo y radical con una gran audiencia potencial.

Los agentes no estatales violentos también pueden explotar funciones y servicios proporcionados por las plataformas de los sitios de redes sociales. Por ejemplo, las principales plataformas de redes sociales, como Facebook o Twitter, trabajan con algoritmos que sugieren expandir su propia red y encontrar nuevos contactos («amigos») basados en criterios como amigos mutuos, trabajo y educación.

Como ya lo ha hecho el ISIS en los últimos años, los actores no estatales violentos, en particular los grupos de derecha, se han aprovechado de estos algoritmos durante la pandemia para ponerse en contacto con «amigos sugeridos» y reclutar nuevos miembros. Como resultado, los miembros de los grupos extremistas violentos participan con frecuencia en diferentes foros y grupos en las redes sociales en un intento de radicalizar a las personas y encontrar otros grupos o personas con quienes comparten puntos de vista extremistas similares.

Algunos grupos también están tratando de eludir las medidas de control en las principales plataformas sociales evitando el uso de ciertas palabras o símbolos que pueden identificarse fácilmente como parte del “lenguaje extremista” e incluso tratando de parecer legítimos para una gran audiencia.

Otros han mostrado resiliencia al difundir desinformación incluso después de que sus cuentas hayan sido eliminadas. Una posible táctica es reproducir los mismos contenidos creando nuevas cuentas en plataformas de redes sociales. Otra estrategia es redirigir seguidores y visitantes a canales menos controlados y cifrados (enlaces externos), como Telegram, VK, Gab o sitios web.

Este fue el caso del ‘movimiento boogaloo’ que primero publicó contenidos en Facebook para atraer seguidores, y luego los invitó a unirse a discusiones en redes de aplicaciones de mensajería como los canales de Telegram, donde era posible compartir materiales más extremos.

El uso de canales encriptados y menos controlados comenzó antes de la crisis del COVID-19. Según un informe del Consejo Europeo de Relaciones Exteriores, la suspensión de Twitter de más de 200.000 cuentas de extremistas en agosto de 2016 resultó en un «éxodo en línea hacia servicios de mensajería cifrada de extremo a extremo como Telegram, WhatsApp y Viber».

Extremistas violentos se han sentido atraídos por la gran libertad en términos de contenidos que brindan estos servicios de mensajes que, al mismo tiempo, dificultan a los organismos encargados de hacer cumplir la ley el control de las actividades extremistas. Es probable que esta tendencia se refuerce aún más a medida que avanza la pandemia.

Otro aspecto importante es el uso malintencionado de social bots o chatbots. Se trata de algoritmos informáticos que producen contenido automáticamente, interactúan con humanos en las redes sociales e intentan influir en su opinión y comportamiento.

Los bots (abreviatura de robot) sociales se están convirtiendo cada vez más en una herramienta esencial para campañas de desinformación orquestadas a gran escala en las redes sociales. Un estudio reciente de la Universidad Carnegie Mellon observó que el 45% de las cuentas de Twitter que comparten más de 200 millones de mensajes sobre el coronavirus probablemente sean bots.

Esos relatos han alimentado más de 100 narrativas falsas sobre la pandemia entre enero y mayo de 2020. Varios estudios demuestran que los grupos de extrema derecha y los grupos asociados con el EIIL y Al-Qaida poseen suficientes habilidades y conocimientos para utilizar maliciosamente bots sociales para promover su retórica y radicalizar nuevos afiliados.

Consecuencias potencialmente mortales

Es muy probable que la acción corrosiva de estos violentos actores no estatales no se limite a la crisis actual, sino que continúe después, ya que los grupos terroristas, extremistas violentos y criminales buscarán influir en las políticas post-COVID-19 para su propio beneficio.

Además, existe una peligrosa convergencia de diferentes teorías conspirativas que continúan extendiéndose por todo el mundo. Estas teorías reúnen historias diferentes y a menudo contradictorias, como la identificación de la señal del teléfono móvil 5G como vehículo para transmitir el virus, o la falsa afirmación de que la pandemia ha sido ideada por Bill Gates para implantar microchips en seres humanos, o la idea de que el virus es un engaño y no existe.

Esta convergencia de teorías de conspiración puede tener un efecto multiplicador, reforzando la polarización y el aislamiento intergrupales y, como resultado, haciendo que las personas no escuchen la orientación de sus Gobiernos frente al coronavirus (como con el rechazo de utilizar mascarillas, las medidas de confinamiento y futuras vacunas) y potencialmente aumentando los riesgos de ataques terroristas contra personas o contra infraestructuras que estén falsamente conectadas al COVID-19.

La tecnología como herramienta positiva

El informe destaca que la información precisa, responsable y confiable sigue siendo fundamental para intensificar los esfuerzos colectivos para contener la transmisión de COVID-19.

Teniendo en cuenta que las redes sociales se han convertido en una fuente principal de información para millones de personas en todo el mundo, una estrategia anti-COVID eficaz debe incluir el uso de tecnología para prevenir y combatir la desinformación y la desinformación en línea.

El informe destaca cinco herramientas:

  • La visualización de datos: A través del Big Data (los macrodatos) se pueden visualizar las capas de desinformación, mostrar narrativas interconectadas, detectar sentimientos y cuentas de bots, para tomar decisiones oportunas basadas en conocimientos visuales
  • Inteligencia artificial: Se trata de sistemas inteligentes que utilizan algoritmos para guiar al público a detectar la desinformación. Una solución que puede escalarse potencialmente y detectar en el menor tiempo las noticias e informaciones falsas
  • Aplicaciones móviles y bots de mensajería: A través de calificar noticias como “falsas o confiables” pueden ayudar al público a diferenciar entre verdades y mentiras dentro de aplicaciones como Whastapp, Viber y Facebook Messenger
  • Una extensión para los navegadores: Esta puede monitorear la fiabilidad de los sitios de noticias al navegar y desplazarse dentro de las redes sociales
  • Educación sobre los medios digitales: Se trata de luchar contra las noticias falsas educando y ayudando a las personas a identificarlas

El estudio indica que la tecnología puede jugar un importante rol en enfrentar los retos complejos impuestos por estos grupos violentos no estatales, pero advierte que por sí sola no puede resolver el problema ni remplazar el juicio humano para contrarrestar estas amenazas.

La tecnología aumenta la velocidad y la escalabilidad para analizar datos, identificar tendencias y detectar noticias sospechosas, pero la capacidad humana para evaluar la veracidad de un texto permanece (por el momento) indiscutible. Por lo tanto, la tecnología, incluida la IA, puede ayudar a los humanos a mejorar su rendimiento, pero no puede reemplazarlos.

Además, las contramedidas basadas en la tecnología ofrecen ventajas, pero al mismo tiempo, pueden traer efectos negativos, incluido el riesgo de que las herramientas tecnológicas infrinjan la libertad de expresión y la privacidad, o que contengan sesgos ocultos que reflejen inequidades sociales.

El estudio recalca que los usuarios son la fuerza de Internet y algunos grupos son particularmente hábiles para crear burbujas sociales y promover comportamientos antisociales y, al mismo tiempo, generar desconfianza hacia los medios tradicionales.

El uso efectivo de la tecnología para detectar y desacreditar las noticias falsas debe tener como objetivo involucrar y empoderar a los usuarios para que puedan comprender el problema y tomar su propia decisión informada sobre lo que es verdad y lo que no, concluye la investigación del Instituto de Investigación Interregional sobre Crimen y Justicia de las Naciones Unidas.

link:https://news.un.org/es/story/2020/11/1484342

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Si continuas utilizando este sitio aceptas el uso de cookies. más información

Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.

Cerrar