Las
redes sociales se han convertido en un corral en donde picotean las
personas con sus amigos y familiares, y de paso se informan y consumen
contenido por doquier. Pero, al margen de estas inocentes actividades,
también es el patio de recreo de ciberterroristas que comparten y difunden contenidos extremistas.
Un escenario que Facebook, la mayor red social del planeta, pretende
combatir con la aplicación de sistemas informáticos basados en
inteligencia artificial y la ayuda de organismos gubernamentales.
A raíz de los últimos ataques terroristas y en medio de la lacra de las llamadas «noticias falsas», la multinacional americana vive con un quebradero de cabeza de difícil solución. El empleo de las redes sociales por parte de grupos extremistas es cada vez más habitual, puesto que difundir un mensaje en video por ejemplo para captar miembros para la causa yihadista es demasiado sencillo. Pero la firma fundada por el joven multimillonario Mark Zuckerberg tiene un plan: ha empezado a combatir el terrorismo mediante un algoritmo informático basado en inteligencia artificial capaz de analizar imágenes y textos extremistas en tiempo real.
Para ello, ha empezado a utilizar una serie de herramientas recientemente. Y lo consigue, además, antes incluso de que se publiquen, en una maniobra que se apoya en un equipo de 150 expertos en revisión de textos, según señala en un comunicado Monika Bickert, directora de políticas globales, y Brian Fishman, responsable de política antiterrorista de la compañía. La idea con la que trabaja es la combinación de un «ojo» informático y la intervención de la mano humana es la fórmula para bloquear este tipo de comentarios.
Facebook se enfoca, especialmente, en detectar imágenes y videos producidos por el Estado Islámico y Al Qaeda, aunque no se ha pronunciado sobre otras organizaciones terroristas. El software de la red social que se apoya en sistemas cognitivos trabaja mediante el análisis y la comparación de contenidos de ciberprogaganda difundidos con anterioridad por grupos extremistas. En base a su repercusión, Facebook logra -reconocen- detectar una nueva actualización, paralizando su difusión en pocos minutos y evitando así que se hagan virales.
No obstante, de la misma forma que tiene lugar con las imágenes, la plataforma cuenta con otros sistemas que analizan los textos de las publicaciones. Esa inteligencia artificial, que se basa en métodos de «machine learning» o aprendizaje automático a partir de otras publicaciones de terroristas, sería capaz de detectar los «posts» relacionados con el terrorismo antes incluso de su publicación. Es decir, justo en el momento en el que se cargan en los servidores. «Queremos localizar contenido terrorista inmediatamente, antes de que los usuarios de nuestra comunidad lo haya visto», prometen.
Pese a reconocer el problema, desde la compañía asumen apuntan que se trate de una «solución técnica fácil» sino más bien un conjunto de ideas en las que han empezado a trabajar, aunque sus resultados se desconocen. El reto de «limpiar» de videos y textos inapropiados por parte de Facebook requerirá también de otras herramientas adicionales, según anuncian las mismas fuentes. Para lograrlo, la empresa insta a estrechar una colaboración entre distintos organismos gubernamentales, administraciones, la cooperación del sector o empresas de servicios de encriptación de comunicaciones.
Algunas de estas medidas se empezarán a aplicar también en otros servicios de la compañía como la red de fotografía Instagram o la aplicación de mensajería WhatsApp. En la red social, incluso, utiliza técnicas para evitar que los terroristas se creen varias cuentas una vez han sido bloqueados. A pesar del uso de algoritmos, Facebook ha asegurado que dispone también de personal especializado encargado de supervisar los contenidos sensibles en la red social. Además del sistema de denuncias, que son revisadas por una comunidad de 3.000 trabajadores, Facebook ha creado un equipo de 150 especialistas en contraterrorismo.
A raíz de los últimos ataques terroristas y en medio de la lacra de las llamadas «noticias falsas», la multinacional americana vive con un quebradero de cabeza de difícil solución. El empleo de las redes sociales por parte de grupos extremistas es cada vez más habitual, puesto que difundir un mensaje en video por ejemplo para captar miembros para la causa yihadista es demasiado sencillo. Pero la firma fundada por el joven multimillonario Mark Zuckerberg tiene un plan: ha empezado a combatir el terrorismo mediante un algoritmo informático basado en inteligencia artificial capaz de analizar imágenes y textos extremistas en tiempo real.
Para ello, ha empezado a utilizar una serie de herramientas recientemente. Y lo consigue, además, antes incluso de que se publiquen, en una maniobra que se apoya en un equipo de 150 expertos en revisión de textos, según señala en un comunicado Monika Bickert, directora de políticas globales, y Brian Fishman, responsable de política antiterrorista de la compañía. La idea con la que trabaja es la combinación de un «ojo» informático y la intervención de la mano humana es la fórmula para bloquear este tipo de comentarios.
Facebook se enfoca, especialmente, en detectar imágenes y videos producidos por el Estado Islámico y Al Qaeda, aunque no se ha pronunciado sobre otras organizaciones terroristas. El software de la red social que se apoya en sistemas cognitivos trabaja mediante el análisis y la comparación de contenidos de ciberprogaganda difundidos con anterioridad por grupos extremistas. En base a su repercusión, Facebook logra -reconocen- detectar una nueva actualización, paralizando su difusión en pocos minutos y evitando así que se hagan virales.
No obstante, de la misma forma que tiene lugar con las imágenes, la plataforma cuenta con otros sistemas que analizan los textos de las publicaciones. Esa inteligencia artificial, que se basa en métodos de «machine learning» o aprendizaje automático a partir de otras publicaciones de terroristas, sería capaz de detectar los «posts» relacionados con el terrorismo antes incluso de su publicación. Es decir, justo en el momento en el que se cargan en los servidores. «Queremos localizar contenido terrorista inmediatamente, antes de que los usuarios de nuestra comunidad lo haya visto», prometen.
Pese a reconocer el problema, desde la compañía asumen apuntan que se trate de una «solución técnica fácil» sino más bien un conjunto de ideas en las que han empezado a trabajar, aunque sus resultados se desconocen. El reto de «limpiar» de videos y textos inapropiados por parte de Facebook requerirá también de otras herramientas adicionales, según anuncian las mismas fuentes. Para lograrlo, la empresa insta a estrechar una colaboración entre distintos organismos gubernamentales, administraciones, la cooperación del sector o empresas de servicios de encriptación de comunicaciones.
Algunas de estas medidas se empezarán a aplicar también en otros servicios de la compañía como la red de fotografía Instagram o la aplicación de mensajería WhatsApp. En la red social, incluso, utiliza técnicas para evitar que los terroristas se creen varias cuentas una vez han sido bloqueados. A pesar del uso de algoritmos, Facebook ha asegurado que dispone también de personal especializado encargado de supervisar los contenidos sensibles en la red social. Además del sistema de denuncias, que son revisadas por una comunidad de 3.000 trabajadores, Facebook ha creado un equipo de 150 especialistas en contraterrorismo.