En una reciente publicación sobre lo ocurrido en sus plataformas durante las últimas elecciones de 2024 Meta sostiene que el impacto de las IA en la producción desinformación no ha sido significativo. En los casos en los que se produjo, afirma la compañía, su alcance fue limitado. Del total de desinformación detectada solo el 1% ha estado relacionado con material generado por inteligencia artificial.
Meta afirma que las práctica y políticas que ha establecido previamente para detectar y manejar la desinformación han demostrado ser suficientes.
Medidas y acciones preventivas
La compañía explica que su sistema de generación de imágenes ha rechazado más de 590 mil pedidos para la producción de retratos de los candidatos en las elecciones de Estados Unidos, así como del actual presidente.
El monitoreo de las campañas de desinformación solo mostró un crecimiento limitado en la producción de contenido a través de las IA. Meta explica que la inteligencia artificial no ha impedido la acción contra estas campañas porque la investigación se centra en el comportamiento, no en el contenido en sí.
Este comentario en particular resulta muy interesante. Lo que queda por ver es si un cambio en la estrategia de siembra (instalación del material en las redes) podría hacer que el material fuera más peligroso. Por lo pronto parece una buena noticia.
Una medida que aparece como bastante acertada es que la IA de Meta fue programada para responder a las consultas sobre las elecciones con información de organismos oficiales y enlaces a las organizaciones relacionadas. Meta también ha actuado en cooperación con varias agencias gubernamentales y no gubernamentales que combaten la desinformación.
Una breve opinión
¿Estamos seguros de que las IA no son un problema tan grave? No. Pero mucho de lo que dice Meta tiene sentido. Hay conductas y medios de difusión que pueden identificarse como fuentes poco confiables, estrategias que las campañas siguen exhibiendo cuando se las examina.