Moderar el contenido en Internet de hoy en día es similar a una ronda de Whack-A-Mole con moderadores humanos continuamente obligados a reaccionar en tiempo real a las tendencias cambiantes, como la desinformación y la desinformación de vacunas o los malos actores intencionales que investigan formas de evitar las políticas de conducta personal establecidas
Los sistemas de aprendizaje automático pueden ayudar a aliviar parte de esta carga al automatizar el proceso de aplicación de políticas; sin embargo, los sistemas de inteligencia artificial modernos a menudo requieren meses de tiempo de espera para capacitarse e implementarse adecuadamente (tiempo que se dedica principalmente a recopilar y anotar los miles, si no millones, de ejemplos necesarios) . Para acortar ese tiempo de respuesta, al menos a una cuestión de semanas en lugar de meses, el grupo de investigación de IA de Meta (antes FAIR) ha desarrollado una tecnología más generalizada.eso requiere solo un puñado de ejemplos específicos para responder a formas nuevas y emergentes de contenido malicioso, llamado Few-Shot Learner (FSL).
El aprendizaje de pocas oportunidades es un desarrollo relativamente reciente en IA, que esencialmente enseña al sistema a hacer predicciones precisas basadas en un número limitado de ejemplos de entrenamiento, todo lo contrario a los métodos de aprendizaje supervisado convencionales. Por ejemplo, si quisieras entrenar un modelo SL estándar para reconocer imágenes de conejos, lo alimentas con un par de cientos de miles de imágenes de conejos y luego puedes presentarle dos imágenes y preguntar si ambas muestran el mismo animal. El caso es que el modelo no sabe si las dos imágenes son de conejos porque en realidad no sabe qué es un conejo. Esto se debe a que el propósito del modelo no es detectar conejos, el propósito del modelo es buscar similitudes y diferencias entre las imágenes presentadas y predecir si las cosas que se muestran son iguales o no. No existe un contexto más amplio para que el modelo funcione,
FSL se basa mucho menos en datos etiquetados (es decir, imágenes de conejos) en favor de un sistema generalizado, más parecido a cómo aprenden los humanos que las IA convencionales. "Primero se entrena con miles de millones de ejemplos de lenguaje genérico y de código abierto", según una publicación de blog de Wednesday Meta. “Luego, el sistema de inteligencia artificial se entrena con datos específicos de integridad que hemos etiquetado a lo largo de los años. Finalmente, está capacitado en texto condensado que explica una nueva política ". Y a diferencia del modelo anterior de comparación de conejos, FSL "está preentrenado tanto en lenguaje general como en lenguaje específico de integridad para que pueda aprender implícitamente el texto de la política".
Las pruebas recientes del sistema FSL han resultado alentadoras. Los meta investigadores observaron el cambio en la prevalencia de contenido dañino que se muestra a los usuarios de Facebook e Instagram antes y después de la activación de FSL en los sitios. El sistema encontró contenido dañino que los modelos SL convencionales habían pasado por alto y redujo la prevalencia de ese contenido en general. Según se informa, el sistema FSL superó a otros modelos de pocos disparos hasta en un 55 por ciento (aunque solo en un 12 por ciento en promedio).
El rendimiento mejorado de FSL se debe en parte a la vinculación, definida como“El acto o hecho de implicar, o involucrar por necesidad o como consecuencia”. Es esencialmente una consecuencia lógica entre dos oraciones: si la oración A es verdadera, entonces la oración B también debe ser verdadera. Por ejemplo, si la oración A es "El presidente fue asesinado", entonces implica que la oración B, "el presidente está muerto", también es verdadera, precisa y correcta. Al aprovechar la implicación en el sistema FSL, el equipo puede "convertir la etiqueta de la clase en una oración en lenguaje natural que se puede usar para describir la etiqueta y determinar si el ejemplo implica la descripción de la etiqueta", explicaron los investigadores de Meta AI. Entonces, en lugar de tratar de generalizar lo que un modelo SL convencional sabe de su conjunto de entrenamiento (cientos de miles de imágenes de conejos) al conjunto de prueba ("¿Son estas dos imágenes de conejos?"),
La flexibilidad adicional de tener una "base de conocimiento y columna vertebral única y compartida" podría algún día permitir que los sistemas de moderación de inteligencia artificial reconozcan y reaccionen a nuevas formas de contenido dañino mucho más rápidamente, capten más contenido que apenas elude las políticas actuales e incluso ayuden a Meta desarrollar y definir mejor las políticas futuras.
[Fuente]: engadget.com
KNFind.( 9 de Diciembre de 2021).18 images. [Fotografía]. Modificado por Carlos Zambrado Recuperado de pixabay.com