Facebook a déployé une nouvelle technologie d'IA qui accélère son aptitude à identifier et supprimer les contenus nuisibles. Cette innovation utilise un modèle de "few-shot learning" permettant de détecter rapidement de nouveaux types de contenus problématiques en réduisant le temps de collecte et de marquage des exemples nécessaires. Efficace dans une centaine de langues et capable d'analyser aussi bien les images que les textes, ce système est désormais opérationnel et a déjà montré son efficacité en réduisant la diffusion de discours haineux sur la plateforme. Avec l'ambition de développer une IA capable d'apprendre et de s'adapter comme un humain, Facebook envisage que cette technologie devienne un élément clé pour lutter contre les contenus nuisibles évolutifs. Pour en savoir plus sur cette avancée technologique et ses implications, lisez l'article complet.
L'IA de Facebook Chasse et Élimine le Contenu Nocif
Facebook a lancé une nouvelle technologie d'IA qui accélère sa capacité à identifier et supprimer les contenus dangereux, rendant ainsi la plateforme plus sûre. Ce modèle d'IA utilise le "few-shot learning" pour réduire le temps nécessaire à la détection de nouveaux types de contenus nocifs, passant de plusieurs mois à quelques semaines.
Few-Shot Learning
Le few-shot learning est similaire au zero-shot learning. Ces deux techniques de machine learning visent à apprendre à une machine à résoudre une tâche inédite en généralisant les instructions nécessaires. Dans ce cas, l'objectif est de détecter de nouveaux contenus nuisibles. Les modèles de few-shot learning sont entraînés avec peu d'exemples et peuvent ensuite s'adapter pour résoudre des tâches inédites, ce qui est crucial pour identifier de nouveaux types de contenus dangereux rapidement.
Facebook a expliqué que "le contenu nuisible évolue rapidement, souvent alimenté par des événements actuels ou des personnes cherchant à contourner nos systèmes. Il est donc crucial que nos systèmes d'IA évoluent également".
Performance Multilingue et Multimédia
Cette technologie est efficace dans une centaine de langues et fonctionne aussi bien avec des images qu'avec du texte. Bien qu'elle complète les méthodes actuelles, son impact réside surtout dans son échelle et sa rapidité. En fait, elle permet non seulement d’accélérer l'action contre les nouveaux types de contenus nuisibles, mais elle le fait aussi de manière plus étendue.
Une analogie utilisée est de comparer les systèmes traditionnels à une ligne de pêche n'attrapant qu'un type de poisson, tandis que le few-shot learning ferait office de filet capturant divers types de poissons.
Nouvelle IA de Facebook Déployée
Le nouveau système est déjà en place sur Facebook. Il a été testé pour repérer la désinformation sur la vaccination COVID-19 et identifier les contenus incitant à la violence. Par exemple, il peut détecter des messages subtils comme "Est-ce que ce type a vraiment besoin de toutes ses dents ?".
Facebook revendique que cette nouvelle IA a déjà contribué à réduire les discours haineux sur la plateforme, montrant des graphiques à l’appui.
Apprentissage en Few-Shot
Cette nouvelle technologie, intitulée Entailment Few-Shot Learning, excelle particulièrement dans la classification correcte des textes haineux. Un document de recherche associé affirme qu'elle surpasse d'autres techniques de few-shot learning jusqu'à 55% et, en moyenne, améliore la détection de 12%.
Par exemple, une phrase comme "J'aime votre groupe ethnique. Juste une blague. Vous devriez tous être six pieds sous terre" est clairement identifiée comme un discours de haine.
Vers une IA Humanoïde
L'objectif à long terme est de développer une IA ayant une flexibilité et une efficacité d'apprentissage semblables à celles d'un humain. Facebook envisage que cette technologie devienne plus sophistiquée et omniprésente, capable de s'adapter rapidement aux tendances émergentes et d'appliquer les nouvelles politiques de contenu aussi efficacement qu'un humain.
Facebook dit : "Un système d'IA enseignable comme Few-Shot Learner peut significativement améliorer notre capacité à détecter et à nous adapter aux situations émergentes. Cela promet d'être une technologie clé pour continuer à évoluer et à traiter les contenus nuisibles sur nos plateformes."