Questions et réponses à BusterAI

BusterAI est l’antivirus intelligent de l’information qui analyse la véracité des contenus écrits, photos ou vidéos, en vue de neutraliser les cybermenaces liées à la désinformation.

  • Est-ce que le filtrage du contenu n'est pas une atteinte à la liberté d'expression ?

Nous ne filtrons et ne filtrerons jamais le contenu car nous respectons les valeurs fondamentales que sont la liberté d'expression et l'égalité.

La mission de BusterAI est d’accompagner les professionnels dans la détection de signaux inhérents à l’information qu’ils traitent. Ainsi nous facilitons la prise de décision, mais le rôle de filtrage du contenu reste entre les mains des modérateurs existants.

Nos algorithmes d’IA permettent justement de marquer les contenus faux pour éviter que la vérité s’y noie comme cela est souvent le cas sur les réseaux sociaux.

Nos IA repèrent les caractères sensibles des contenus, à savoir : discours de haine, injures, pornographie, violence, sexisme, armement, maladies, radicalisation...

La responsabilité de la modération, aujourd’hui traitée de manière subjective, est laissée à l’opérationnel qui le réalise avec les analyses et traçabilités nécessaires et offerts par nos outils pour éviter toute forme de discrimination.

Nous mettons un réel point d’orgue à ce qu’il n’y ait absolument aucune dérive sur ce sujet et fournirons un plugin web gratuit (avec des options payantes) qui permettra aussi aux utilisateurs d’identifier des pages de mauvaise qualité.

  • Comment garantir qu'une instance centrale ne filtre pas les informations ?

La réalité est que personne ne peut le garantir, avec ou sans nos outils. Ces derniers permettent au contraire de voir si la qualité des informations auxquelles vous êtes exposé est de nature véridique ou fallacieuse. Journalistes, consommateurs et décideurs sont libres de consulter ou non l’information et en connaissance de cause. Je pourrais par exemple être responsable de communication dans une grande banque d’affaires et souhaiter rechercher les “Negative News” concernant une entreprise.

 

  • Est-ce que votre IA a une approche Black ou White box ?

Nos algorithmes ont une approche white box dans la mesure où leurs résultats sont observables et compréhensibles. Par exemple, pour évaluer la véracité d’une assertion, les faits utilisés pour établir cette évaluation sont également retournés en plus de l’évaluation. Concernant l’authentification de vidéos, les frames dans lesquelles sont détectées des zones d’édition sont ciblées et affichées.

Ainsi, l’utilisateur pourra se faire une opinion précise, l’exprimer comme il le souhaite, mais surtout agir en connaissance de cause et mitiger les risques liés aux cybermenaces.

 

  • BusterAI a annoncé participer au concours de détection des deepfakes de facebook. Or les premiers résultats annoncés par Facebook montrent que les meilleures solutions ont un taux de détection qui dépasse les 50% mais de peu (donc un tout petit peu mieux que le hasard). Quel est le taux de détection de BusterAI dans ce concours ?

 

Les chiffres annoncés par cette question sont faux, raison pour laquelle notre métier fait sens.

Nous ne parlons pas ici de la détection sur le texte, où nous sommes les numéros un mondiaux du prestigieux concours de l’Association for Computational Linguistics, où nous produirons très prochainement une publication à ce sujet où nos scores sont dans de nombreux cas supérieurs à l’humain.

Selon le site Facebook AI, organisateur de ce concours, le Deepfake Detection Challenge (DFDC), et le classement de Kaggle, hébergeurs des solutions du DFDC, les meilleurs algorithmes se classent au-dessus de 80% de détection sur les vidéos de test offertes par Facebook.

Pour faire une analogie “simple”, ce n’est pas parce qu'un anti-virus détecte 80% des virus connus et moins de 65% des virus inconnus sur un échantillon de 100 millions, qu’il est mauvais et qu’il ne sert à rien d’avoir un anti-virus sur sa machine. Bien au contraire ! BusterAI a été meilleur que dans cet exemple.

Kaggle a proposé des machines aux ressources limitées, partagées tout en réduisant le temps de calcul à maximum 9 secondes par vidéos. Buster.AI a scoré un peu plus de 80% de précision. En relaxant les contraintes du DFDC, nos scores passent au-dessus de 96,5% ce qui est une performance de classe mondiale.

Il y a une confusion entre les résultats du challenge DFDC sur les jeux de données du dit challenge et des données black box de test qui ne contiennent pas uniquement des Deepfake liés au visage ou à la voix et où les score sont toujours d’après les mêmes sources autour de 65%.

Mais là aussi, BusterAI possède d’autres algorithmes pour aller au-dessus de ce record sans pour autant pouvoir valider ses résultats autrement qu’en fermant l’espace des possibles, les nombre de vidéos (et donc de Deepfake) étant par définition infini.

 

  • 6.2% d'erreurs sur des volumes monstrueux... cela demande beaucoup de vérification. Non ?

Encore une fois, ce n’est pas le bon chiffre bien que l'assertion soit exacte ! Cette erreur reste cependant inférieure à l’erreur humaine en la matière, si tant est qu’un humain puisse se prononcer.

Sur un nombre significatif de vidéos, la détection de falsifications est rendue quasiment impossible pour l’humain. Tels sont les retours lors de la démonstration de nos outils : l’utilisateur ne “sait pas” là où nos algorithmes le savent et ne se trompent pas comme illustré sur notre page medium.

Il y a plusieurs heures de vidéos et des milliers d’articles ajoutées par secondes chaque jour sur internet. Aucun être humain n’est capable de regarder toutes ces vidéos ou de lire tous les textes surun sujet contrairement à des algorithmes qui pourraient le faire en continu et lui préparer la tâche. C’est précisément ce que nous sommes, un support pour l’humain afin de l’aider à se prononcer. Nous apprenons par ailleurs de sa décision, rendant chaque l’erreur de plus en plus faible.

Plus vous utilisez nos produits, plus ils sont fiables.