Science

Bientôt, un nouvel outil pour lutter contre les robots Twitter diffusant de fausses nouvelles

Les scientifiques développent un nouvel outil informatique capable de détecter les robots Twitter qui créent et diffusent de fausses informations, une avancée qui pourrait aider à contrer la menace croissante des fausses nouvelles. Cependant, sur Twitter, les comptes sont gérés par des robots qui mènent une activité apparemment réelle.

outil pour détecter les bots, publication de fausses informations, bots Twitter, lutte contre les fausses nouvelles, activité réelle, IA haut de gamme,Les chercheurs visent à créer des programmes informatiques qui distinguent les robots des humains.

Les scientifiques développent un nouvel outil informatique capable de détecter les robots Twitter qui créent et diffusent de fausses informations, une avancée qui pourrait aider à contrer la menace croissante des fausses nouvelles. Les bots, dans le contexte de Twitter, sont des comptes gérés par des programmes informatiques qui publient et transmettent automatiquement du contenu, suivent d'autres comptes, laissent des commentaires et mènent une activité apparemment réelle.



À l'heure actuelle, vous ne savez pas ce qui vient d'une personne réelle et ce qui vient d'un ordinateur, parfois pour des raisons malveillantes, ou du moins trompeuses, a déclaré Chengkai Li, de l'Université du Texas à Arlington (UTA) aux États-Unis. . Les chercheurs visent à créer des programmes informatiques qui distinguent les robots des humains.

Par exemple, même si un bot utilise une intelligence artificielle haut de gamme et une puissance de traitement massive, une technique de détection extrêmement simple peut suffire si le bot publie toujours à la même heure de la journée ou a un autre trait qui permet de le distinguer facilement. des humains, a déclaré Christoph Csallner, professeur agrégé à l'UTA. Les chercheurs ont déclaré que ce qui rend la tâche particulièrement difficile, c'est que la naissance de fausses nouvelles contient souvent des faits réels contenus dans un rapport.



Vous pourriez constater qu'un bot prend une information réelle et vraie, puis ajoute un élément qui n'est pas vrai. Donc, au final, vous avez différents niveaux de fausses nouvelles, a déclaré Mark Tremayne, professeur adjoint à l'UTA. Nous tirerons parti de notre expertise en recherche dans la vérification informatique des faits, l'analyse de code statique et dynamique, l'exploration de données et la sécurité, a déclaré Li. Nous mènerons des expériences pour mieux comprendre l'interaction entre les bots et les comportements et effets de consommation d'actualités, a-t-il déclaré.



En réunissant une équipe d'informaticiens et d'universitaires en sciences sociales, ce projet vise à faire progresser notre compréhension des robots de fausses informations et notre capacité à les contrer, a-t-il ajouté.