Les humains ne peuvent identifier que 73 % des contenus audio générés par l'intelligence artificielle
Le 7 juillet, le Center for Open Science a publié de nouvelles données sur la reconnaissance des deepfakes audio dans le cadre de son projet OSF. Ce projet, qui a commencé au début de l'année, a pour but d’étudier la capacité des humains à détecter des échantillons vocaux générés par l'IA. 50 échantillons de discours ont été générés à partir de deux ensembles de données publiques en anglais et en mandarin.
Les deepfakes, ou « hypertrucages », sont des contenus audio ou vidéo créés grâce à l’intelligence artificielle dans lesquels la voix ou l'apparence d'une personne réelle sont imitées. On a demandé à 529 participants de discerner quels échantillons avaient été truqués et lesquels étaient authentiques. Ils n'ont réussi à identifier les faux discours que dans 73 % des cas. Une formation supplémentaire à la reconnaissance des deepfakes n’a pas fait une grande différence.
Selon les experts de ce secteur, la génération de deepfakes est l’utilisation de l'intelligence artificielle qui suscite le plus d’inquiétudes. Or, les systèmes de détection largement disponibles n’arrivent pas à suivre le rythme de leur développement. De plus, il n’existe pas encore de législation sur l’utilisation d