Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Seuls 6% des Français sont certains de détecter une image générée par l’IA

avril 2024 par IFOP, Alucare.fr et FLASHS

Les progrès fulgurants de l’intelligence artificielle permettent désormais aux escrocs de créer aisément des deepfakes, ces vidéos dans lesquelles l’image et/ou la voix d’une personne sont reconstituées à son insu. Le célèbre youtubeur Cyprien vient d’en être à son tour la victime au travers d’une fausse vidéo diffusée sur les réseaux sociaux, dans laquelle la voix clonée de la présentatrice de TF1 Anne-Claire Coudray le présente comme créateur d’un nouveau jeu sur mobile.

De plus sophistiqués, les outils IA rendent très difficile la détection de ces créations trompeuses. Et de cela, les Français ont parfaitement conscience, comme le montrent les résultats de l’étude que vient de réaliser l’IFOP auprès de plus de 2 000 personnes à la demande du site dédié aux divertissements et à l’intelligence artificielle Alucare.fr et l’agence spécialisée en data FLASHS.

Entre incapacité à déceler le vrai du faux et craintes des conséquences de ces deepfakes sur la vie démocratique, voire sur leur propre intimité, les Français réclament massivement des mesures d’authentification et de protection.

67% des Français ne se sentent pas en capacité d’identifier clairement la nature d’une image ou d’une vidéo. Seuls 6% en sont certains. Une difficulté confirmée par le test visuel proposé aux personnes interrogées : 94% ont cru à la véracité d’au moins une des 5 photos qui leur étaient montrées alors qu’elles étaient toutes créées artificiellement.

Pour 59% des répondants, un mouvement des lèvres pas naturel peut trahir un deepfake, mais d’autres signes (forme des mains, pilosité du visage, ombres imprécises) sont jugés compliqués à reconnaitre par la grande majorité.

Forts de ce constat, 90% des Français réclament qu’une mention qui identifie clairement l’origine d’une image ou d’une vidéo.

62% se disent inquiets pour la prochaine élection présidentielle

57% des Français (et 64% des 18-24 ans) redoutent d’être un jour victimes du détournement de leur image au moyen de l’intelligence artificielle. D’ailleurs, 4% indiquent que cela s’est déjà produit, notamment les plus jeunes (13% des moins de 25 ans sont dans ce cas).

Inquiets pour eux-mêmes, les Français le sont également quant à l’utilisation de deepfakes dans le cadre du processus démocratique : 62% craignent en effet que les hypertrucages interfèrent avec l’élection présidentielle de 2027, 16% disant avoir très peur que cela se produise.

31% ont déjà relayé des fake news

Si 69% des personnes interrogées disent avoir déjà entendu parler de deepfakes, elles ne sont que 30% à en avoir une idée précise. Un réel gap sépare les générations sur le sujet : 83% des 18-24 ans connaissent le terme et 50% savent ce dont il s’agit, ce qui est respectivement vrai pour 66% et 15% des plus de 65 ans.

Cette connaissance partielle explique en partie la diffusion d’informations dont les Français s’aperçoivent après coup qu’elles sont fausses. 31% reconnaissent avoir déjà partagé des fake news, une proportion qui monte à 46% chez les 18-24 ans.


Enquête IFOP pour Alucare.fr réalisée par questionnaire auto-administré du 5 au 8 mars 2024 auprès de 2191 personnes représentatives de la population française de 18 ans et plus, dont 551 jeunes de moins de 35 ans.


Voir les articles précédents

    

Voir les articles suivants