Date de publication :
Je souhaite aller plus loin, je veux être contacté(e) par un expert gratuitement.
Être contactéPrès de la moitié des utilisateurs allemands se disent capables d’identifier des contenus créés par l’IA. Pourtant, dans la pratique, peu adoptent des réflexes de vérification : seulement 28 % ont déjà recherché des incohérences visuelles dans une image, et 19 % ont contrôlé la fiabilité de la source. Un tiers des personnes interrogées n’a appliqué aucune des mesures usuelles de détection, même si 40 % affirment s’interroger sur le réalisme des scènes présentées.
Les autorités allemandes s’inquiètent particulièrement de la montée de la fraude liée au trading en ligne. Selon la police, des escrocs utilisent de plus en plus l’IA pour créer de fausses vidéos où des personnalités semblent promouvoir des investissements très rentables. Face à ces offres « trop belles pour être vraies », le premier réflexe devrait être de questionner leur crédibilité, rappelle le ProPK.
Le rapport souligne également un manque de sensibilisation aux scénarios d’attaque avancés. Seuls 38 % des sondés jugent possible qu’un système d’IA soit manipulé pour divulguer des données sensibles, et 40 % savent que des instructions cachées peuvent être intégrées dans des documents, des pratiques pourtant techniquement réalisables.
Pour répondre à ces lacunes, le BSI et le ProPK proposent des check‑lists pratiques : indices pour reconnaître des images générées par l’IA, conseils face aux arnaques à l’investissement en ligne et procédures à suivre en cas de fraude bancaire. Les résultats complets de l’enquête nationale sur l’exposition et les comportements de protection seront publiés en mai 2026.