Table of Contents
Dans un contexte troublant, le député Philippe Gosselin (LR) a récemment déposé une proposition de loi visant à renforcer la protection des mineurs en ligne, en réponse à une affaire de deepfakes pornographiques concernant douze collégiennes de la Manche. Cette initiative, présentée le 11 mars, vise à incriminer la création et la diffusion de ces fausses images générées par l’intelligence artificielle.
Des mesures pour contrer les deepfakes
Le phénomène des deepfakes pornographiques touchant des mineurs n’est pas nouveau à l’échelle mondiale. Gosselin a souligné que des lois pénales existent déjà pour lutter contre le harcèlement, y compris le harcèlement sexuel, mais que des mesures plus strictes sont nécessaires. Sa proposition inclut plusieurs points essentiels :
- Aggravation des peines pour les infractions commises sur des mineurs de moins de 15 ans.
- Incrimination spécifique de la création et de la diffusion de deepfakes.
- Sanctions pour le partage non sollicité de telles images.
- Pénalisation de la fabrication et de la mise à disposition de modèles d’IA destinés à générer des contenus pédocriminels.
Un phénomène préoccupant
En France, la question des deepfakes n’est pas encore largement médiatisée, bien que des cas aient été signalés dans d’autres régions. En Normandie, des incidents ont été rapportés à des chefs d’établissement, mais souvent, ces affaires passent inaperçues. Gosselin a mis en avant l’ampleur sans précédent de l’affaire de la Manche, qui implique douze jeunes filles, soulignant que cela devrait alerter les familles sur les dangers de l’IA.
Prendre conscience des risques
La situation dans la Manche peut sembler surprenante, étant donné l’éloignement des grandes agglomérations. Cependant, Gosselin rappelle que toutes les populations, même celles des zones rurales, sont exposées aux évolutions technologiques. Les jeunes, moins vigilants, doivent être informés des risques liés à la publication de leur image sur les réseaux sociaux. Il est crucial de comprendre que n’importe qui peut utiliser ces images à des fins malveillantes grâce à l’IA.