Artwork

Indhold leveret af France Médias Monde. Alt podcastindhold inklusive episoder, grafik og podcastbeskrivelser uploades og leveres direkte af France Médias Monde eller deres podcastplatformspartner. Hvis du mener, at nogen bruger dit ophavsretligt beskyttede værk uden din tilladelse, kan du følge processen beskrevet her https://da.player.fm/legal.
Player FM - Podcast-app
Gå offline med appen Player FM !

Royaume-Uni: la progression «glaçante» des images IA pédopornographiques

3:21
 
Del
 

Manage episode 446379582 series 3367245
Indhold leveret af France Médias Monde. Alt podcastindhold inklusive episoder, grafik og podcastbeskrivelser uploades og leveres direkte af France Médias Monde eller deres podcastplatformspartner. Hvis du mener, at nogen bruger dit ophavsretligt beskyttede værk uden din tilladelse, kan du følge processen beskrevet her https://da.player.fm/legal.

Le nombre d'images et de vidéos d'agressions sexuelles d'enfants générées par intelligence artificielle est en progression « glaçante », s’inquiète une organisation britannique chargée de détecter et retirer ces contenus. Ces photos ou vidéos montrant des mineurs agressés et maltraités sont si réalistes qu'il devient presque impossible de les distinguer des véritables scènes d’enfants abusés, alerte dans son communiqué l'Internet Watch Foundation.

Au Royaume-Uni comme en Europe et dans la plupart des pays occidentaux, les textes législatifs interdisant la génération d’images à caractère sexuel réalisées à l’aide d’un programme d'intelligence artificielle (IA) génératif et leur partage en ligne s’accumulent. Mais rien n’y fait. Jusqu’à présent, en vertu de la loi sur la sécurité en ligne de janvier 2024, la création, la détention à titre privé, le partage de ces clichés et clips vidéo ultraréalistes était déjà illégal au Royaume-Uni.

Par exemple, si un internaute les partage après l'avoir créé, il est condamné à une peine de prison systématique. Des lois qui n’ont strictement rien réglé, accuse aujourd’hui l’Internet watch foundation, l’une des principales associations de lutte contre la production et la diffusion d’images pédopornographiques en Europe.

Les hyper-trucages difficiles à déceler

La Fondation alerte sur la progression « glaçante » des clips vidéo pornographiques mettant en scène des enfants, tant par leur nombre que par le réalisme des images générées par IA. L’association britannique qui avait reçu 70 rapports concernant la diffusion de ces hyper-trucages sur l’année écoulée entre avril 2023 et mars 2024, en a déjà reçu 74 en l’espace de six mois, entre avril et fin septembre de cette année.

La quasi-totalité de ces images se trouvait sur des sites ouverts, facilement accessibles au grand public, principalement hébergés en Russie, aux États-Unis et au Japon. Plus des trois quarts d’entre elles ont été directement signalées à l’association par des internautes, après avoir été vues sur des « forums ou des galeries d’images IA », selon un analyste de l’organisation, resté anonyme par sécurité.

Toujours selon cet analyste, l’augmentation de ces signalements « donne l’impression que nous sommes arrivés à un point critique » en insistant sur le risque que les ONG et la police soient submergées par des centaines de nouvelles images. Et sans pouvoir déterminer si un véritable enfant a besoin d’aide quelque part.

Les grandes firmes de l'IA pointées du doigt

Pire, pour atteindre le niveau de sophistication de ces clips nauséabonds, les logiciels IA ont dû apprendre à partir d’images et de vidéos réelles d’agressions sexuelles sur des mineurs. Et c’est peut-être la partie la plus sombre du problème. Comment les grandes firmes de l’IA ont-elles pu donner un accès sans contrôle à leurs programmes d’entrainement à des groupes de cybercriminels qui se sont lancés dans une production quasi industrielle des logiciels d’hyper-trucages pédopornographiques ?

Pour toutes ces raisons, l’Internet watch foundation demande instamment aux députés britanniques de réviser la loi sur la protection des mineurs. Le sujet est aussi à l’ordre du jour de la Commission européenne qui a lancé, ce 15 octobre 2024, un appel d’offres doté de 4 millions d’euros et ouvert jusqu’au 18 novembre prochain pour élaborer dans un premier temps une « solution à court terme » de vérification de l’âge « préservant la vie privée » des internautes de l’UE.

À lire aussiLes diplomates de l'ONU piégés par des deepfakes... pour la bonne cause

  continue reading

34 episoder

Artwork
iconDel
 
Manage episode 446379582 series 3367245
Indhold leveret af France Médias Monde. Alt podcastindhold inklusive episoder, grafik og podcastbeskrivelser uploades og leveres direkte af France Médias Monde eller deres podcastplatformspartner. Hvis du mener, at nogen bruger dit ophavsretligt beskyttede værk uden din tilladelse, kan du følge processen beskrevet her https://da.player.fm/legal.

Le nombre d'images et de vidéos d'agressions sexuelles d'enfants générées par intelligence artificielle est en progression « glaçante », s’inquiète une organisation britannique chargée de détecter et retirer ces contenus. Ces photos ou vidéos montrant des mineurs agressés et maltraités sont si réalistes qu'il devient presque impossible de les distinguer des véritables scènes d’enfants abusés, alerte dans son communiqué l'Internet Watch Foundation.

Au Royaume-Uni comme en Europe et dans la plupart des pays occidentaux, les textes législatifs interdisant la génération d’images à caractère sexuel réalisées à l’aide d’un programme d'intelligence artificielle (IA) génératif et leur partage en ligne s’accumulent. Mais rien n’y fait. Jusqu’à présent, en vertu de la loi sur la sécurité en ligne de janvier 2024, la création, la détention à titre privé, le partage de ces clichés et clips vidéo ultraréalistes était déjà illégal au Royaume-Uni.

Par exemple, si un internaute les partage après l'avoir créé, il est condamné à une peine de prison systématique. Des lois qui n’ont strictement rien réglé, accuse aujourd’hui l’Internet watch foundation, l’une des principales associations de lutte contre la production et la diffusion d’images pédopornographiques en Europe.

Les hyper-trucages difficiles à déceler

La Fondation alerte sur la progression « glaçante » des clips vidéo pornographiques mettant en scène des enfants, tant par leur nombre que par le réalisme des images générées par IA. L’association britannique qui avait reçu 70 rapports concernant la diffusion de ces hyper-trucages sur l’année écoulée entre avril 2023 et mars 2024, en a déjà reçu 74 en l’espace de six mois, entre avril et fin septembre de cette année.

La quasi-totalité de ces images se trouvait sur des sites ouverts, facilement accessibles au grand public, principalement hébergés en Russie, aux États-Unis et au Japon. Plus des trois quarts d’entre elles ont été directement signalées à l’association par des internautes, après avoir été vues sur des « forums ou des galeries d’images IA », selon un analyste de l’organisation, resté anonyme par sécurité.

Toujours selon cet analyste, l’augmentation de ces signalements « donne l’impression que nous sommes arrivés à un point critique » en insistant sur le risque que les ONG et la police soient submergées par des centaines de nouvelles images. Et sans pouvoir déterminer si un véritable enfant a besoin d’aide quelque part.

Les grandes firmes de l'IA pointées du doigt

Pire, pour atteindre le niveau de sophistication de ces clips nauséabonds, les logiciels IA ont dû apprendre à partir d’images et de vidéos réelles d’agressions sexuelles sur des mineurs. Et c’est peut-être la partie la plus sombre du problème. Comment les grandes firmes de l’IA ont-elles pu donner un accès sans contrôle à leurs programmes d’entrainement à des groupes de cybercriminels qui se sont lancés dans une production quasi industrielle des logiciels d’hyper-trucages pédopornographiques ?

Pour toutes ces raisons, l’Internet watch foundation demande instamment aux députés britanniques de réviser la loi sur la protection des mineurs. Le sujet est aussi à l’ordre du jour de la Commission européenne qui a lancé, ce 15 octobre 2024, un appel d’offres doté de 4 millions d’euros et ouvert jusqu’au 18 novembre prochain pour élaborer dans un premier temps une « solution à court terme » de vérification de l’âge « préservant la vie privée » des internautes de l’UE.

À lire aussiLes diplomates de l'ONU piégés par des deepfakes... pour la bonne cause

  continue reading

34 episoder

Όλα τα επεισόδια

×
 
Loading …

Velkommen til Player FM!

Player FM is scanning the web for high-quality podcasts for you to enjoy right now. It's the best podcast app and works on Android, iPhone, and the web. Signup to sync subscriptions across devices.

 

Hurtig referencevejledning

Lyt til dette show, mens du udforsker
Afspil