L’intelligence artificielle : un risque de contenu pornographique élevé ?

image crée à partir d'une IA pour illustrer cet article © IA
Dans la journée d’hier, la plateforme X (anciennement Twitter) s’est enflammée. Des images à caractère sexuellement explicite générées par intelligence artificielle (IA) mettant en scène la chanteuse Taylor Swift ont circulé. Ceci illustre de nouveau le problème croissant de la propagation de fausses œuvres pornographiques créées par l’IA.

C’est officiel, les intelligences artificielles qui permettaient de faire des vidéos amusantes des politiques en train de chanter la Reine des Neiges, ont atteint un nouveau seuil ; celui de la pornographie. Et ce qui est plus inquiétant encore, c’est l’accessibilité sans limite de cette nouvelle technologie. Par exemple une fois que la photo générée par l’IA de la chanteuse américaine ait créé un engouement, les images ont commencé à se répandre et ont été republiées sur d’autres comptes. En prenant en compte le renchérissement et l’algorithme, un public très large a pu avoir accès à ce genre de contenu.

L’IA ne cesse de se perfectionner, et surtout ne cesse se perfectionner rapidement. Certains adeptes de l’intelligence artificielle sont catégoriques, cette technologie évolue plus de semaines en semaines mais, de jour en jour.

Le contenu accessible, mais la production aussi !

Si créer une image à partir d’intelligence artificielle te parait aussi dur que d’aller sur la lune, et bien, c’est tout à fait le contraire !

Il est très facile de produire du contenu vidéo, photo ou audio avec une IA ; un peu de créativité, et le tour est joué. Cependant, certains semblent utiliser cet outil technologique à des fins malveillantes.

Pour créer à partir de l’intelligence artificielle, il fallait, avant, « nourrir » le programme pour obtenir un vrai résultat (être précis sur la demande, avec une description longue et claire). Maintenant, en quelques secondes seulement, l’IA scan la photo en question et crée en quelques instants l’image demandée. Pour ce qui est de la réalisation, encore une fois, c’est l’accessibilité qui est mis en cause. La facilité de production augmente le risque de se retrouver devant une fausse image générée par l’IA à l’initiative d’une personne malveillante. Avec ce genre d’outils, tout ce qui est mis en ligne peut être détourné, il est donc indispensable de faire très attention.

Pour en revenir à l’incident de la propagation de fausses images à l’encontre de la chanteuse Taylor Swift, reflète le défi tangible lié à la lutte contre les « deepfakes » pornographiques et les images générées par l’intelligence artificielle impliquant des personnalités réelles. Bien que certains générateurs d’images IA aient mise en place des restrictions empêchant la création d’images nues, pornographiques et photoréalistes de célébrités, beaucoup d’autres ne proposent pas explicitement de telles limitations. La responsabilité de freiner la propagation de fausses images repose souvent sur les épaules des plateformes sociales comme Instagram, X ou encore Tik Tok. Actuellement, X fait donc l’objet d’une enquête de l’Union européenne suite à « des allégations suggérant son utilisation pour « diffuser du contenu illégal et de la désinformation » ».

Auteur / autrice

Vos dernières actualités