OpenAI prétend pouvoir détecter les images créées par son propre logiciel… presque

OpenAI

Tl;dr

  • Outils de détection d’images créées par IA de OpenAI
  • Environ 98% de précision sur les images générées par DALL-E 3
  • Performances réduites avec des images modifiées ou créées par d’autres IA
  • Preuve de la montée des images IA générées dans la propagation d’informations trompeuses

Identification des images générées par l’IA : une lutte permanente

Nous nous croyons tous compétents pour identifier des images générées par l’intelligence artificielle. Des textes étranges en arrière-plan, des inexactitudes insensées violant les lois de la physique et surtout, les mains et les doigts au rendu grotesque. Cependant, la technologie évolue constamment et il ne sera pas long avant que nous ne puissions plus distinguer le réel de l’artificiel.

OpenAI versus les images trompeuses

OpenAI, acteur de premier plan dans l’industrie, tente de prendre les devants en créant une boîte à outils permettant de détecter les images créées par son propre générateur DALL-E 3. Si l’entreprise affirme pouvoir “détecter avec précision 98% des images conçues par DALL-3”, il existe néanmoins de grandes réserves.

Résultats mitigés et problèmes rencontrés

Tout d’abord, l’image doit être créée par DALL-E et, certes, il ne s’agit pas du seul générateur d’image. Le web en regorge. En se basant sur les données fournies par OpenAI, le système n’a réussi à classer correctement que 5 à 10% des images produites par d’autres modèles d’IA.

De plus, le système rencontre des difficultés si l’image a été modifiée de quelque façon que ce soit. Bien que pour des modifications mineures telles que le recadrage, la compression et les variations de saturation, le taux de réussite reste acceptable autour de 95 à 97%, l’ajustement de la teinte fait chuter ce taux à 82%.

Une lueur d’espoir pour la détection des images modifiées ?

En revanche, la boîte à outils a du mal lorsque les images subissent des modifications plus importantes. OpenAI a même choisi de ne pas publier le taux de réussite dans ces cas, affirmant simplement que “d’autres modifications peuvent réduire les performances”.

C’est pourtant un véritable enjeu lors des élections où les images générées par l’IA sont très souvent modifiées ultérieurement pour provoquer des réactions plus fortes. Dans tous les cas, OpenAI continue de travailler à l’amélioration de ses outils de détection et reste transparente sur les limites de sa technologie.

Lire la source


A lire aussi