NSFW Checker est un outil basé sur le web qui utilise le modèle d’apprentissage automatique Stable Diffusion pour vérifier si une image est sans danger pour le travail (Not Safe for Work – NSFW) ou non. Les utilisateurs peuvent télécharger n’importe quelle image PNG ou JPG (jusqu’à 50 Mo), et le site web leur indiquera si elle est sans danger pour le travail ou non. Le modèle peut également être utilisé pour détecter si une image est réelle ou générée par l’IA, et si elle contient un contenu non sûr.

Cependant, NSFW Checker présente certains inconvénients. Il est mal documenté et pourrait ne pas être fiable. De plus, il pourrait ne pas fonctionner correctement avec certains types d’images ou de contenus, et pourrait avoir des implications éthiques ou légales pour certains utilisateurs.

Tarifs : NSFW Checker est gratuit à utiliser.

En dehors de NSFW Checker, il existe des solutions alternatives sur le marché. Parmi elles, on compte :

  1. NSFW JS : C’est une bibliothèque JavaScript puissante qui aide les développeurs à identifier les images potentiellement inappropriées sur le navigateur d’un client. Avec NSFW JS, aucune image n’a besoin d’être envoyée à un serveur, garantissant ainsi le plus haut niveau de sécurité et de confidentialité pour les utilisateurs.
  2. Astria.ai : C’est une plateforme qui fournit un service d’IA sur mesure pour générer des images et des vidéos de haute qualité. Astria.ai élimine le besoin pour les utilisateurs de gérer des GPU et des scripts Python, et d’ajuster des hyper-paramètres pour obtenir des résultats optimaux.