Open L4Ph opened 6 months ago
クライアント側でいい気がしてる
@nakatsuka-k 意見が欲しいです
精度を見てみたいです。
このような画像タグがあるときに
<img class="operator-image" src="https://www.aipictors.com/wp-content/uploads/2024/01/xxxx.webp" style="width: 100%; height: auto;" onload="resizeListImg('works_123456789'); return false;">
特定の関数呼ぶと、 .operator-image についてNSFW.jsで判定して、data-agelimit="0"~"3"のattrを設定してくれる。 (0:全年齢、1:R18、2:R18G、3:R15) みたいなJavaScriptのコードサンプルがあったらこちらで組み込んで使ってみます。
ある程度の精度があるなら、まずは投稿時にNSFW.jsの結果に応じて年齢区分のデフォルトを変えるだけでも効果がありそうです。
軽くNSFW.jsで検証した感じ、MobileNet v2だとちょっと無理がありそう(v3は要検証) InceptionNet v3はかなりちゃんと検出する
Inception v3はこれはこれで威力強すぎるな 追加学習必要かもしれない...
検証ありがとうございます。
https://huggingface.co/datasets/deepghs/nsfw_detect/tree/main
Inception V3はデカいので、小さくするためにMobileNet v3に差し替えて、データセットも比較的新しいものを使う(train用のコードがだいぶ古くていろいろ動かないので、直す必要がある)
ONNX Web Runtimeで動かせそう https://github.com/microsoft/onnxruntime/tree/main/js/web
What
NSFW.jsの実装
参考
Why
だいたい参考URL先に書いてあるけど、