yahoo open nsfw 사용기

https://github.com/yahoo/open_nsfw

NSFW는 Not safe for Work 의 줄임말. 흔히 엄빠주의, 뒤주의 등으로 쓰는 말과 일맥상통.

머신 러닝이 어쩌고… 저쩌고… 결론은 야하거나 폭력적인 그림파일에 대해 점수를 리턴함.

며칠 전에 docker 방식이 업데이트 되었다. docker 처음 접하는 사람은 좀 어려울 수 있는데 기본적으로 이미지 하나당 컨테이너 한 번 실행하는 방식이라 비효율적이니, 아래 방식으로 컨테이너 안의 쉘에서 실행하는 것이 좀 더 편하고 빠른 것 같다.

docker run --volume=$(pwd):/workspace --log-driver=none -i -t caffe:cpu
for i in `cat filelist.txt`;do echo $i; python ./classify_nsfw.py --model_def nsfw_model/deploy.prototxt --pretrained_model nsfw_model/resnet_50_1by2_nsfw.caffemodel $i; done | tee -a result.txt

주의점은 docker 컨테이너 로그 생성. 밤새 실행했더니 로그만 12GB 생성되었음. ‘ –log-driver=none ‘ 옵션을 쓰면 로그 안 남기니 참고.

 

0 ~ 1 사이의 점수가 나오며, 0.2점 이상부터는 위험 가능성이 있고, 0.8점 이상은 거의 확실한 정도라고 하는 듯.

초상권 / 저작권 등의 문제로 웹에서 무작위로 수집한 이미지로 실행한 결과를 공개할 수 없는 점을 양해 바라며… 거의 정확하게 나와서 매우 놀라움.