文件名称:NSFWetector:使用CoreML的NSFW(又名色情)检测器
文件大小:174KB
文件格式:ZIP
更新时间:2024-02-23 22:26:39
swift ios machine-learning cocoapods lovoo
NSFWDetector是一个小的( 17 kB )CoreML模型,用于扫描图像是否裸露。 使用CreateML对它进行了训练,以区分色情/裸露图像和适当的图片。 主要侧重于区分图片和色情等instagram模型。 用法 guard #available ( iOS 12.0 , * ), let detector = NSFWDetector. shared else { return } detector. check ( image : image, completion : { result in switch result { case let . success ( nsfwConfidence : confidence) : if confidence > 0.9 { // :face_screaming_in_fear::see-no-evil_monkey::smirking_face: } else { // ¯\_(ツ)_/¯ } de
【文件预览】:
NSFWDetector-master
----NSFWDetector()
--------Assets()
--------Classes()
----NSFWDetector.podspec(792B)
----assets()
--------header.png(75KB)
----Example()
--------NSFWDetector()
--------Podfile(164B)
--------Podfile.lock(280B)
--------Pods()
--------Tests()
--------NSFWDetector.xcworkspace()
--------NSFWDetector.xcodeproj()
----LICENSE(1KB)
----_Pods.xcodeproj(27B)
----.gitignore(145B)
----README.md(2KB)