NSFWDetector 是一个小型 (17 kB) CoreML 模型,用于扫描图像中的裸露图像。它使用 CreateML 训练,以区分色情/裸露图像和适宜的图片。主要关注区分与 Instagram 模型类似的图片和色情。
用法
guard #available(iOS 12.0, *), let detector = NSFWDetector.shared else {
return
}
detector.check(image: image, completion: { result in
switch result {
case let .success(nsfwConfidence: confidence):
if confidence > 0.9 {
// 😱🙈😏
} else {
// ¯\_(ツ)_/¯
}
default:
break
}
})
如果您想为您的平台设置更严格的边界,只需将置信度阈值设置得更低即可。
安装
NSFWDetector 通过 CocoaPods 提供。要安装它,只需将以下行添加到您的 Podfile 中。
pod 'NSFWDetector'
应用程序大小
机器学习模型的大小仅为 17 kB,因此与应用程序大小不会像其他使用 yahoo 模型 的库相比。
仅使用模型
如果您不想使用检测代码,也可以直接从最新的 发布版 下载 MLModel 文件。
反馈
如果您识别到某些类型的图片存在问题,请通过邮件或Twitter与我们联系。
作者
Michael Berg, [email protected]
许可
NSFWDetector在BSD许可下可用。有关更多信息,请参阅LICENSE文件。