NSFWDetector 1.1.2

NSFWDetector 1.1.2

由以下人员维护:Michael BergSteffen MatthischkeRichard NeitzkeMax KattnerFabian Ehlert



  • Michael Berg

NSFWDetector

Version License Platform

NSFWDetector 是一个小型 (17 kB) CoreML 模型,用于扫描图像中的裸露图像。它使用 CreateML 训练,以区分色情/裸露图像和适宜的图片。主要关注区分与 Instagram 模型类似的图片和色情。

用法

guard #available(iOS 12.0, *), let detector = NSFWDetector.shared else {
    return
}

detector.check(image: image, completion: { result in
    switch result {
    case let .success(nsfwConfidence: confidence):
        if confidence > 0.9 {
            // 😱🙈😏
        } else {
            // ¯\_(ツ)_/¯
        }
    default:
        break
    }
})

如果您想为您的平台设置更严格的边界,只需将置信度阈值设置得更低即可。

安装

NSFWDetector 通过 CocoaPods 提供。要安装它,只需将以下行添加到您的 Podfile 中。

pod 'NSFWDetector'

⚠️由于该模型使用 CreateML 训练,因此需要 Xcode 10 及以上版本来编译项目。

应用程序大小

机器学习模型的大小仅为 17 kB,因此与应用程序大小不会像其他使用 yahoo 模型 的库相比。

仅使用模型

如果您不想使用检测代码,也可以直接从最新的 发布版 下载 MLModel 文件。

反馈

如果您识别到某些类型的图片存在问题,请通过邮件Twitter与我们联系。

作者

Michael Berg, [email protected]

许可

NSFWDetector在BSD许可下可用。有关更多信息,请参阅LICENSE文件。