颜色分类leetcode-Deepfish:使用iPhone摄像头实时可视化卷积神经网络

时间:2021-07-06 23:39:23
【文件属性】:
文件名称:颜色分类leetcode-Deepfish:使用iPhone摄像头实时可视化卷积神经网络
文件大小:52.6MB
文件格式:ZIP
更新时间:2021-07-06 23:39:23
系统开源 颜色分类leetcode Deepfish,又名艾玛阿姨的 ConvNet 诊断工具包 这是一个 iPhone 应用程序,它将 VGGNet-16 卷积神经网络应用于实时摄像头馈送,并可视化每一层之后发生的事情: 向左/向右滑动以查看不同的图层。 点按视频预览以切换到猫的静态图像(用于测试神经网络代码是否实际有效)。 注意:这是alpha软件。 我很快把它放在一起,在我的 iPhone 上玩 convnet 可视化。 代码中有很多东西还不太符合 kosher。 仅在 iPhone 6s 上进行了测试,但该应用程序也可以在其他 iPhone 上运行,只要它们具有 A8 处理器。 改进 需要工作的东西: 添加其他卷积层和池层。 目前它只做前 3 层(加上输入)。 你看的越深入神经网络,应用程序变得越慢。 那是因为它需要做更多的计算。 相机应调整其 FPS 以匹配。 相机代码不处理中断,进入后台等。在生产质量的应用程序中,需要捆绑这些松散的末端。 视频流中的帧如何发送到 Metal 之间可能存在故障。 我还没有非常仔细地考虑这个问题。 在面板之间滑动的 UI 需要工作(某种视觉反馈)。 它也
【文件预览】:
Deepfish-master
----Screenshot.png(259KB)
----Deepfish.xcodeproj()
--------project.xcworkspace()
--------project.pbxproj(17KB)
----Resources()
--------Assets.xcassets()
--------Base.lproj()
--------parameters.data(56.13MB)
--------Info.plist(1KB)
--------cat.jpg(137KB)
----README.markdown(3KB)
----Sources()
--------VideoCapture.swift(6KB)
--------Math.swift(1KB)
--------Visualize.swift(11KB)
--------ComputeHelpers.swift(1KB)
--------VGGNetData.swift(3KB)
--------SubtractMeanColor.swift(894B)
--------TextureLoader.swift(796B)
--------AppDelegate.swift(2KB)
--------Panel.swift(1KB)
--------Shaders.metal(3KB)
--------CameraViewController.swift(6KB)
--------TexturedQuad.swift(4KB)
----.gitignore(366B)

网友评论