今年早些时候,Google 发布了 AIY 项目,来让更多人能学习、探索并体验人工智能。在那不久之后发布的 AIY Vioce KIt,让众多创客能够利用语音识别支持创造出更多可能。
如今,Google 发布了 AIY 项目的最新成果Vision Kit是 Google 首个在设备上提供神经网络加速的项目,能在不连接到云的情况下提供计算机视觉支持。
与今年 5 月发布的 AIY Voice Kit 相同,此次发布的 Vision Kit 是一个 DIY 工具包。AIY Vision Kit 的主要组件是 Raspberry Pi 的 VisionBonnet 配件板。这个组件的低功耗视觉处理单元能在设备上运行神经网络模型。
那么,创客们能用 AIY Vision Kit 做些什么呢?有了 Google 提供的 3 个基于 TensorFlow 的神经网络模型,用 Vision Kit 进行 DIY 的设备能够识别上千种常见物品、识别面部表情或探测拍摄到的人、猫和狗。Google 还提供了 Vision Kit 的模型编译工具,这样您就可以在工作站或任何云服务上用 TensorFlow 对模型进行的训练和再训练。
所以,它能“看见”些什么呢:拍摄到植物活动是什么物种?你家的狗什么时候会出现在门边?你请的客人喜不喜欢你家的节日装饰?你家小孩什么时候闯入了你的房间?
打开脑洞,放开思维去尽情想象吧!