您当前的位置:首页 > 指南 > 正文

谷歌推出用于设备上机器学习的微型新AI芯片

导读: 两年前,谷歌推出了Tensor Processing Units或TPU--这些专用芯片存放在公司的数据中心,可以轻松完成AI任务。现在,该公司正在将其AI专业...

两年前,谷歌推出了Tensor Processing Units或TPU--这些专用芯片存放在公司的数据中心,可以轻松完成AI任务。现在,该公司正在将其AI专业知识从云端转移,并取消了其新的Edge TPU ; 一个微型的AI加速器,可以在物联网设备中执行机器学习工作。

Edge TPU被设计用于执行所谓的“推理”。这是机器学习的一部分,其中算法实际执行它所训练的任务; 例如,识别图片中的对象。Google的基于服务器的TPU针对此过程的培训部分进行了优化,而这些新的Edge TPU将进行推理。

这些新芯片注定要用于企业工作,而不是你的下一代智能手机。这意味着在工厂中自动化质量控制检查等任务。在设备上完成这种工作与使用必须通过互联网发送数据进行分析的硬件相比具有许多优势。设备上的机器学习通常更安全; 减少停机时间; 并提供更快的结果。无论如何,那是销售宣传。

Edge TPU是常规Tensor处理单元的小兄弟,谷歌使用它来为自己的AI供电,并且可供其他客户通过Google Cloud使用。 信用:谷歌

谷歌并不是唯一一家为这种设备上的AI任务设计芯片的公司。ARM,Qualcomm,Mediatek和其他公司都制造了自己的AI加速器,而Nvidia制造的GPU在培训算法市场占据主导地位。

然而,Google的竞争对手并没有控制整个AI堆栈。客户可以将他们的数据存储在Google的云端; 使用TPU训练他们的算法; 然后使用新的Edge TPU进行设备上推断。并且,他们很可能会使用TensorFlow创建他们的机器学习软件--TensorFlow是由Google创建和运营的编码框架。

这种垂直整合具有明显的好处。Google可以确保所有这些不同的部分尽可能高效,顺畅地相互通信,使客户更容易在公司的生态系统中玩耍(并留在)。

Google Cloud的物联网副总裁Injong Rhee在一篇博客文章中将新硬件描述为“专用于运行TensorFlow Lite ML模型的专用ASIC芯片” 。Rhee说:“Edge TPU旨在补充我们的云TPU产品,因此您可以加速云中的ML培训,然后在边缘进行闪电般快速的ML推理。您的传感器不仅仅是数据采集器 - 它们可以做出本地,实时,智能的决策。“

有趣的是,谷歌还将Edge TPU作为开发套件提供,这将使客户更容易测试硬件的功能,并了解它如何适合他们的产品。该devkit包括一个包含Edge TPU的模块上系统(SOM),一个NXP CPU,一个Microchip安全元件和Wi-Fi功能。它可以通过USB或PCI Express扩展槽连接到计算机或服务器。这些devkits仅在测试版中提供,潜在客户必须申请访问权限。

这可能看起来只是新闻的一小部分,但值得注意的是,谷歌通常不会让公众掌握其人工智能硬件。但是,如果公司希望客户采用其技术,则需要确保他们能够首先尝试,而不是仅仅要求他们对AI Googlesphere的信念飞跃。这个开发板不仅仅是对公司的诱惑 - 这表明Google非常重视拥有整个AI堆栈。


声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,谢谢。

上一篇: 摩托车排气管怎么才能滴水 摩托车排气管有水怎么排出来

下一篇: 会计职业技能有哪些 职业技能有哪些



推荐阅读