
Lassen Sie uns kurz auf das Thema der neuen Intel-Prozessoren eingehen (dies dauert nicht lange) und über Bildverarbeitung und Deep Learning sprechen. Im Allgemeinen wurde das Thema KI bei der Erörterung der Aussichten für die Entwicklung der Computertechnologie allgemein verbreitet, und viele, glaube ich, bemerkten das folgende Merkmal. Mit der Verbesserung spezialisierter Hardware- und Softwaretools verlassen KI-Elemente nach und nach Rechenzentren mit Superservern „vor Ort“ und werden technisch und finanziell immer zugänglicher. Intel sieht diesen Trend ebenfalls. Um die Implementierung fortschrittlicher Technologien im Alltag zu vereinfachen, bieten sie Anbietern die Möglichkeit, ihre neue Lösung -
Intel Vision Accelerator - zu nutzen .
Was ist Intel Vision Accelerator? Hierbei handelt es sich um eine Reihe von Referenzdesigns für Beschleunigerplatinen, auf deren Grundlage jeder Elektronikhersteller sein eigenes Produkt mit den gewünschten Funktionen erstellen kann. Natürlich reicht nur Design nicht aus - Sie benötigen eine Elementbasis. Intel hat es bereits - es ist ein spezialisierter Coprozessor von Movidius und FPGA Arria. Was sind die Vorteile dieses Ansatzes?
- die Möglichkeit der Inferenz neuronaler Netze "an Ort und Stelle";
- hohe Leistung bei speziellen Aufgaben;
- hohe Effizienz in Bezug auf Energieverbrauch, Kosten usw.;
- Volle Kompatibilität mit dem OpenVINO-Toolkit (Open Visual Inference & Neural Network Optimization) - einer Reihe von Bibliotheken, Optimierungstools und Informationsressourcen für die Entwicklung von Software mithilfe von Machine Vision und Deep Learning.
Vergleichen wir diese beiden Plattformen in Bezug auf Deep Learning.
| Intel Vision Accelerator mit Intel Movidius | Intel Vision Accelerator mit Intel Arria |
---|
Funktion | Hohe Effizienz in Bezug auf Verbrauch und Kosten | Produktive integrierte Lösung |
Anwendungsgebiet | Klassische neuronale Netze | Zusätzliche Optimierung für Deep Learning mit hoch belasteten Netzwerken |
Anwendungsfälle | Geräte mit Größen- und Verbrauchsbeschränkungen, klassische Netzwerktopologien, die für ASIC optimiert werden können | Mittlere und Einstiegsserver, Umgebungen, die sich gut für die Softwareoptimierung eignen |
Verbindungsschnittstellen | PCIe, Mini-PCIe, M2 | PCIe |
Anzahl der Videostreams | 1 bis 16 pro Gerät | 3 bis 32 |
Patchgröße | 1-4 | 1-144 |
Stromverbrauch | ~ 2 Watt | ~ 35 W. |
Intel Vision Accelerator unterstützt derzeit die folgenden Netzwerktopologien und -algorithmen:
Topologien | Algorithmen |
---|
Googlenet ResNet - 18 ResNet - 50 ResNet - 101 Squeezenet Squeezenext VGG-16 Schneller rcnn MobileNet Winziges Yolo | Gesichtserkennung / -erkennung Klassifizierung von Gesichtsattributen Handverfolgung Bestimmung von Geschlecht und Alter Artikeldefinition / Tracking Verhalten und Gesten erkennen Identifizierung verlassener Gegenstände Mehrzweck-Tracking Buchstaben- / Wortdefinition usw.
|
Sie fragen sich vielleicht: Warum müssen wir über Intel-Angebote für Anbieter Bescheid wissen? Schließlich wird nicht vorgeschlagen, Beschleuniger manuell herzustellen. Die Antwort lautet: Dies ist ein Beitrag über eine Klasse von Geräten (oder zwei Klassen), die bald auf dem Markt erscheinen werden. Und Sie können sie für Ihre Bedürfnisse finden - wenn Sie wissen, wonach Sie suchen müssen.