
Technologieunternehmen versuchen, die Funktionen der künstlichen Intelligenz auf Smartphones und andere tragbare Geräte zu übertragen. Zum Beispiel ist es praktisch, die Möglichkeit in der Tasche zu haben, Mechanikern zu zeigen, wie man den Motor repariert, oder Touristen in ihrer Muttersprache zu sagen, was sie sehen und hören. Es gibt jedoch ein Problem: Sie können keine große Datenmenge verwalten, die diese Aufgaben ermöglicht, ohne das Gerät zu verlangsamen und den Akku nicht innerhalb weniger Minuten zu entladen.
Viele Jahre lang boten die Zentralprozessoren von Intel, ARM und anderen genügend Möglichkeiten für den Betrieb von Geräten und Servern auf der ganzen Welt. Die rasante Entwicklung der künstlichen Intelligenz in den letzten fünf Jahren hat jedoch dazu geführt, dass einige traditionelle Chiphersteller einem echten Wettbewerb ausgesetzt waren. Die zunehmenden Fähigkeiten der KI hängen größtenteils mit neuronalen Netzen zusammen, die Muster analysieren und daran teilnehmen. Universelle Prozessoren, die auf PCs und Servern verwendet werden, verarbeiten mehrere Threads nur schlecht gleichzeitig.
Am 23. Juli kündigte Microsoft auf der
CVPR2017- Konferenz in Honolulu, Hawaii, die zweite Version des HPU-Chips (Holographic Processing Unit) für HoloLens-Brillen an. HPU 2.0 ist ein optionaler AI-Prozessor, der alles analysiert, was der Benutzer direkt auf dem Gerät sieht und hört, und keine wertvollen Mikrosekunden für das Zurücksenden von Daten in die Cloud benötigt. HPU 2.0 befindet sich derzeit in der Entwicklung und wird in der nächsten Version von HoloLens enthalten sein. Dies ist einer der wenigen Fälle, in denen Microsoft an allen Entwicklungsstadien (außer der Produktion) des Prozessors beteiligt ist. Vertreter des Unternehmens behaupten, dass dies der erste Chip ist, der speziell für ein mobiles Gerät entwickelt wurde.
Microsoft arbeitet seit mehreren Jahren an seinen Chips. Das Unternehmen hat einen Motion-Tracking-Prozessor für die Xbox Kinect entwickelt und kürzlich benutzerdefinierte Chips - vom Benutzer programmierbare Gate-Arrays - verwendet, um KI-Funktionen auf reale Aufgaben anzuwenden. Microsoft kauft Chips von Altera, einer Tochtergesellschaft von Intel, und passt sie dann mithilfe von Software für eigene Zwecke an.
Im Jahr 2016 verwendete Microsoft Tausende dieser Chips, um die gesamte englischsprachige Wikipedia in weniger als einer Zehntelsekunde ins Spanische zu übersetzen - drei Milliarden Wörter in fünf Millionen Artikeln. Im Jahr 2018 plant das Unternehmen, Cloud-Computing-Benutzern die Verwendung dieser Chips zu ermöglichen, um ihre eigenen KI-Aufgaben zu beschleunigen: Erkennen von Bildern aus großen Datenmengen oder Verwenden von Algorithmen für maschinelles Lernen zur Vorhersage verschiedener wirtschaftlicher und anderer Modelle.
HPU 2.0-WerbeanimationMicrosoft hat viele Konkurrenten in diesem Geschäft: Amazon verwendet benutzerprogrammierbare Arrays und plant, den neuen Nvidia-
Chip für die KI der Volta-Mikroarchitektur zu verwenden , und Google hat seine eigenen KI-Halbleiter, die
Tensor Processing Unit, entwickelt . Das Erstellen von Chips im Unternehmen ist teuer. Microsoft hat jedoch keine andere Wahl, da sich die Technologie sehr schnell entwickelt.