Da sich die KI-Architektur verbessert und die Kosten sinken, sagen Experten, dass immer mehr Unternehmen diese Technologien beherrschen werden, was Innovationen Impulse geben und sowohl für Unternehmen als auch für KI-Entwickler große Dividenden bringen wird.
KI-Anwendungen arbeiten häufig auf der Grundlage völlig anderer Architekturen als herkömmliche Unternehmensanwendungen. Die Lieferanten sind wiederum bereit, viel zu tun, um neue Komponenten bereitzustellen, deren Nachfrage wächst.

"Die Computerbranche befindet sich in einem großen Wandel. Das Interesse der Unternehmen an KI gibt Impulse für Innovationen, die dazu beitragen, KI in jeder Größenordnung zu beherrschen und einzusetzen", sagte Keith Strier, KI-Experte und Berater bei EY. Investoren investieren viel Geld in Startups, die die KI optimieren, und große Hersteller bieten nicht nur Chips und Speicher an, sondern auch die für die Bereitstellung erforderlichen Netzwerk- und Cloud-Services. “
.
Ihm zufolge besteht die Hauptaufgabe der IT-Direktoren nun darin, die geeignete Architektur für künstliche Intelligenz für die Anforderungen des Unternehmens auszuwählen.
Streer sagt, dass die Implementierung dieser Technologie völlig andere technische Bedingungen und Sicherheitstools erfordert als bei bekannten Unternehmens-Workloads, da KI Mathematik in einem beispiellosen Ausmaß ist. Um AI optimal nutzen zu können, müssen Lieferanten die für AI erforderliche technische Infrastruktur, Cloud und andere Dienste bereitstellen, ohne die solche komplexen Berechnungen nicht möglich wären.
Aber wir sind bereits auf dem Weg dorthin, und in Zukunft wird es noch fortschrittlichere Architekturen für künstliche Intelligenz geben. Streer glaubt, dass die Bereitstellung von Flexibilität, Leistung und Geschwindigkeit von Computerarchitekturen nicht nur kleine Unternehmen für die Entwicklung von Hochleistungsrechnern sein werden, sondern auch andere Vertreter der Hochleistungsrechnerbranche, einschließlich Startups zur Erstellung von Mikrochips und Cloud-Diensten, die einen hohen Standard für AI- setzen möchten. Computing.
Je mehr Spezialisten und Entwickler auf dem Gebiet der KI auftauchen, desto zugänglicher wird diese Technologie, die Innovationen einen guten Impuls verleiht und spürbare Dividenden bringt - für Unternehmen und Lieferanten.
In der Zwischenzeit sollten sich IT-Direktoren mit den Schwierigkeiten vertraut machen, die mit der Erstellung einer Architektur für künstliche Intelligenz für den Unternehmensgebrauch verbunden sind, um bereit zu sein, diese zu lösen.
Chip-Entwicklung
Die wichtigste Voraussetzung für den Übergang von traditionellen Computerarchitekturen zu KI war die Entwicklung von Grafikprozessoren, integrierten Schaltkreisen (FPGAs) und speziellen KI-Chips. Die Verbreitung von Architekturen auf Basis von GPUs und FPGAs wird dazu beitragen, die Produktivität und Flexibilität von Computer- und Speichersystemen zu steigern, wodurch Lösungsanbieter eine Reihe fortschrittlicher Dienste für KI- und maschinelle Lernanwendungen anbieten können.

"Dies sind Chip-Architekturen, die viele erweiterte Funktionen von der Last befreien [wie z. B. KI-Training] und dabei helfen, einen verbesserten Stack für Computer und Speicher zu implementieren, der unübertroffene Leistung und Effizienz bietet", sagte Surya Varanasi, Gründerin und CTO von Vexata Inc., Anbieter von Datenverwaltungslösungen.
Aber während die neuen Mikroschaltungen nicht zu etwas Komplexerem fähig sind. Um die optimale Architektur für AI-Workloads auszuwählen, müssen umfangreiche Berechnungen durchgeführt werden, die einen hohen Durchsatz erfordern und nicht ohne Verzögerungen auskommen können. Der Schlüssel zum Erfolg sind hier Hochgeschwindigkeitsnetzwerke. Viele KI-Algorithmen müssen jedoch warten, bis der nächste Datensatz eingegeben wurde, damit Sie die Verzögerung nicht aus den Augen verlieren.
Darüber hinaus durchlaufen Daten beim Überschreiten von Servergrenzen oder beim Übertragen von Servern zum Speicher mehrere Protokolle. Um diese Prozesse zu vereinfachen, versuchen Datenexperten möglicherweise, die Daten lokal zu lokalisieren, sodass ein Server große Datenmengen verarbeiten kann, ohne auf andere zu warten. Durch die verbesserte Integration zwischen GPUs und Speicher können Sie auch Geld sparen. Andere Anbieter suchen nach Möglichkeiten, das Design von AI-Servern zu vereinfachen, um die Kompatibilität sicherzustellen, sodass dieselben Server für unterschiedliche Workloads verwendet werden können.
Nichtflüchtiger Speicher zur Verarbeitung von AI-Workloads
Das Herzstück vieler auf der GPU basierender Lösungen ist ein direkt angeschlossenes Laufwerk (DAS), das das verteilte Lernen und die Bildung logischer Schlussfolgerungen für die KI erheblich erschwert. Infolgedessen wird die Installation und Verwaltung dieser Datenleitungen für Deep Learning zu einer komplexen und zeitaufwändigen Aufgabe.
Um dieses Problem zu lösen, eignet sich nichtflüchtiger Speicher (NVM), der ursprünglich für eine qualitativ hochwertige Konnektivität zwischen Solid-State-Laufwerken (SSDs) und herkömmlichen Unternehmensservern entwickelt wurde. Jetzt ist diese Art von Speicher häufig in E / A-Matrizen enthalten, um die AI-Workloads zu optimieren.
Das Fazit ist, dass NVMe over Fabrics (NVMeF) - die sogenannten diese Schnittstellen - dazu beitragen wird, die Kosten für die Konvertierung zwischen Netzwerkprotokollen zu senken und die Eigenschaften jedes SSD-Typs zu steuern. Auf diese Weise können CIOs die Kosten für KI-Anwendungen rechtfertigen, die große Datenmengen verwenden.
Schnittstellen NVMeF birgt Risiken, einschließlich der Notwendigkeit hoher Kosten für fortschrittliche Technologien. Darüber hinaus besteht in dieser Branche nach wie vor eine Abhängigkeit von NVMeF-Anbietern. Daher sollten IT-Direktoren versuchen, bei der Auswahl eines Produkts herstellerspezifische Beziehungen zu vermeiden.
Die Implementierung von NVMeF ermöglicht es Ihnen jedoch, einen weiteren Schritt zur Optimierung der Unternehmensarchitektur der künstlichen Intelligenz zu unternehmen, glaubt Varanasi.

„Trotz der Tatsache, dass die Erweiterung der NVMe über Fabrics-Architektur im industriellen Maßstab weitere ein bis anderthalb Jahre dauern kann, haben wir bereits die Hauptkomponenten und die Pioniere berichten bereits über vielversprechende Ergebnisse“, sagt Varanasi.
CIOs, die AI-Anwendungen entwickeln möchten, können versuchen, einen für AI für NVMeF optimierten gemeinsam genutzten Speicherpool zu erstellen, wenn er vorhandene Speichernetzwerke kurzfristig erfolgreich ersetzen kann. Wenn Sie jedoch warten, bis NVMeF abwärtskompatibel ist, können Sie viel verlieren.
Datenbewegung reduzieren
Bei der Planung der verschiedenen Phasen der KI-Bereitstellung müssen Sie besonders auf die Kosten für das Verschieben von Daten achten. KI-Projekte, einschließlich solcher zur Verarbeitung und Transformation von Daten sowie für Trainingsalgorithmen, erfordern große Datenmengen.
Die Hardware und die Humanressourcen, die zum Ausführen dieser Aufgaben erforderlich sind, sowie die Zeit, die zum Verschieben der Daten selbst benötigt wird, können KI-Projekte zu kostspielig machen. Wenn CIOs das Verschieben von Daten zwischen Phasen vermeiden können, ist es wahrscheinlich, dass sie eine funktionsfähige KI-Infrastruktur entwickeln können, die diese Anforderungen erfüllt, sagte Dr. Haris Pozidis, Manager, Spezialist für Speicherbeschleunigungstechnologie bei IBM Research. Die Hersteller arbeiten bereits an diesem Problem.
Beispielsweise experimentiert IBM mit verschiedenen Optionen zur Hardware- und Softwareoptimierung, um die Datenbewegung für große KI-Anwendungen in Labors in Zürich zu reduzieren. Solche Optimierungen haben dazu beigetragen, die Leistung des Testskripts des beliebten Klickanalyse-Tools 46-mal zu steigern. Laut Pozidis stehen verteiltes Lernen und GPU-Beschleunigung im Mittelpunkt dieser Arbeit, die die Unterstützung für spärliche Datenstrukturen verbessert.
Parallelität ist eine weitere wichtige Komponente bei der Beschleunigung von KI-Workloads. Für verteiltes Training müssen Änderungen auf Hardware- und Softwareebene vorgenommen werden, um die Verarbeitungseffizienz paralleler Grafikprozessoralgorithmen zu verbessern. IBM Forscher haben eine Prototypplattform mit Datenparallelität erstellt, mit der Sie große Datenmengen skalieren und lernen können, die die Speichermenge auf einem Computer überschreiten. Dies ist sehr wichtig für Großanwendungen. Eine neue Plattform, die für das Lernen in der Kommunikation und die Bereitstellung von Datenlokalität optimiert ist, hat dazu beigetragen, die Datenbewegung zu reduzieren.
Auf Hardwareebene verwendeten IBM Forscher NVMeF, um die Interkonnektivität der GPU-, CPU- und Speicherkomponenten auf den Servern sowie zwischen Servern und Speicher zu verbessern.

„Die Leistung verschiedener KI-Workloads kann durch Netzwerkengpässe, Speicherbandbreite und Bandbreite zwischen CPU und GPU eingeschränkt sein. Wenn Sie jedoch effizientere Verbindungsalgorithmen und -protokolle in allen Teilen des Systems implementieren, können Sie einen großen Schritt in Richtung der Entwicklung schnellerer KI-Anwendungen tun “, sagt Pozidis.
Compound Computing
Heutzutage verwenden die meisten Workloads eine vorkonfigurierte Datenbank, die für eine bestimmte Hardwarearchitektur optimiert ist.

Laut Chad Miley, Vice President für analytische Produkte und Lösungen bei Teradata, bewegt sich der Markt in Richtung softwaregesteuerter Hardware, mit der Unternehmen die Verarbeitung je nach aktueller Aufgabe intelligent auf GPUs und CPUs verteilen können.
Die Schwierigkeit liegt in der Tatsache, dass Unternehmen unterschiedliche Computer-Engines verwenden, um auf unterschiedliche Speicheroptionen zuzugreifen. Große Unternehmen bevorzugen es, wertvolle Daten zu speichern, auf die regelmäßig zugegriffen werden muss, z. B. Informationen über Kunden, Finanzen, Lieferkette, Produkte und andere Komponenten, und zwar in leistungsstarken Input-Output-Umgebungen. Selten verwendete Datensätze wie Sensorwerte, Webinhalte und Multimedia werden wiederum in einem kostengünstigen Cloud-Speicher gespeichert.
Eines der Ziele von Composite Computing ist die Verwendung von Containern, um die Leistung von Instanzen wie SQL-Engines, Graph-Engines, maschinellem Lernen und Deep-Learning-Engines zu optimieren, die auf Daten zugreifen, die über verschiedene Repositorys verteilt sind. Die Bereitstellung mehrerer analytischer Computer-Engines ermöglicht die Verwendung von Multiprozessormodellen, die Daten von verschiedenen Engines verwenden und in der Regel bessere Ergebnisse erzielen.
IT-Anbieter wie Dell Technologies, Hewlett Packard Enterprise und Liquid entfernen sich allmählich von herkömmlichen Architekturen, die Workloads auf Computerebene zuweisen. Stattdessen versuchen sie, einem gesamten System, das aus Zentraleinheiten, GPUs, Speicher und Speichergeräten besteht, KI-Workloads zuzuweisen. Für einen solchen Übergang ist es erforderlich, neue Netzwerkkomponenten zu beherrschen, die die Geschwindigkeit erhöhen und die Verzögerung beim Verbinden verschiedener Komponenten des Systems verringern.
Beispielsweise verwenden viele Cloud-Rechenzentren Ethernet, um Computerkomponenten und Speicher zu verbinden, wobei die Verzögerung etwa 15 Mikrosekunden beträgt. Das geschaltete Hochgeschwindigkeits-Computernetzwerk von InfiniBand, das in vielen konvergierten Infrastrukturen verwendet wird, kann die Latenz um bis zu 1,5 Mikrosekunden reduzieren. Liquid hat eine Reihe von Tools zum Verbinden verschiedener Knoten mit PCI Express (PCIE) entwickelt, mit denen die Verzögerung auf 150 Nanosekunden reduziert wird.
Darüber hinaus schlagen einige Experten vor, den Arbeitsspeicher für GPUs zu erhöhen, die für große Lasten mit schnellen Verbindungen verwendet werden. Beispielsweise wird DDR4 häufig zusammen mit RAM verwendet, wodurch die Verzögerung auf 14 Nanosekunden reduziert wird. Dies funktioniert jedoch nur für kleine Segmente von wenigen Zentimetern.
Little Marrek, der Gründer und Entwickler des ClusterOne AI-Verwaltungsdienstes, ist der Ansicht, dass mehr Arbeit erforderlich ist, um die Kompatibilität von AI-Workloads in einer Softwareumgebung sicherzustellen. Trotz der Tatsache, dass einige Unternehmen bereits versuchen, die Kompatibilität mit Docker und Kubernetes sicherzustellen, ist es noch zu früh, denselben Ansatz auf GPUs anzuwenden.

„Im Allgemeinen ist es nicht einfach, GPU-Workloads auszuführen und zu überwachen“, sagt Marrek. "Es gibt keine universelle Lösung, mit der alle Systeme überwacht werden können."
Speicher und GPU
Ein anderer Ansatz besteht darin, einen Grafikprozessor zu verwenden, um die Daten vorzuverarbeiten, um die für eine bestimmte Art von Analyse erforderliche Menge zu reduzieren und die Daten zu organisieren und ihnen Beschriftungen zuzuweisen. Auf diese Weise können Sie einen geeigneten Datensatz für mehrere an der Verarbeitung beteiligte GPUs vorbereiten, sodass der Algorithmus aus dem Inneren des Speichers heraus arbeiten kann, anstatt Daten aus den Speichern über langsame Netzwerke zu übertragen.

"Wir betrachten Speicher, Computer und Speicher als separate Komponenten der Lösung, die sich in der Vergangenheit entwickelt hat, und versuchen daher, das Verarbeitungsvolumen zu erhöhen", sagte Alex St. John, CTO und Gründer von Nyriad Ltd., einem Unternehmen für Speichersoftware, das in Das Ergebnis der Forschung für das weltweit größte Radioteleskop - ein Teleskop mit einer Antennenanordnung von Quadratkilometern (SKA).
Je größer die Datenmengen sind, desto schwieriger ist es, sie zur Verarbeitung an einen anderen Ort zu verschieben.
Das SKA-Teleskop benötigte viel Strom, um 160 TB Echtzeit-Funksignaldaten zu verarbeiten, was das Haupthindernis für die Forscher war. Infolgedessen beschlossen sie, die in Rechenzentren am häufigsten verwendeten RAID-Speicher aufzugeben und ein paralleles Cluster-Dateisystem wie BeeGFS bereitzustellen, das die Vorbereitung von Daten für AI-Workloads vereinfacht.
IT-Direktoren, die an der optimalen Strategie für die Architektur der künstlichen Intelligenz arbeiten, sollten besonders auf die Benutzerfreundlichkeit achten. Wenn Entwickler, Datenspezialisten sowie Entwicklungs- und Betriebsintegrationsteams die neue Technologie schnell beherrschen, können sie ihre Zeit und Energie in die Erstellung einer erfolgreichen Geschäftslogik investieren, anstatt Bereitstellungsprobleme und Datenleitungen zu lösen.
Darüber hinaus müssen Unternehmen sorgfältig überlegen, wie viel Aufwand und Zeit erforderlich sind, um eine neue KI-Architektur in ein vorhandenes Ökosystem zu integrieren.
„Vor der Implementierung neuer Infrastrukturen und der Planung großer Workloads müssen CIOs bewerten, wie viele erschöpfbare Ressourcen erforderlich sind“, sagt Asaf Someh, Gründer und CEO von Iguazio.