HPE stellt Plattform für künstliche Intelligenz vor - is report

HPE stellt Plattform für künstliche Intelligenz vor

Neue Angebote von HPE sollen Entwicklern und IT-Abteilungen die Einführung und die Skalierung von Deep-Learning-Modellen erleichtern. Ein flexibles Nutzungsmodell für die Infrastruktur skaliert nach oben und unten, um Überprovisionierung zu vermeiden und Kosten einzusparen.

Hewlett Packard Enterprise (HPE) hat Plattformen und Dienste angekündigt, welche die Einführung von Deep Learning vereinfachen sollen. Deep Learning ist ein vom menschlichen Gehirn inspiriertes Teilgebiet der künstlichen Intelligenz (KI) und kommt für Gesichts- und Bilderkennung, Bildklassifizierung und Stimmerkennung zum Einsatz. Um Deep Learning zu nutzen, brauchen Unternehmen eine Hochleistungs-Rechnerinfrastruktur, um Lernmodelle aufzubauen und zu trainieren, große Datenmengen zu verarbeiten und Muster in Audiodaten, Bildern, Videos, Text und Sensordaten zu erkennen.

Viele Unternehmen haben bis dato nicht die Voraussetzungen, um Deep Learning zu implementieren. Ihnen fehlen Expertise und Ressourcen, eine speziell zugeschnittene Hardware- und Software-Infrastruktur sowie die Fähigkeit, verschiedene Teile der Software und Hardware anzupassen, um KI-Systeme zu skalieren. Mit den Angeboten von HPE sollen Unternehmen diese Herausforderungen überwinden:

  • HPEs Rapid Software Development für KI: eine integrierte Hardware- und Softwarelösung, die speziell für High Performance Computing und Deep-Learning-Anwendungen optimiert ist. Die Lösung basiert auf dem HPE Apollo 6500 und wurde zusammen mit Bright Computing für die schnelle Entwicklung von Deep-Learning-Anwendungen entwickelt. Sie enthält vorkonfigurierte Software Frameworks für Deep Learning, Bibliotheken, automatisierte Software Updates, für Deep Learning optimiertes Cluster Management und unterstützt Grafikprozessoren (Graphic Proccessing Unit/GPU) vom Typ NVIDIA Tesla V100.
  • HPE Deep Learning Cookbook: Das Deep Learning Cookbook des KI-Forschungsteams bei den Hewlett Packard Labs ist eine Sammlung von Werkzeugen, die Kunden bei der Auswahl der besten Hard- und Software-Umgebungen für verschiedene Deep-Learning-Aufgaben unterstützt. Die Werkzeuge helfen Unternehmen, die Leistung verschiedener Hardware-Plattformen einzuschätzen, Deep Learning Frameworks auszuwählen und die Hard- und Software für ihre individuellen Bedürfnisse zusammenzustellen. Das Deep Learning Cookbook könne genutzt werden, um die Leistung der bereits angeschafften Hard- und Software zu validieren und ihre Konfiguration zu optimieren. Ein Beispiel dafür sind die HPE Image Classification Reference Designs: Diese Referenzdesigns böten Kunden optimierte Infrastrukturkonfigurationen für das Training von Bildklassifizierungsmodellen in verschiedenen Anwendungen – etwa für die Erkennung von Nummernschildern oder die Klassifizierung von Gewebeproben in der Biologie. Die Designs seien getestet, sodass Datenwissenschaftler und IT-Abteilungen kosteneffektiv und effizient operieren könnten.
  • Das HPE AI Innovation Center: Das Innovation Center ist eine Plattform für die Zusammenarbeit zwischen Universitäten, führenden Unternehmen der KI-Forschung und HPE-Forschern bei langfristigen Forschungsprojekten. Die Center in Houston, Palo Alto und Grenoble bieten Forschern aus Universitäten und Unternehmen Zugriff auf die dafür benötige Infrastruktur und Werkzeuge.
  • Verbesserte HPE Center of Excellence (CoE): Diese Center bieten ausgewählten Kunden Zugriff auf die neuste Technologie und Expertise mit den neusten GPUs von NVIDIA auf HPE-Systemen. Sie helfen IT-Abteilungen und Datenwissenschaftlern die Entwicklung ihrer Deep-Learning-Anwendungen zu beschleunigen und einen besseren Return on Investment zu erzielen. Centers of Excellence bestehen zurzeit an fünf Standorten in Houston, Palo Alto, Tokio, Bangalore und Grenoble.

HPE bietet seinen Kunden ein flexibles Nutzungsmodell für die Infrastruktur an, das bei Bedarf nach oben oder unten skaliert, um Überprovisionierung zu vermeiden, Kosten einsparen und die Bedürfnisse des Deep-Learning-Einsatzes zu erfüllen. Jürgen Frisch

Kommentare sind deaktiviert