Hewlett Packard Enterprise
23.05.2017, 10:26 Uhr
Computer für das Big-Data-Zeitalter
Ein Prototyp aus dem Forschungsprogramm »The Machine« zeigt das Potenzial des Memory-Driven Computing. Es handelt sich dabei um das grösste Forschungs- und Entwicklungsprogramm in der Geschichte des Unternehmens. Darin entwickelt HPE ein neues Computer-Paradigma, genannt Memory-Driven Computing - eine speziell für das Zeitalter von Big Data entwickelte Computer-Architektur.
»Der nächste grosse wissenschaftliche Durchbruch, bahnbrechende Innovationen und Technologien verstecken sich in Sichtweite hinter den Datenbergen, die wir jeden Tag erzeugen«, so Meg Whitman, CEO von Hewlett Packard Enterprise. »Um dieses Versprechen wahr werden zu lassen, können wir uns nicht auf die Technologien der Vergangenheit verlassen. Wir brauchen einen Computer, der speziell für das Zeitalter von Big Data erschaffen wurde.«
Der vorgestellte Prototyp hat 160 Terabyte Arbeitsspeicher und ist in der Lage, das Fünffache aller Bücher der Library of Congress an Daten gleichzeitig zu bearbeiten - etwa 160 Millionen Bücher. Es war vorher nie möglich, ganze Datensätze dieser Grösse in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten.
Basierend auf dem aktuellen Prototyp erwartet HPE, dass die Architektur leicht bis zu einem System mit einheitlichem Arbeitsspeicher in Exabyte-Grösse skaliert werden kann und darüber hinaus bis zu einem nahezu grenzenlosen Arbeitsspeicher mit 4.096 Yottabyte. Zum Vergleich: Das ist das 250.000-fache des aktuellen Gesamtdatenbestands auf der Welt. Damit können zum Beispiel die Daten aller autonomen Fahrzeuge weltweit oder die Daten der gesamten Weltraumforschung gleichzeitig analysiert werden, um Antworten und Lösungen mit noch nie dagewesener Geschwindigkeit zu finden.
»Wir glauben, dass das Memory-Driven Computing die Lösung ist, um die Technologiebranche auf eine Art weiterzuentwickeln, die uns grosse Fortschritte in allen Bereichen der Gesellschaft ermöglichen«, sagt Mark Potter, CTO von HPE und Director der Hewlett Packard Labs. »Die Architektur, die wir vorgestellt haben, kann in jeder Rechnerkategorie eingesetzt werden - von intelligenten Geräten im Internet der Dinge bis hin zum Supercomputer.«
Beim Memory-Driven Computing steht der Arbeitsspeicher, nicht der Prozessor, im Zentrum der Rechnerarchitektur. Durch die Vermeidung von Ineffizienzen in der Interaktion zwischen Arbeitsspeicher, Plattenspeicher und Prozessoren reduziert das Memory-Driven Computing die benötigte Zeit für die Lösung komplexer Probleme von Tagen auf Stunden, Stunden auf Minuten und Minuten auf Sekunden.
Der vorgestellte Prototyp hat 160 Terabyte Arbeitsspeicher und ist in der Lage, das Fünffache aller Bücher der Library of Congress an Daten gleichzeitig zu bearbeiten - etwa 160 Millionen Bücher. Es war vorher nie möglich, ganze Datensätze dieser Grösse in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten.
Basierend auf dem aktuellen Prototyp erwartet HPE, dass die Architektur leicht bis zu einem System mit einheitlichem Arbeitsspeicher in Exabyte-Grösse skaliert werden kann und darüber hinaus bis zu einem nahezu grenzenlosen Arbeitsspeicher mit 4.096 Yottabyte. Zum Vergleich: Das ist das 250.000-fache des aktuellen Gesamtdatenbestands auf der Welt. Damit können zum Beispiel die Daten aller autonomen Fahrzeuge weltweit oder die Daten der gesamten Weltraumforschung gleichzeitig analysiert werden, um Antworten und Lösungen mit noch nie dagewesener Geschwindigkeit zu finden.
»Wir glauben, dass das Memory-Driven Computing die Lösung ist, um die Technologiebranche auf eine Art weiterzuentwickeln, die uns grosse Fortschritte in allen Bereichen der Gesellschaft ermöglichen«, sagt Mark Potter, CTO von HPE und Director der Hewlett Packard Labs. »Die Architektur, die wir vorgestellt haben, kann in jeder Rechnerkategorie eingesetzt werden - von intelligenten Geräten im Internet der Dinge bis hin zum Supercomputer.«
Beim Memory-Driven Computing steht der Arbeitsspeicher, nicht der Prozessor, im Zentrum der Rechnerarchitektur. Durch die Vermeidung von Ineffizienzen in der Interaktion zwischen Arbeitsspeicher, Plattenspeicher und Prozessoren reduziert das Memory-Driven Computing die benötigte Zeit für die Lösung komplexer Probleme von Tagen auf Stunden, Stunden auf Minuten und Minuten auf Sekunden.