Wafer Scale Engine der zweiten Generation (Bildnachweis: Cerebras Systems) Der Hersteller des weltweit größten Computerchips neckt ein neues Modell, das um eine Billion Transistoren erweitert wurde.
Im vergangenen Jahr stellte Cerebras Systems die Wafer Scale Engine vor, einen Supercomputer-Chip von der Größe eines iPad mit einer Größe von 8,5 x 8,5 Zoll.
Das aktuelle Modell enthält 1,2 Billionen Transistoren in 400.000 Rechenkernen, die für AI-basierte Deep-Learning-Aufgaben optimiert wurden.
Am Dienstag stellte das in Kalifornien ansässige Unternehmen auf der Hot Chips-Technologiekonferenz eine Vorschau auf das Modell der nächsten Generation vor.
Dank der 7-nm-Chip-Herstellungstechnologie des Herstellers TSMC verdoppelte Cerebras sowohl die Transistoren als auch die Kerne des kommenden Siliziums.
"Dies ist die Wafer Scale Engine der zweiten Generation", sagte der Chief Hardware Architect Sean Lie in der Präsentation.
„Es verfügt über 850.000 AI-optimierte Kerne.
Es enthält 2,6 Billionen Transistoren.
“
Lie zeigte ein Bild des Chips (oben), der sich derzeit in den Labors des Unternehmens befindet.
Es ist unklar, ob es größer ist, aber Cerebras plant, in den kommenden Monaten weitere Details zu teilen.
Sean Lie hält die Wafer Scale Engine der ersten Generation hoch (Bildnachweis: Cerebras Systems) Das Unternehmen hat den riesigen Chip entwickelt, um die Engpässe bei den heutigen Halbleiterdesigns zu beheben, die viel kleiner sind.
Supercomputing-Labors und -Unternehmen können diese vorhandenen Chips in Clustern zusammenbauen, um mehr Rechenleistung zu erzielen.
Zum Beispiel verkauft Nvidia einen AI-optimierten Server für 199.000 US-Dollar, der acht GPUs enthält.
(Bildnachweis: Cerebras Systems) Laut Cerebras können die aktuellen Setups jedoch unter Bandbreiten- und Latenzengpässen leiden, da der Speicher außerhalb der Rechenkerne integriert ist und das System gezwungen ist, ständig Daten abzurufen.
„Wenn der Speicher weit entfernt und außerhalb des Chips platziert wird, sind die Kerne häufig im Leerlauf und führen keine nützlichen Berechnungen durch“, schrieb das Unternehmen im vergangenen Jahr in einem Blogbeitrag.
(Gutschrift: Cerebras System) Die Lösung von Cerebras besteht darin, Silizium so umzugestalten, dass jeder Kern seinen eigenen lokalen Speicher hat, was den Weg für mehr Leistung ebnet.
Um dies zu erreichen, baute das Unternehmen die Rechenkerne und den On-Chip-Speicher auf einem einzigen Siliziumwafer zusammen.
Es wurden auch zahlreiche Redundanzen im Chip eingebaut, um Fehler im Herstellungsprozess zu vermeiden.
Cerebras hat die Wafer Scale Engine verwendet, um den CS-1 anzutreiben, eine serverähnliche Maschine, die für die Ausführung von Deep-Learning-Algorithmen entwickelt wurde.
Am Mittwoch hat das Lawrence Livermore National Laboratory in Kalifornien eine CS-1-Einheit an einen seiner Supercomputer, Lassen, angeschlossen.
Laut dem Lawrence Livermore National Lab besteht der Hauptvorteil des CS-1 in seiner Fähigkeit, die auf wissenschaftliche Forschung ausgerichtete Arbeitsbelastung für tiefes Lernen zu optimieren.
"Laborcomputerwissenschaftler sagten, die Funktionen des Systems würden es ihnen ermöglichen, unnötige Verarbeitung in Workflows zu überspringen und neuronale Netze mit tiefem Lernen zu beschleunigen", fügte das Labor hinzu.
"Durch die Integration im Wafer-Maßstab werden die Kommunikationsgrenzen minimiert, um das Training neuronaler Netze zu erweitern, und wie oft Forscher Probleme in kleinere Jobs aufteilen müssen."
Wafer Scale Engine der zweiten Generation (Bildnachweis: Cerebras Systems) Der Hersteller des weltweit größten Computerchips neckt ein neues Modell, das um eine Billion Transistoren erweitert wurde.
Im vergangenen Jahr stellte Cerebras Systems die Wafer Scale Engine vor, einen Supercomputer-Chip von der Größe eines iPad mit einer Größe von 8,5 x 8,5 Zoll.
Das aktuelle Modell enthält 1,2 Billionen Transistoren in 400.000 Rechenkernen, die für AI-basierte Deep-Learning-Aufgaben optimiert wurden.
Am Dienstag stellte das in Kalifornien ansässige Unternehmen auf der Hot Chips-Technologiekonferenz eine Vorschau auf das Modell der nächsten Generation vor.
Dank der 7-nm-Chip-Herstellungstechnologie des Herstellers TSMC verdoppelte Cerebras sowohl die Transistoren als auch die Kerne des kommenden Siliziums.
"Dies ist die Wafer Scale Engine der zweiten Generation", sagte der Chief Hardware Architect Sean Lie in der Präsentation.
„Es verfügt über 850.000 AI-optimierte Kerne.
Es enthält 2,6 Billionen Transistoren.
“
Lie zeigte ein Bild des Chips (oben), der sich derzeit in den Labors des Unternehmens befindet.
Es ist unklar, ob es größer ist, aber Cerebras plant, in den kommenden Monaten weitere Details zu teilen.
Sean Lie hält die Wafer Scale Engine der ersten Generation hoch (Bildnachweis: Cerebras Systems) Das Unternehmen hat den riesigen Chip entwickelt, um die Engpässe bei den heutigen Halbleiterdesigns zu beheben, die viel kleiner sind.
Supercomputing-Labors und -Unternehmen können diese vorhandenen Chips in Clustern zusammenbauen, um mehr Rechenleistung zu erzielen.
Zum Beispiel verkauft Nvidia einen AI-optimierten Server für 199.000 US-Dollar, der acht GPUs enthält.
(Bildnachweis: Cerebras Systems) Laut Cerebras können die aktuellen Setups jedoch unter Bandbreiten- und Latenzengpässen leiden, da der Speicher außerhalb der Rechenkerne integriert ist und das System gezwungen ist, ständig Daten abzurufen.
„Wenn der Speicher weit entfernt und außerhalb des Chips platziert wird, sind die Kerne häufig im Leerlauf und führen keine nützlichen Berechnungen durch“, schrieb das Unternehmen im vergangenen Jahr in einem Blogbeitrag.
(Gutschrift: Cerebras System) Die Lösung von Cerebras besteht darin, Silizium so umzugestalten, dass jeder Kern seinen eigenen lokalen Speicher hat, was den Weg für mehr Leistung ebnet.
Um dies zu erreichen, baute das Unternehmen die Rechenkerne und den On-Chip-Speicher auf einem einzigen Siliziumwafer zusammen.
Es wurden auch zahlreiche Redundanzen im Chip eingebaut, um Fehler im Herstellungsprozess zu vermeiden.
Cerebras hat die Wafer Scale Engine verwendet, um den CS-1 anzutreiben, eine serverähnliche Maschine, die für die Ausführung von Deep-Learning-Algorithmen entwickelt wurde.
Am Mittwoch hat das Lawrence Livermore National Laboratory in Kalifornien eine CS-1-Einheit an einen seiner Supercomputer, Lassen, angeschlossen.
Laut dem Lawrence Livermore National Lab besteht der Hauptvorteil des CS-1 in seiner Fähigkeit, die auf wissenschaftliche Forschung ausgerichtete Arbeitsbelastung für tiefes Lernen zu optimieren.
"Laborcomputerwissenschaftler sagten, die Funktionen des Systems würden es ihnen ermöglichen, unnötige Verarbeitung in Workflows zu überspringen und neuronale Netze mit tiefem Lernen zu beschleunigen", fügte das Labor hinzu.
"Durch die Integration im Wafer-Maßstab werden die Kommunikationsgrenzen minimiert, um das Training neuronaler Netze zu erweitern, und wie oft Forscher Probleme in kleinere Jobs aufteilen müssen."