News Intels HPC-Chips: Ponte Vecchio tritt unrühmlich ab, Falcon Shores mit 1,5 kW

Tja, war damals doch eigentlich schon sofort klar und bei der Einstellung von Rialto Bridge absehbar, daß Intel Ponte Vecchio ohnehin exakt nur solange hochhalten wird, bis ihre permanente Blamage Royale AuroraNext fertiggestellt wird.

Das ganze Thema Ponte Vecchio+AuroraNext ist für Intel nach 6 Jahren Verspätung und massiver Unzulänglichkeiten der absolute Reinfall gewesen und dürfte Intel eine ganz Menge Geld gekostet haben.

Die haben daran sicherlich keinen müden Cent verdient, sondern mußten noch mit Milliarden bezuschussen. Ich will gar nicht wissen, was alleine die ganzen Entwicklungs- & Fertigungskosten von AuroraNext als Gesamtpaket gekostet haben oder mit was nach all den unzähligen kaputten Mustern Ponte Veccio zu buchen geschlagen hat. Müßten bestialische Unsummen in Milliardenhöhe sein

Erst recht wenn man die ursprünglichen 200 Millionen des Auftrags damals vom Argonne National Laboratory bedenkt, die Argonne zu Recht nach Jahren des Verzugs mit den kapitalen 600 Millionen Vertragsstrafe quittierte und Intel verdienterweise ihren 299 Millionen USD schweren Brocken vor die Tür legte.

Das Gespann des nie verwirklichten Aurora sowie der offizielle Nachfolger AuroraNext in Kombination mit Ponte-Vecchio hat sicherlich Milliardenlöcher gerissen, zum Umdenken wird es diesen arroganten Haufen aber trotz all der Verluste trotzdem nicht bringen, weil der Verein nicht den Eindruck macht, irgendwas aus dem Ganzen gelernt zu haben. Ich sag nur, Merkbefreiung.

Daß da Intel also alles was mit Aurora(Next)+Ponte Vecchio in Verbindung gebracht wird, so schnell wie möglich unter den Teppich kehren und aus dem Gedächtnis der Leute streichen will, ist nur verständlich, weil hochnotpeinlich.

Nicht nur ist AuroraNext (nach jahrelanger Verspätung wenigstens fertiggestellt, wenn auch nicht vollends online) Effizienz-technisch eine absolute Katastrophe, die Leistung stimmt vorne und hinten nicht.
Alleine die Energiebilanz, gerade jetzt in Zeiten, wo die Stromkosten seit Jahren einen absoluten Höhepunkt erreicht haben, das kannst Du doch Niemandem vermitteln, ohne akute Schamesröte zu bekommen: Es spottet jeder Beschreibung überhaupt damit hausieren gehen zu wollen.

Nur diejenigen armen Gekniffenen, die auf Seiten Intels für Jahre den (Hardware-) Support aufrecht erhalten müssen und für die Problembehebung dieser um Jahre verspäteten, vollkommen überteuerten und überhitzenden Monstrosität zuständig und die Lauffähigkeit sicherstellen müssen, die können einem echt leid tun! Die Service-Techniker haben mein absolutes Beileid …

Aber ich sehe das absolut nüchtern: Die katastrophale (Energie-) Bilanz von AuroraNext inklusive Ponte Vecchio ist und war von Anfang an vollends verdient, und vor allem vollkommen selbstverschuldet!

Der damals als Teil-Projekt des bereits November 2014 gestarteten (!) CORAL-Projektes in 2015 bestellten Supercomputer für 2018 der Initiative (Collaboration of Oak Ridge, Argonne and Lawrence Livermore) des Department of Energy (DoE), war eigentlich von Anbeginn zum Scheitern verurteilt.

Aurora wurde schon 2015 bestellt, für 2018. Ebenso wie auch die beiden Schwesterprojekte Summit und Sierra zusammen mit Aurora 2018 online gehen sollten. Summit wie auch Sierra sind seit 2018 online.
Aus Aurora wurde damals nichts, weil Intel. Stattdessen hat Intel die nächste Nebelkerze AuroraNext gezündet.
EE-Times: IBM vs. Intel in Supercomputer Bout

Ja, Intels Aurora. Weil der 2012 geplante und offiziell 2015 bestellte Aurora sollte schon damals 2018 mit Intel's Xeon Phi an den Start gehen. Ist nix draus geworden. Stattdessen gab's 2018 AuroraNext, versprochen für irgendwann.

Weil Intel hat auch hier wieder, wie auch schon bei dem seinerzeit geplanten Supercomputer um die Beschleuniger Xeon Phi, mal wieder eiskalt den Kunden unverfroren das Blaue vom Himmel gelogen.

Die Hardware des eigentlichen Supercomputers geschweige denn die Interconnects um die damals schon großspurig angekündigten Xeon Phi war zum Zeitpunkt der angenommenen Ausschreibung so noch gar nicht vorhanden, sondern bloß lose als Plan skizziert. Wie das Ganze in der Praxis hätte funktionieren sollen, stand noch vollkommen in den Sternen. Weil von Seiten Intel war nichts Konkretes projektiert worden.

Intel hatte zu dem Zeitpunkt mit ihrem Omni-Path nicht einmal den entsprechend notwendigen Interconnect für diese Größenordnung eines Supercomputers vorzuweisen, selbst der war noch in Planung. Trotzdem hat man darüber fabuliert, daß´man das alles stemmen könne, obwohl man nicht einmal seine Hausaufgaben machte und die Architektur um Xeon Phi war für einen Supercomputer dieser Größenordnung noch gar nicht existent geschweige denn projektiert.

Jedenfalls hat sich damals das Argonne National Laboratory vom U.S. Energy Department wieder mal bequatschen lassen und die fancy Roadmaps für die nächste Version Intel wieder für bare Münze abgekauft, daraus ist jetzt soll irgendwann einmal final und schlussendlich ein vollwertiger AuroraNext werden.

Am Ende hat Intel einmal mehr die selbe Nummer bei AuroraNext hinbekommen, die sie schon bei dem Luftschloß Aurora abgezogen haben. Damals war es Intel Xeon+Omni-Path+Xeon Phi für Aurora, bei AuroraNext war es dann statt Omni-Path (gecancelt 2019) CXL/Genz auf PCIe 5.0-Basis+Xeon Phi+Ponte Vecchio.

Weder hatte Intel zum damaligen Zeitpunkt irgendwas, was tatsächlich als Interconnect hätte dienen können.
Nur deswegen hat Intel damals in aller Eile CXL aus dem Boden gestampft, in der Hoffnung die anderen Unternehmen im Konsortium sind doof genug, für Intel den eigentlichen Interconnect zum Leben zu erwecken (natürlich ohne zu merken, als nützliche Idioten für Intel herzuhalten).

Von Ponte Vecchio fehlte noch jede Spur, geschweige denn hatte man die Architektur dafür. Außer Raja und seine phantastischen Luftschlösser von Intel Xe und später dem Flop Intel ARC.

Ja, und für PCIe 5.0 gab es zwar schon Spezifikationen, aber Niemand hatte geschafft, es in Hardware zu verwirklichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: knoxxi, Unnu und Salutos
" Auf die rund 700 Watt von Ponte Vecchio folgen bis zu 1.000 Watt bei Gaudi3 und 1.500 Watt bei Falcon Shores."

Wo soll das noch hinführen ?!? Glaub wir brauchen wieder mehr Atom Kraftwerke ... :rolleyes:
 
  • Gefällt mir
Reaktionen: Project 2501
Das hat doch Lisa Su mit ihrer Keynote zur ISSCC 2023 bereits aufgezeigt. Mit der aktuellen Rate wie sich die Effizienz erhöht, wird eine Zetascala HPC Maschine 500 MW benötigten.

Aktuell werden fur AI erheblich mehr Systeme hingestellt als jemals fuer HPC. Was den Energiehunger nur weiter antreibt.

D. h. es sind dringend neue Konzepte erfoerderlich.
 
  • Gefällt mir
Reaktionen: Project 2501, Skysnake, Unnu und eine weitere Person
SpartanerTom schrieb:
@Piak

Ich glaube nicht, dass das in diesem Fall eine sinnvolle Stellschraube wäre. Und bei vielen Ausschreibungen öffentlicher Gelder steht ja heute schon Effizienz im Vordergrund. Siehe gerade auch die vielen europäischen Neuzugänge im Green500.

Ich bin der Meinung man kann auch ohne Verbote Anreize schaffen. Zumindest in den Gebieten auf die man Einfluss hat.
Ist sowieso völlig irrelevant. China nimmt im Schnitt mindestens alle ein bis zwei Wochen ein neues Kohlekraftwerk ans Netz. Allein letztes Jahr sind mehrere 10.000 MW an installierte Leistung dazu gekommen.

Ob jetzt hier irgendwo ein paar HPC-Cluster mit 30 oder nur 20 MW an ein paar Universitäten installiert werden, interessiert genau genommen niemanden außer ein paar Bürokraten. 🤡
 
  • Gefällt mir
Reaktionen: Snoop7676
ETI1120 schrieb:
@Piak was willst Du regeln was sich automatisch regelt?
Und doch hat Intel bei deutlich schlechterer Effizienz den höheren Marktanteil , oder ? Gewohnheit , Schmiergelder und Ahnungslosigkeiten sind scheinbar doch nicht so unwichtig
 
  • Gefällt mir
Reaktionen: Project 2501
Intel hat sich generell mit der Strategie, alles auf kleine Chiplets zu splitten vertan. Ponte veccio war sicher der Extremfall. Aber auch Granite Rapids Nachfolger hat wieder auf größere und weniger Chips gesetzt. Meteor Lakes Nachfolger fassen auch wieder mehr Einheiten in weniger Chiplets zusammen.

@Piak
Und was soll sich daran ändern wenn du die elektrische Leistung limitieren willst? Da werden die Intel Chips nicht effizienter durch.
 
Askat86 schrieb:
Kommt sehr auf die Leistung im Vergleich an. AMD epyc Server verbrauchen auch um die 500W,
Die pauschale Anfgabe ist kompletter Blödsinn.
Genau wie bei Intel kommt es auf die genaue Konfiguration an.
Im Leerlauf sind durchaus ~100 Watt möglich, je nach CPU & RAM-Ausstattung zwischen ~200 und 1.000+ (ohne GPUs!).
Ergänzung ()

Piak schrieb:
Und es wäre so einfach, Watt/Leistung vorschreiben und jedes Jahr reduzieren. Und solche Heizungen könnte man auch einfach erstmal verbieten...stattdessen wird dem Bürger das Geld aus der Tasche gegriffen und gegängelt.

Das Wichtige wäre doch denen, die Geld erwirtschaften, Vorgaben zu machen.
Ich bin nicht sicher ob du den Artikel bzw. dessen Inhalt verstanden hast. Mutmaßlich nicht, denn dein Kommentar kompetenzfrei. Die Bürger, die sich so ein Gerät (neu) kaufen, kann man weltweit vermutlich an einer Hand abzählen.
 
  • Gefällt mir
Reaktionen: RogueSix
Nagilum99 schrieb:
Im Leerlauf sind durchaus ~100 Watt möglich, je nach CPU & RAM-Ausstattung zwischen ~200 und 1.000+ (ohne GPUs!).
Ergänzung ()
Ah ja, weil Intel hier auch bestimmt 1 und 1,5kW als Leerlauf angegeben hat oO
Da hier von anderer Seite eingeworfen wurde, dass es sich um GPUs handelt: ~750W für die MI300

ETI1120 schrieb:
Mit EPYC liegst Du ziemlich daneben. Da vergleichst Du auch Äpfel und Birnen.
Die Größe der DIE-Fläche in Kombination mit nicht wirklich genannter Art ob es GPU oder CPU ist, hat mich annehmen lassen, dass es sich hier um eine CPU handelt. Sorry ^^
 
Askat86 schrieb:
Die Größe der DIE-Fläche in Kombination mit nicht wirklich genannter Art ob es GPU oder CPU ist, hat mich annehmen lassen, dass es sich hier um eine CPU handelt. Sorry ^^
Es ist auch ein bisschen fies... Falcon Shores wurde ursprünglich als APU angekündigt (wie AMDs MI300A), kommt jetzt aber doch nur als GPU. Noch sind wir nicht wirklich da angekommen, aber es wirkt ja schon ein bisschen so als ob innerhalb einer Produktfamilie in Zukunft öfter mal der Fall eintreten könnte, dass wir von GPU über APU bis CPU alles im gleichen Package finden könnten und das Kleingedruckte beachten müssen, was das eigentlich genau ist.
 
  • Gefällt mir
Reaktionen: Askat86
TechFA schrieb:
Das ganze Thema Ponte Vecchio+AuroraNext ist für Intel nach 6 Jahren Verspätung und massiver Unzulänglichkeiten der absolute Reinfall gewesen und dürfte Intel eine ganz Menge Geld gekostet haben.
Intel hatte mal Geld wie Dreck, dass sie sich solche Spielereien erlauben konnten.
Die Zeiten sind vorbei!
Und sie kommen so schnell nicht wieder.

Aber lassen wir uns überraschen :)
 
  • Gefällt mir
Reaktionen: Unnu und TechFA
Kein Wunder, reden die Amis über eine verzehnfachung des Stromverbrauchs in den Staaten im IT-Bereich bis 2030.
Entweder müssen da ein paar Atommeiler her oder die Wüsten mit Solarzellen gepflastert werden.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Project 2501 und Unnu
Nagilum99 schrieb:
Ich bin nicht sicher ob du den Artikel bzw. dessen Inhalt verstanden hast. Mutmaßlich nicht, denn dein Kommentar kompetenzfrei. Die Bürger, die sich so ein Gerät (neu) kaufen, kann man weltweit vermutlich an einer Hand abzählen.
Danke mir kompetenzfreiheit zu unterstellen. Ich schrieb, man könnte mehr firmen und weniger den bürger versuchen wollen vorschriften zu machen. Mir ist klar, dass diese Hardware niemand privat hat, dennoch sind es aber mitarbeiter von firmen, die diese hardware anschaffen und nicht zu einem anderen besseren produkt zu greifen.
 
Der Gedanke, dass ein Produkt, dass mehr Strom verbraucht, zwingend schlechter ist, ist aber durchaus kompetenzfrei in diesem Kontext.
 
  • Gefällt mir
Reaktionen: bensen
Piak schrieb:
Und doch hat Intel bei deutlich schlechterer Effizienz den höheren Marktanteil , oder ? Gewohnheit , Schmiergelder und Ahnungslosigkeiten sind scheinbar doch nicht so unwichtig
Ponte Vecchio hat ist an seiner Ineffizienz gescheitert.

Der Umsatz der Serversparte von Intel hat sich ueber die letzten Jahre halbiert.

Wenn Intel die Ineffizienz seiner Server nicht in den Griff bekommt wird der Umsatz weiter schrumpfen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Project 2501 und TechFA
Bei Falcon Shores würde mich dann sehr interessieren wie und wie viel Gaudi dann da noch drin stecken wird. Die Berichte dazu sind ja noch Recht abstrakt und wechselhaft.
 
Askat86 schrieb:
Ah ja, weil Intel hier auch bestimmt 1 und 1,5kW als Leerlauf angegeben hat oO
Da hier von anderer Seite eingeworfen wurde, dass es sich um GPUs handelt: ~750W für die MI300
Der Verbrauch der GPU ist in der globalen Betrachtung*) keine relevante Größe. Es ist die Effizienz auf die es ankommt.

Wenn Falcon Shore die Schnitt 4 fache Rechenleistung der MI300X auf die Straße bringt ist gegenüber der MI300X ein Fortschritt. Das Problem für Falcon Shore ist allerdings, er es mit den Nachfolgern der aktuellen Produkten von AMD und Nvidia zu tun bekommt.

*) Lokal Betrachtet schränkt es natürlich die möglichen Kühloptionen ein.
 
  • Gefällt mir
Reaktionen: stefan92x
Piak schrieb:
Danke mir kompetenzfreiheit zu unterstellen. Ich schrieb, man könnte mehr firmen und weniger den bürger versuchen wollen vorschriften zu machen. Mir ist klar, dass diese Hardware niemand privat hat, dennoch sind es aber mitarbeiter von firmen, die diese hardware anschaffen und nicht zu einem anderen besseren produkt zu greifen.
"Der Bürger" definiert umgangssprachlich eine Privatperson, nicht den Entscheider einer Firma.
Ein besseres Produkt wird idR. gekauft, wenn verfüg- und bezahlbar.
Mehr Verbrauch steht nicht pauschal im Gegensatz zu mehr Effizienz.
Den Firmen vorzuschreiben, dass sie effizienter sein müssen, hieße ihnen neue Fertigungstechnologien zu diktieren, die viele Jahre F&E und Unsummen benötigen.
Darüberhinaus ist eigentlich jedem mit etwas Ahnung bekannt: Die Leistung (und damit Effizienz) eines Chips basiert stark auf den Anwendungszweck bzw. oft sogar auf der konkrete Anwendung und deren Optimierung.

An meiner Ansicht hat sich nichts geändert.
 
Nagilum99 schrieb:
Den Firmen vorzuschreiben, dass sie effizienter sein müssen, hieße ihnen neue Fertigungstechnologien zu diktieren, die viele Jahre F&E und Unsummen benötigen.
Das ist nur ein Drittel der Wahrheit. Stichwort Takt und Design(Leckströme). Beides könnte Intel ändern, würde aber Änderungen am Benchmark Balken bedeuten und damit den Profit schmälern.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: TechFA
Zurück
Oben