Wahrscheinlich weil es billiger ist mehrere "langsamere" Karten zu kaufen, statt einem solchen Monster. Die gehen ja meist für Preise übern Tisch wo dann ne 3090Ti noch günstig gegen ausschaut.Onkel Föhn schrieb:Weshalb kaufen die Schürfer nicht solche Rechenknechte und lassen uns die Gamer Karten ?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Bericht Nvidia Hopper: So schnell ist die neue Architektur für Supercomputer
- Ersteller Colindo
- Erstellt am
- Zum Bericht: Nvidia Hopper: So schnell ist die neue Architektur für Supercomputer
sikarr
Vice Admiral
- Registriert
- Mai 2010
- Beiträge
- 6.577
Onkel Föhn schrieb:Weshalb kaufen die Schürfer nicht solche Rechenknechte und lassen uns die Gamer Karten ?
Genau, du musst ja auch die Anschaffungskosten mit einrechnen.kamanu schrieb:Wahrscheinlich weil es billiger ist mehrere "langsamere" Karten zu kaufen, statt einem solchen Monster.
konkretor
Artikeldetektiv
- Registriert
- März 2011
- Beiträge
- 7.117
@Onkel Föhn für ca. 33.000 $ gehört solch eine "Karte" dir
https://videocardz.com/newz/nvidia-...0gb-memory-listed-in-japan-for-over-33000-usd
https://videocardz.com/newz/nvidia-...0gb-memory-listed-in-japan-for-over-33000-usd
@konkretor So etwas in einem Leserartikel und man schafft es gesichert auf die Front-Page
konkretor
Artikeldetektiv
- Registriert
- März 2011
- Beiträge
- 7.117
Bis vor kurzem hatte ich auf solche Dinge noch Zugriff. Jetzt leider nicht mehr. Nach dem Firmenwechsel mach ich nun halt andere Dinge.
Hatte immer mal vor einen Leserartikel zu schreiben wie rechnet man an einem Super Computer. Ich hab leider keinen Zugriff mehr. Daher kann jeder sich selber durchs Wiki wühlen https://kb.hlrs.de/platforms/index.php/HPE_Hawk
https://www.hlrs.de/systems/hpe-apollo-hawk/
Hatte immer mal vor einen Leserartikel zu schreiben wie rechnet man an einem Super Computer. Ich hab leider keinen Zugriff mehr. Daher kann jeder sich selber durchs Wiki wühlen https://kb.hlrs.de/platforms/index.php/HPE_Hawk
https://www.hlrs.de/systems/hpe-apollo-hawk/
Ohne jetzt Die Shots vom Vorgänger anzuschauen würde ich sagen, das passt gar nicht so schlecht.flappes schrieb:"~600 mm²" in der Tabelle GPU-Gerüchte RTX 4090 kann also nicht hinkommen, wenn man sich die Zahlen in diesem Artikel anguckt.
Draco Nobilis
Banned
- Registriert
- Jan. 2012
- Beiträge
- 2.943
Jo, das ist mal vermutlich der letzte große Monolith den wir hier sehen.
800mm² N4... das wird man sich kaiserlich bezahlen lassen.
So geht es definitiv nicht weiter.
Und Mining... da lach ich mich schlapp, die kaufen sich dafür dutzende von 30x0er da der Anschaffungspreis für den ROI, im Gegensatz zu den Strompreisen, nämlich eine Rolle spielt. Mining wird vorzugsweise da gemacht wo Strom aus der Steckdose schön billig ist und es niemanden interessiert wie er erzeugt wird bzw. weil er hochsubventioniert ist.
800mm² N4... das wird man sich kaiserlich bezahlen lassen.
So geht es definitiv nicht weiter.
Und Mining... da lach ich mich schlapp, die kaufen sich dafür dutzende von 30x0er da der Anschaffungspreis für den ROI, im Gegensatz zu den Strompreisen, nämlich eine Rolle spielt. Mining wird vorzugsweise da gemacht wo Strom aus der Steckdose schön billig ist und es niemanden interessiert wie er erzeugt wird bzw. weil er hochsubventioniert ist.
Shoryuken94
Admiral
- Registriert
- Feb. 2012
- Beiträge
- 8.861
Danke für die Zusammenfassung. Schon wirklich beeindruckend! Jede Generation wieder ein mächtiger Top End Chip, den Nvidia da zaubert. Macht definitiv Lust auf die Consumerprodukte.
O
Onkel Föhn
Gast
Boah ey, für das Geld hast vor nem halben Jahr 10 Stk. der 3090 bekommen ...konkretor schrieb:@Onkel Föhn für ca. 33.000 $ gehört solch eine "Karte" dir
https://videocardz.com/newz/nvidia-...0gb-memory-listed-in-japan-for-over-33000-usd
MfG Föhn.
Ergänzung ()
Du meinst sicherlich die "Resterampe" für den Pöbel/Mob ?Shoryuken94 schrieb:Macht definitiv Lust auf die Consumerprodukte.
MfG Föhn.
Anhänge
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.537
Toller Beitrag @Colindo !
Prof. Gunter Dueck hatte bereits um 2009 (!) angekündigt, dass das Thema "AI" auf die nächsten 20+ Jahre der größte Treiber der Chip- und Prozessor-Weiterentwicklung/Innovationen wird, branchenübergreifend.
Auch da hat er - wieder einmal - recht gehabt.:
13 Jahre später ist das, was Nvidia hier fertigt, ein Testament dessen und beeindruckt mit dem Momentum für die Rechenpower von AI workloads.
Wahnsinn, was die Forschung und Fertigung mittlerweile leistet.
btw, lesenswert:
https://www.zdnet.com/article/nvidi...se-in-data-centers-the-cloud-and-at-the-edge/
Prof. Gunter Dueck hatte bereits um 2009 (!) angekündigt, dass das Thema "AI" auf die nächsten 20+ Jahre der größte Treiber der Chip- und Prozessor-Weiterentwicklung/Innovationen wird, branchenübergreifend.
Auch da hat er - wieder einmal - recht gehabt.:
13 Jahre später ist das, was Nvidia hier fertigt, ein Testament dessen und beeindruckt mit dem Momentum für die Rechenpower von AI workloads.
Wahnsinn, was die Forschung und Fertigung mittlerweile leistet.
btw, lesenswert:
https://www.zdnet.com/article/nvidi...se-in-data-centers-the-cloud-and-at-the-edge/
Zuletzt bearbeitet:
finde das im Gegensatz zu vor 2011 nicht so wild. Seit Einführung von TSMCs 28nm Prozess hat sich das im GPU Sektor schon stark verlangsamtGT200b schrieb:But will it run Crysis?
Krass wie sehr sich die Transistorendichte der letzten 10 Jahre stetig erhöht hat.
700W TDP, jetzt werden wieder einige rumheulen 😁
Katzenjoghurt
Lt. Commander
- Registriert
- Aug. 2005
- Beiträge
- 2.003
Ich denke, das Mining-Thema kann man als Gamer langsam abhaken.Onkel Föhn schrieb:Weshalb kaufen die Schürfer nicht solche Rechenknechte und lassen uns die Gamer Karten ?
MfG Föhn.
In Mining zu investieren ist inzwischen nur noch Hobby, weil reine Spekulation.
Wenn teure Hardware, dann kaufen Miner direkt ASICs... wenn sie an welche kommen.
Allerdings gilt für die dasselbe wie für solche Supercomputer-Karten gelten würde:
Sobald sie nicht mehr rentabel sind, sind sie nur noch Elektroschrott.
Bei Grafikkarten ist das anders - die kann man noch Gamern andrehen.
ModellbahnerTT
Banned
- Registriert
- Jan. 2010
- Beiträge
- 2.020
Man wird sehen ob sich das in Supercomputern Einsatz finden wird und wie es dann mit der Energieeffizienz aussieht.
Findest du? AI ist sicher Gewachsen (kam ja von nichts) aber AMDs und Intels HPC Chips sind sicher nicht klein und unwichtig. Auch sind Mainframe CPUs auch nicht ohne (harte Untertreibung).Laphonso schrieb:Prof. Gunter Dueck hatte bereits um 2009 (!) angekündigt, dass das Thema "AI" auf die nächsten 20+ Jahre der größte Treiber der Chip- und Prozessor-Weiterentwicklung/Innovationen wird, branchenübergreifend.
Ich glaube die Erstarkung der Konkurrenz durch AMD (CPUs als auch Beschleuniger/GPUs) wiegt deutlich schwerer, als Nvidias AI
Der beste Treiber für Inovation ist Armut! (mit wenig viel erreichen )
beckenrandschwi
Lt. Commander
- Registriert
- Aug. 2004
- Beiträge
- 2.029
Bin gespannt, wann die 100Mrd. Transistor Marke in diesem Bereich fällt!
350W für den PCIe Ableger ist doch noch ok...
350W für den PCIe Ableger ist doch noch ok...
Laphonso
Vice Admiral
- Registriert
- Jan. 2012
- Beiträge
- 6.537
Das sind nicht meine Worte, ich gebe das nur wieder:bad_sign schrieb:Findest du?
Gibt ein spannendes working Paper zur KI/AI in der Industrie 4.0 hier:
https://www.plattform-i40.de/IP/Redaktion/DE/Downloads/Publikation/KI-industrie-40.html
Lösungsbasierten Ansätzen auf KI Fundament gehört die Zukunft der Prozess- und Produktionsentwicklung, sie hebt alles in das das next level der Erkenntnisauswertung.
Der gesamte Business Intelligence Komplex, Marktanalysen und das Auswerten von Daten generell als Fundament von Strategien werden zukünftig AI gestützt sein.
Hatte vor Wochen 2 Workshops von 2 Firmen, die ihr xRM System präsentiert haben. USP waren u.a. "AI" Ansätze.
Nvidia hat sehr früh auf diese Entwicklung gesetzt. AMD spielt hier keine relevante Rolle und ist dort - bisher - auch keine Konkurrenz.
Warum das so ist, wurde hier am Beispiel ML (was NICHT mit dem Thema AI per se zu verwechseln ist!) ganz gut diskutiert :
https://www.reddit.com/r/MachineLea...why_does_amd_do_so_much_less_work_in_ai_than/
O
Oldtimer
Gast
Vorsicht mit solchen Äußerungen, ich bin allen Ernstes für dieselbe durchaus spaßhaft gemeinte Aussage hier schon verwarnt worden! Kaum zu glauben und zu verstehen, aber Tatsache....GT200b schrieb:But will it run Crysis?
Zuletzt bearbeitet von einem Moderator:
O
Oldtimer
Gast
Über Sinn und Unsinn, sowie die Frage, ob eine Meinung/Beitrag zur Diskussion beiträgt oder nicht, lässt sich trefflich streiten. Da gehen die Geschmäcker Gott sei Dank verschieden Wege. Eine Rechtfertigung zu einer Verwarnung ist das allerdings nicht. Gerade von einem Mod sollte man ein bisschen Fingerspitzengefühl erwarten dürfen.konkretor schrieb:
Ähnliche Themen
- Antworten
- 69
- Aufrufe
- 16.862
- Antworten
- 75
- Aufrufe
- 8.794
- Antworten
- 87
- Aufrufe
- 8.154