News Ada, Hopper und Blackwell: Neue Details zu Nvidias Next-Gen-Architekturen

ThirdLife schrieb:
Oder man nimmt einfach einen Wasserblock statt nutzlose Luftkühlung für sowas verwenden zu wollen. :D

Das Problem ist hier nicht mal so sehr die generelle Leistung eines Kühlers sondern dass man die Hitze nicht schnell genug vom Die bekommt. Da kannst du nur Wasser verwenden wenn du sinnvoll was erreichen willst.
Ach einfach nen 2kg goldblock drauf mit pletierelement und passt schon ;)
 
  • Gefällt mir
Reaktionen: ThirdLife
Ein Morpheus und die Noctua-Edition beweisen, dass es noch sehr starke Reserven bei der GPU Kühlung gibt, die Partner aber alle unfähig sind von ihren antiquierten Designs weiterzudenken.
 
  • Gefällt mir
Reaktionen: Newbie_9000, dideldei, poolk und eine weitere Person
kingkohn schrieb:
600W Leistungsaufnahme? Benutzen die kein kleineres Fertigungsverfahren?
Dann schauen wir mal was ein kleineres Fertigungsverfahren so bringt.
1646138145923.png

https://www.anandtech.com/show/1272...-scaling-but-thin-power-and-performance-gains

Die ganze Aufregung ist schlichtweg unsinnig, es wird niemand gezwungen diese GPUs zu kaufen. Es sollte aber auch jedem klar sein, dass bei nur 20% Energieersparnis durch den Fertigungsschritt, die GPUs schlichtweg mehr Strom brauchen, wenn sie denn auch mehr leisten sollen.

Eine Verdoppelung der Recheneinheiten, die mal hier im Raum stand, würde schlichtweg eine Verdoppelung der Stromaufnahme -20% bedeuten und auch nur dann, wenn man sich nicht stattdessen für die 15% mehr Leistung entscheidet, die beiden Angaben sind nämlich entweder oder.

Die Zeit, wo man mit jedem Fertigungsschritt den Strombedarf erheblich senken konnte, sind seit gut 10 Jahren vorbei. "Damals" ging man von 5V auf 3,3V und dann auf 1,5V, was danach kam waren nur noch Trippelschritte im 0,1V Bereich, die dementsprechend auch keine erheblichen Senkungen beim Strombedarf mehr möglich machen.

EDIT: Be Nvidia wird der Schritt von 8nm Samsung zu 5nm TSMC natürlich viel höher sein, man kann aber trotzdem von einem höheren Strombedarf ausgehen, selbst wenn der Schritt 40% Energie einsparen würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Newbie_9000, PegasusHunter und owned139
Vitec schrieb:
wäre das wohl ausreichend von der Leistung für sehr viele
Ich denke sehr viele wären schon mit der Leistung einer 3070 mehr als gut bedient.
Eine sparsame 4060 mit ~3070 Leistung für um die 300-350€ wäre ein träumchen
 
  • Gefällt mir
Reaktionen: Vitec
Topflappen schrieb:
Model Brechstange wird das vermutlich nicht werden, aber brachial ist die kolportierte Leitung allemal.
Mit 600W kann ich mein ganzes Haus locker warm halten, über 150m² auf kuschelige 23°C.
Meine kleinen Holzöfen leisten laut Datenblättern je um die 5 KW und in jedem Zimmer steht einer (wobei ich nur ein Zimmer heize^^).
Hast du ein Passivhaus mit 1 Meter Dämmung und ohne Fenster?!

Persönlich halte ich wenig von Verschwendung.
Sollte der Stromverbrauch der neuen Gen wirklich so hoch ausfallen wie beschrieben bin ich raus und zocke hauptsächlich auf dem bereits reservierten Steamdeck.
15 Watt ist mir lieber.

Angenommen in D zocken abends 1 Million gleichzeitig mit 800 Watt Graka + 300 Watt System.
Macht 1100 Megawatt oder über 200 große Windkraftanlagen auf Vollast.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Das mit dem Strom ist halt auch ein (rein) deutsches Problem.
Wie so vieles halt. Warum bloß?^^

Das heißt nicht das ich es gut heiße, aber der Markt wünscht die Leistung, Ergo wird Sie realisiert.
TSMC hat sogar angekündigt spezielle Varianten der Fertigung aufzulegen, die noch mehr Power aufnehmen können, aber weniger effizient sein werden.
Vor allem da der Gamer gar nicht die Zielgruppe dieser Monster zu sein scheint, den es wird selbst mit 100€ OEM Massenabnahme Kühlungen nicht möglich sein das leise zu kühlen, geschweige den das die Wärme irgendwann anfängt zu stören, spätestens im Sommer. Server und Mining dagegen, denen ist es egal, dafür gibt es ausgefeilte Lösungen und keiner stört sich an Krach.
 
  • Gefällt mir
Reaktionen: Newbie_9000 und Lemiiker
@xexex bei nvidia ist es schwierig die mögliche veränderungen durch den neuen prozess abzuschätzen; schon innerhalb des tsmc-universum fällt das nicht einfach wenn man nodes überspricht und dann absätzen muss wass z.b. die möglichkeiten sind wenn man von sagen wir 10FF auf 7FF+, denn es ist nicht einfach der kummulative effekt anzusetzen!
und da nvidia aktuell ja auf samsungs 8nm prozess unterwegs ist, ist es mehr ein rate- und schätzspiel was tsmc's 5nm im vergleich dazu möglich machen.

was die news betrifft bin ich deswegen zwiegespalten; einerseits denke ich auch dass nvidia kaum die art brechstange auspacken wird, welche bei einer rtx4080 plötzlich 600w statt 350w tdp hat wie bei der rtx3080.
aber auch eine steigerung auf sagen wir 450w tdp bei einer 4080 wäre eine sehr krasse entwicklung. nur zur erinnerung: eine rtx2080 ist mit glatt der hälfte unterwegs mit ihren ~220w tdp.
selbst wenn die "600 bis 800w" nicht dauerhaft anlegen, so finde ich schon die richtung in welche das zeigt sehr unschön.
auch wenn man die anschaffungskosten und die aktuellen energiekosten aussen vor lässt, und selbst wenn die effizienz unterm strich noch gut ist, so muß man die verlustleistungen welche bei diesen leistungsaufnahmen anfallen auch bändigen können - viel spaß diese karten in einem miditower oder kleinerem atx-case mit schlechtem oder mittelmäßigem airflow zu kühlen! (oder wechseln wir auch bei grakas endgültig in die aio kühllösungen, bei dem die karten selbst <20cm lang sind, man aber platz für einen 360er radi benötigt..?)
 
Martinipi schrieb:
Ein Morpheus und die Noctua-Edition beweisen, dass es noch sehr starke Reserven bei der GPU Kühlung gibt, die Partner aber alle unfähig sind von ihren antiquierten Designs weiterzudenken.
Naja ... die Noctua Edition verwendet vornehmlich abartige Mengen an Kühloberfläche und kombiniert diese mit maximal hochwertigen Lüftern. Davon abgesehen ist das Design ebenso "antiquiert" wie bei allen anderen Herstellerdesigns auch, die zweifellos sehr gute Leistungsfähigkeit des Kühlsystems wird nicht etwa durch brillantes Design erreicht. Der Innovationsspielraum bei klassischer Luftkühlung ist ziemlich begrenzt, zumal die mögliche Leistung auch durch die Oberfläche des zu kühlenden Dies im Verhältnis zu dessen absoluter Verlustleistung limitiert wird.
 
  • Gefällt mir
Reaktionen: Newbie_9000 und Conqi
ThirdLife schrieb:
Und auch das stimmt (leider?) nicht. Die 3080 ist mit ein bisschen optimieren sowohl schneller als auch sparsamer als die 2080 Ti. Dass nVidia hier mit der Brechstange noch ein paar Prozent zusätzlich holt ist unerheblich.
Die 3080 verbraucht im Gegensatz zur 2080 22% mehr Strom. Du willst mir jetzt nicht ernsthaft verkaufen dass da mehr als 22% mehr Performance rauskommen?!
Insofern bleibe ich bei meiner Aussage. Wenn nVidia sich bei 0% Mehrverbrauch positioniert hätte wäre ich auf den Leistungsgewinn gespannt! Sollte ich mit meiner Darstellung vollkommen falsch liegen so lerne ich gerne etwas Neues dazu :)
 
ha gerade nen beitrag zu vermutung von hopper mcm bzw blackwell
aber 144sm halte ich für ausgeschlossen annahme von mit 30% bei 5nm und 60% bei 3nm käme man dann auf 1153mm² substratfläche
Der interposer bzw brückenchip könnte man gar nicht belichten das maxed derzeit bei asml sind 900mm² auch wenn es sich nur sram handelt plus transitoren für die syncronität
daher ist das murks
 
In Zeiten des Klimawandels für mich ein Schritt in die falsche Richtung. Überall wird versucht den Stromverbrauch zu senken wo es nur geht. Bei Kühlschränken, Waschmaschinen, Staubsaugern (max. 900W per EU-Gesetz) usw. ist das Energielabel mit das wichtigste. Bei Autos wird auch auf CO2 und Spritverbrauch geschaut. Beim Computer ist das dann wieder alles egal, hauptsache mehr Leistung. :kotz:
 
  • Gefällt mir
Reaktionen: Blackland und Silencium
heroesgaming schrieb:
Naja ... die Noctua Edition verwendet vornehmlich abartige Mengen an Kühloberfläche und kombiniert diese mit maximal hochwertigen Lüftern. Davon abgesehen ist das Design ebenso "antiquiert" wie bei allen anderen Herstellerdesigns auch, die zweifellos sehr gute Leistungsfähigkeit des Kühlsystems wird nicht etwa durch brillantes Design erreicht. Der Innovationsspielraum bei klassischer Luftkühlung ist ziemlich begrenzt, zumal die mögliche Leistung auch durch die Oberfläche des zu kühlenden Dies im Verhältnis zu dessen absoluter Verlustleistung limitiert wird.
Ich habe meine 2080Ti mit einem Morpheus und 2 Noctua nf-a12x25 ausgerüstet - herrlich diese Ruhe!

Design bei der Hardware 🙊 Hardwarekomponenten müssen in meinen Augen Leistung bringen und gut ist. Schönes Gehäuse und eine gute Verarbeitungsqualität reichen mir da.
 
  • Gefällt mir
Reaktionen: Tagesmenu und orioon
Silencium schrieb:
Da gebe ich dir schon recht, nur bezog sich das Wort "Design" sowohl in meinem als auch im von mir zitierten Beitrag nicht auf die Optik ;)
 
NDschambar schrieb:
Sollten sich die Annahmen bezüglich der Stromaufnahme bewahrheiten, bin ich aus Team grün raus. 600W+ sind in heutigen Zeiten einfach lächerlich.
Evtl. eine gebrauchte 30xx oder eine AMD RDNA2/3 - so sie weniger verbraucht und zu vernünftigen Preisen hergeht.
Man muss ja nicht unbedingt das größte Modell kaufen. Darauf wird es bei mir dann vermutlich drauf hinauslaufen. Die kleineren Modelle sollten hoffentlich eine bessere Effizienz und geringeren Strombedarf haben.
 
cypeak schrieb:
aber auch eine steigerung auf sagen wir 450w tdp bei einer 4080 wäre eine sehr krasse entwicklung. nur zur erinnerung: eine rtx2080 ist mit glatt der hälfte unterwegs mit ihren ~220w tdp.
Eine RTX 2080 hatte knapp 3000 CUDA Cores, die neuen Generation soll im Vollausbau 18500 mitbringen. Dich wundert es wenn die GPU dabei mehr Strom verbrauchen wird? Die Fertigung macht schon lange keine >50% Schritte bei der Energieeffizienz und dementsprechend steigt auch der Verbrauch.
 
  • Gefällt mir
Reaktionen: Newbie_9000
[wege]mini schrieb:
Zur Not, verbaut man 3 von diesen Steckern, die heutzutage "verrückt" sind.
Meiner einer hätte den Satz folgendermaßen gebildet :

Zur Not, verbaut man 3 von diesen Steckern, die "heutzutage" verrückt sind. :D

Denn in ca. 3 Jahren wird´s "normal" sein tun.

MfG Föhn.
 
  • Gefällt mir
Reaktionen: [wege]mini
Oktaederfeld schrieb:
Überall wird versucht den Stromverbrauch zu senken wo es nur geht. Bei Kühlschränken, Waschmaschinen, Staubsaugern (max. 900W per EU-Gesetz) usw. ist das Energielabel mit das wichtigste. Bei Autos wird auch auf CO2 und Spritverbrauch geschaut. Beim Computer ist das dann wieder alles egal,
Ein ziemlich bescheidener Vergleich, weil alle von dir genannten Geräte keine Leistungssteigerung benötigen, teilweise sogar im Gegenteil. Die gleiche Leistung kannst du mit der kommenden Generation sehr wohl mit einem reduzierten Strombedarf haben.

Ein "Energielabel" bezieht sich immer auf Leistung pro Watt und das passt doch, zumindest bei den kleineren Karten.

1646141700022.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Newbie_9000
Silencium schrieb:
Die 3080 verbraucht im Gegensatz zur 2080 22% mehr Strom. Du willst mir jetzt nicht ernsthaft verkaufen dass da mehr als 22% mehr Performance rauskommen?!
Insofern bleibe ich bei meiner Aussage. Wenn nVidia sich bei 0% Mehrverbrauch positioniert hätte wäre ich auf den Leistungsgewinn gespannt! Sollte ich mit meiner Darstellung vollkommen falsch liegen so lerne ich gerne etwas Neues dazu :)
Die 2080 ist weit langsamer als nur 22% ggü. einer 3080. In Witcher 3 z.B. (bewusst ein älteres Spiel zugunsten der 2080 gewählt) ist die 3080 ca. 63% schneller in WQHD ggü. einer 2080 und etwas über 31% schneller als eine 2080 Ti.

Wenn ich jetzt noch auf ~5% Leistung verzichte güü. Stock und ein bisschen UV betreibe ist die Karte immer noch deutlich schneller aber verbraucht kein Stück mehr als eine 2080 Ti.

Wenn du deine Karte mit maximalem OC betreibst ist das deine Sache, aber relativ sparsam sein und dennoch deutlich schneller als Turing, das kann Ampere auch - wenn man das will.

Zwei Beiträge über mir siehst du, dass die 3080 FE sogar Stock knapp 10% mehr fps/Watt drückt als eine 2080 Ti und da liegt noch einiges an UV Potential.
 
  • Gefällt mir
Reaktionen: Newbie_9000
Silencium schrieb:
Die 3080 verbraucht im Gegensatz zur 2080 22% mehr Strom. Du willst mir jetzt nicht ernsthaft verkaufen dass da mehr als 22% mehr Performance rauskommen?!
Insofern bleibe ich bei meiner Aussage. Wenn nVidia sich bei 0% Mehrverbrauch positioniert hätte wäre ich auf den Leistungsgewinn gespannt! Sollte ich mit meiner Darstellung vollkommen falsch liegen so lerne ich gerne etwas Neues dazu :)

1646145936508.png


Eine 3080 war schon bei Release ca. 60% schneller als eine 2080, bei ca. 34% Mehrverbrauch.
 
  • Gefällt mir
Reaktionen: Newbie_9000 und xexex
Zurück
Oben