News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

wern001 schrieb:
Wir Zeit dass das Transistor-Design geändert wird, so das nicht mehr 99,998% in Wärme umgewandelt werden.
Und was soll bei einem Transistor anderes rauskommen als Wärme?
Vitali.Metzger schrieb:
Also sehen wir dann bei der nächsten Generation die 4 Slot Trümmer.
Gibt es ja bereits schon. die Wärme muss über Kühlfläche abgeführt werden und das wird auch nicht einfacher werden, weil man die Wärme auch noch über die Fläche verteilen muss. 450 W für die GPU alleine? Nicht lustig!

Vitali.Metzger schrieb:
Bei AMD bin ich gespannt, ob der Plan mit ihren Multi Chip Design aufgehen wird.
Da AMD vermutlich über den Infinity-Cache aka L3/L4 (je nach dem wie man denn zählen mag, wenn man den L0 zum L1 macht und darauf aufbauend durch geht.) die Synchronistation der Daten der Chiplets sicherstellt und der L3-Cache vertikal auf aufgesetzt wird um die Signalwege klein zu halten, wird das Konzept sogar aufgehen.

Daten werden angefordert, liege sie im L3 rein, liegen sie da nicht, werden sie über einen der beiden VRAM-Controller-Blöcke auf Chiplet 1 oder Chiplet 2 geladen und rein gelegt. Eine doch relativ einfache und gleichzeitig auch effiziente Lösung. Der L3-Cache ist in diesem Fall so etwas wie der Controller, der die Synchronistation der beiden Chiplets übernimmt.
Damien White schrieb:
600W ist im Endeffekt das, was ein normaler Heizkörper im Eigenheim an Leistung hat.
Macht die Sache dennoch nicht besser. Ich hab es mal gemerkt, dass ich sogar im Winter anfangen musste zu Lüften, weil einfach zu viel Wärme sich gestaut hat.

Es ist ja nicht so, dass man wirklich die Heizung ersetzen kann in bestimmten Fällen.
Schaby schrieb:
Der Verbrauch sagt doch erstmal nichts über die Leistung aus. Sollte die Karte wirklich 70%+ mehr Leistung bringen, sind das gut angelegte 100W/h.
Ja, der Verbrauch sagt nichts über die Leistung aus, dennoch kann man der Entwicklung des absoluten Verbrauches auch kritisch Gegenüber stehen. So schön und toll die Effizienz am Ende ggf. sein mag, das ändert nichts an der Problematik, dass der absolute Verbrauch gestiegen ist.

Der Verweis auf die Effizienz ist nicht falsch, aber auch nicht richtig, sondern es kommt auf am Ende auch darauf an, was als ganzes am Ende dabei rum kommt.

Bests Beispiel sind in dem Fall Automobile: Motoren sind seit den 90er Jahren konstant effizienter geworden. Diese Effizienz hat aber nicht dazu geführt, dass Autos heute pro 100 km weniger Kraftstoff verbrauchen, sondern die Verbräuche sind weitgehend gleich geblieben und steigen sogar an, weil man immer schwerere und größere Autos gebaut hat.

Statt also die Effizient zu nutzen um im ganzen sogar weniger Kraftstoff global zu verbrauchen, verbrauchen wir immer mehr.

Bei Elektroautos ist es ähnlich: Die Effizienz wird aktuell teilweise immer noch gesteigert, weil man an allen Ecken und Enden halt noch das eine oder andere Prozentechen holt, statt aber das zu nutzen um den Verbrauch zu senken der Autos, geht es bei BMW, VW, Porsche, Mercdes und Co wieder besser ausgestattet und größere Autos, was dazu führt, das man pro 100km immer noch gewisse Verbräuche hält, statt das man sinkt.

Statt also mal zu versuchen, dass wir von den Ressourcen und Co "weniger" benötigen, wird jeder Effizientgewinn und Co sofort in mehr umgesetzt und damit steigt der Bedarf dennoch.
Bierliebhaber schrieb:
Ich spiele CO2-neutral, der Strom kommt vom Dach.
Ich beziehe Wasserkraft, auch wenn das an meiner Steckdose so nicht ankommt. :)
Beg1 schrieb:
Die Fertigung ist diese Generation aber identisch, vorher hatte nvidia Samsung 8nm und AMD TSMC 7nm, hab da zwar keinen Direktvergleich, aber ich tippe darauf, dass TSMC vorne liegt.
Frage ist halt auch, wie viel sie wirklich vorne liegen. Man kann hier aber schon von einer gewissen Gleichwertigkeit ausgehen mit leichten Vorteilen für TSMC, man sollte das aber auch nicht überbewerten.

Beitrag schrieb:
Es gibt bereits heute einige Rechenzentren, welche die Abwärme zum Heizen nutzen (Anschluss ans Fernwärmenetz), allerdings kommt man dabei um eine Wärmepume nicht herum, da man die Hardware logischerweise nicht mit 90 Grad Kühlwassertemperatur kühlen kann und mit Wärmepumpe ist das ganze natürlich nicht besonders attraktiv.
Kommt auf das Fernwärmenetz an und wofür es ausgelegt ist. Manche Rechenzentrenen testen/verwenden bereits Wasserkreisläufe mit ca. 60 ° Wassertemperatur. Fernwärmenetze können zwischen 60 - 130 ° C liegen. Unseres im Haus liefert ca. 80 °.

Wobei man hier auch noch ein paar andere Wege hat, weil die Energie als ganzes wichtiger ist als die Temperatur des Kühlkreislaufes der Hardware. Da gibts einige Tricks.

Zer0Strat schrieb:
NerdTech meint auf Twitter, dass AMD das Desgin für <=350W ausgelegt haben soll.
Ich glaub da erst mal garnichts mehr. ;)
guggi4 schrieb:
"Nur" 350W bei einer Multi Chip Karte klingt ja fast schon so, als könnte man näher am Sweetspot bleiben, weil man den Konkurrenten sowieso im Griff hat (Pascal Vibes).
Das würde mich an der Stelle nicht so ganz wundern. Wenn wir uns RDNA2 und Ampere ansehen, stehen 5120 Rechenwerke gegen 10752. RDNA2 ist in Spielen quasi fast gleich schnell mit der hälfte an Rechenwerken und bringt damit die Leistung besser auf die Straße.

Sollte AMD nun ihre Vec32 beibehalten und nur die Anzahl der Vec32 pro WGP vergrößern, dann bräuchte die Karte zwar theoretisch wieder mehr Threads, nur wenn AMD ihren Treiber und ihren Shader-Compiler entsprechend darauf vorbereiten, sehe ich da nicht so das Problem.

Es wird also aktuell pro WGP 256 Shader vermutet (in 8 * Vec32 gegenüber den aktuellen 4 * Vec32). Durch diesen Move steigt die WGP Anzahl zwischen RDNA2 und RDNA3 nicht so drastisch an - 30 pro Chiplet, 60 zusammen - macht dann eben die 15360 Shader. RDNA2 hatte 40 WGP mit 5120 Shader.

Die Threadanzahl skaliert aber mit der Anzahl der Rechenwerke, also verändert sich da nichts. AMD kann die Rechenwerke sehr gut auslasten, also werden sie aus den 15360 Shader auch entsprechend Leistung ziehen. Frage ist nun eher, ob Ampere die Auslastung mit Ada erhöhen kann und mehr Wumms auf die Straße bringt, oder ob es Problematisch bleibt.

In RT hat AMD "nachholbedarf", wobei man da nicht vergessen darf, das gerade die ersten Spiele auf NVIDIA hin zugeschnitten wurden und auch viele Spiele die 2020 und 2021 erschienen sind noch primär mit NVIDIA in Zusammenarbeit entstanden sind. Frage ist hier: Überarbeitet AMD ihre RT-Cores und das Konzept noch mal für RDNA3 und gleichen es an NVIDIA an, oder verbessern sie es und packen mehr Kerne hinzu um so das Problem zu lösen und vorallem wie aktiv wird AMD bei den Entwicklern um die RT-Implementationen anzupassen.
guggi4 schrieb:
Da bin ich wirklich gespannt, ob da etwas am RDNA3 Verbrauch dran ist, die ~600W für Ada scheinen ja schon relativ sicher.
Man wird abwarten müssen ob NVIDIA die richtigen Schlüsse zieht und allgemein der Verbrauch so hich geht aber Ada quasi die Probleme von Ampere beseitigt, dann könnte es richtig schnell sein. Da ist dann halt die Frage: Wie viel schneller und will AMD da mit machen.

Oder muss NVIDIA diesen weg gehen, weil sie einige der Probleme von Ampere nicht lösen konnten und man nur so die Krone behalten kann. Man wird abwarten müssen. Es wird spannend!
 
  • Gefällt mir
Reaktionen: MasterAK, guggi4 und edenjung
Triky313 schrieb:
Ich bin ehrlich, ich habe eine 3090, aber irgendwann reicht es auch mal.
Ich habe auch eine 3090 und zahlreiche Games in 3440x1440 UWQHD bei denen ich denke „mindestens 20-40 fps mehr wären hier nett“. Mir reicht eine 3090 hier längst nicht. ;)
 
  • Gefällt mir
Reaktionen: Gast12345, anappleaday, Youngtimer und eine weitere Person
Laphonso schrieb:
Ich habe auch eine 3090 und zahlreiche Games in 3440x1440 UWQHD bei denen ich denke „mindestens 20-40 fps mehr wären hier nett“. Mir reicht eine 3090 hier längst nicht. ;)
Und das war leider zu Release schon so und ist nicht wirklich besser geworden!
In 4K sieht das ganze dann Teilweise noch schlimmer aus, so das es auch Zeit wird das eine 4090 (Ti) kommt!

Schade das es kein Sinnvolles SLI mehr gibt, 2x4090 würde wohl gut hinkommen für 4K / 8K Gaming auf Max inkl Raytracing...na mal sehen man wird ja noch träumen dürfen :D
 
  • Gefällt mir
Reaktionen: Gast12345 und Laphonso
macht sinn in folgendem szenario :

PV auf dem dach erzeugt strom, der gespeichert wird - und vom gaming rechner verbraucht. ergo gratis zocken, und sogar noch entlastung für heizung :evillol::evillol::evillol:
Ergänzung ()

Laphonso schrieb:
Mir reicht eine 3090 hier längst nicht. ;)
wenigstens noch leute mit anspruch hier, gefällt mir persönlich gut :D
 
  • Gefällt mir
Reaktionen: Gast12345 und Laphonso
Wer sich solch eine Karte kauft, wird sich auch um die Stromkosten keine Gedanken machen…was mich eher stört ist die Lautstärke und die Wärmeentwicklung.

Für mich muss ein System SILENT sein auch beim Gaming und beim Rendern..alles über 32DB ist für mich zu laut.

Diese Düsentriebwerke von Anno 2003 will ich nicht mehr im Rechner haben.
 
  • Gefällt mir
Reaktionen: Gast12345 und DefconDev
Wan900 schrieb:
Wer sich solch eine Karte kauft, wird sich auch um die Stromkosten keine Gedanken machen…
Danke! es gibt noch Menschen die es verstanden haben :schluck:
 
  • Gefällt mir
Reaktionen: Gast12345
Dann kann ich mit Undervolting bei der 4090er mein 850W Netzteil ja erstmal weiter verwenden.
 
Die Entwicklung gefällt mir auch nicht. Ich bin kein Techniker aber wäre es denn einfach so möglich signifikant leistungsstärkere Grafikkarten zu entwickeln ohne die Verlustleistung zu erhöhen?
Ich frage das mal ganz bewusst weil gejammert ist ja immer schnell.
 
Laphonso schrieb:
Ich habe auch eine 3090 und zahlreiche Games in 3440x1440 UWQHD bei denen ich denke „mindestens 20-40 fps mehr wären hier nett“. Mir reicht eine 3090 hier längst nicht. ;)

Bin auch in der Ultrawide Auflösung unterwegs und der Monitor macht maximal 144hz. Das erreiche ich mit der 3080 in halbwegs aktuellen Spielen nur mit DLSS Tricks. Ist ein tolles Feature, aber gerade wenn es Richtung Raytracing geht dürfte mein Nachfolger der 3080 noch ordentlich Performance zulegen.
 
  • Gefällt mir
Reaktionen: Laphonso
Endlich fangen all die großen 1000er und 1200er Netzteile an, Sinn zu ergeben und eine Existenzberechtigung zu erhalten.

Bzgl der Kühlung gebe ich den Kollegen aber recht, bin mal gespannt, ob die FoundersEditions mit 240er oder 360er AiO geliefert werden.
 
  • Gefällt mir
Reaktionen: Laphonso
Wie wäre es mal mit einem Shrink der Strukturbreite und einer Optimierung des Stromkonsums? Könnte das nicht auch mal für eine neue Generation von Grafikkarten reichen oder werden tatsächlich schon alle Leistungsreserven der aktuellen Generation voll ausgenutzt.
 
Schaby schrieb:
Der Verbrauch sagt doch erstmal nichts über die Leistung aus. Sollte die Karte wirklich 70%+ mehr Leistung bringen, sind das gut angelegte 100W/h.

Also ca. 30% mehr Verbrauch bei +70% Leistung.
Naja, schon richtig, letztlich ist es aber doch mehr Verlustleistung.
Es gibt ja auch andere Szenarien:
Verlustleistung beibehalten und Leistung durch Verbesserungen steigern.
Die Verbesserungen nutzen um bei gleicher Leistung den Verbrauch zu reduzieren.

Vielleicht hätte man dann auch eine Chance noch mal ne Karte zu gescheiten Preisen zu bekommen wenn die neue Generation nicht wieder von den Gamern rausgezogen werden.
 
Deimonos schrieb:
weil wenn man nicht mehr mit Gas heizen kann übernimmt dann die Grafikkarte den Job nebenbei. :D
und da wir ja auch alle auf Strom umsteigen sollen ... passt das.
Jetzt muss ich nur noch meine Frau zum PC-Gamen kriegen und schon ist's in 3 Zimmern mollig warm.
Ergänzung ()

olfbc schrieb:
Heizt du mit Gas?
Nein, mit Nvidia!
Oder halt AMD
 
  • Gefällt mir
Reaktionen: Gast12345
Zerbich schrieb:
Mir wird übel, wenn ich daran denke, das ich mir vor 1 Monat ein Seasonic TX 1.000W für 300€ gekauft habe... es gibt kein stärkeres von Seasonic auf Titanium... :-/
also mein 850 Watt Titanium kam mit meinr 3090 Aorus Extrem(475Watt) klar hab mal grpu und cpu Stresstest klaufen lassen und Stormmesser zeigte was von 840 watt an und lief ohne zicken ;>
Würde mich doch Wundern wenn nen 1000 Watt Netzteil bei den 4000er karten plötzlich net ausreicht
 
  • Gefällt mir
Reaktionen: Gast12345
Obwohl mein System recht potent ist, zieht es mich in Zukunft eher in Richtung Xbox/PS 5, Horizon Forbidden West sieht auf der PS5 atemberaubend aus, die Konsole schluckt bescheidene 200 Watt. Ich kann einer 600 Watt-GPU nichts abgewinnen.
 
Ooch, wenn man bald die Arc A780 von Intel bekommt, hat sich das Thema Nvidia erledigt...) Zumindest unter Verbrauchsaspekten. Hälfte der Leistung bei einem Viertel des Verbrauchs...
 
Hoffentlich werden die Grafikkarten bald so groß wie die PC selbst also müssen im zweiten Gehäuse betrieben werden und saufen dann 2000 Watt. Ich will endlich 8k Resolution und Raytracing 2.0 mit 120 FPS daddeln.

* Den Finger in die Wunde der Energiesparer reib*
 
In diesen Verbrauchsregionen wird die Luft (potentielle Kundschaft) immer dünner was bereits einige Umfragen belegen - was wirklich passiert werden wir natürlich erst später sehen.
Skjöll schrieb:
Hälfte der Leistung bei einem Viertel des Verbrauchs...
Hoffentlich nicht hälfte des Verbrauchs bei einem viertel der Leistung - wobei das erstmal alleine schon wegen den Treibern näher dran sein dürfte...
 
Max007 schrieb:
Obwohl mein System recht potent ist, zieht es mich in Zukunft eher in Richtung Xbox/PS 5, Horizon Forbidden West sieht auf der PS5 atemberaubend aus, die Konsole schluckt bescheidene 200 Watt. Ich kann einer 600 Watt-GPU nichts abgewinnen.
Stimmt und mein 77er OLED Läuft mit Luft und Liebe an der PS5 :hammer_alt: - mit dem Sound System komme ich da auch auf 600 - 700W
Immer diese Sinnigen Vergleiche mit Konsolen... :D
 
  • Gefällt mir
Reaktionen: loser, ghecko und el_zoido
Zurück
Oben