News Nvidia GeForce „Blackwell“: 575 Watt für RTX 5090 und 360 Watt für RTX 5080 im Gespräch

Quidproquo77 schrieb:
[...] Wenn ich wie bei der UE5 verschiedene Grundlasten für Nanite, Raytracing, Lumen usw. habe die einfach Rechenzeit kosten dafür aber entsprechende Qualität bieten, welche anderswo nicht erreicht wird, liegt es nicht an einer Optimierung, sondern an Weiterentwicklung der Grafikqualität.
Es geht nicht nur um neue Techniken die vielleicht Performance fressen, es müssen diese Techniken ja effizient eingesetzt werden und das ist auch Optimierung, wenn Dinge verändert werden müssen, weil diese in der Feature-Complete Phase noch nicht die Performance aufweist, die man gerne hätte. Nimmt man hier z.B. die UE5 als Beispiel, gab es bis zur Version 5.5 die Limitierung, das zu viele Lichtquellen bei Lumen die Performance extrem runterziehen kann. Nanite hatte in der Implementierung bei Fortnite auch am Anfang erhebliche Performance Probleme, die mit der Zeit in der Engine und Spiel gelöst wurden. Ein ganz anderes negatives Beispiel ist hier die Creation Engine in der Skyrim Urversion, zu viele dynamische Lichtquellen haben nicht nur geflackert, sondern auch die Performance heruntergezogen.
Quidproquo77 schrieb:
Frostpunk [...]Hier liegt es wohl kaum an fehlender Optimierung, sondern schlicht an Anforderungen unter maximalen Settings, [...]
Bei Frostpunk geht es mir um die Grafikqualität im Vergleich zu den FPS. Wenn es z.B. mit Hoch solala aussehen würde und aber gerade 60FPS gibt, ist das einfach nicht gut.
 
4090 vs 5080 im Indy Ultra maxed 4K Full Raytracing/Pathtracing Benchmark DLSS3 vs DLSS4 wird spannend. :daumen:
 
Laphonso schrieb:
Die 4090er auf Ebay werden sich am 5080 Preis orientieren.

Ich würde sogar vermuten einen touch höher als die 5080er. In der Woche vor Weihnachten gab es mal einen kleinen Preisdip auf Ebay runter auf bis zu 1450 EUR, jetzt mit der neuen Gerüchtelage zur 5080, der praktisch besätigten 16 GB RAM und dem Ausverkauf der 4090er zieht das wieder an auf 1700 EUR + X.

Die 4090er war ja schon so insanse bzgl. Specs verglichen zur 4080 dass das fast zu erwarten war. Aber jetzt die erwarteten Specs. der 5090 setzen dem fast noch mal eins drauf. Es ist ja schon abzusehen das eine zukünftige 6080er wieder maximal das erreichen wird, eher darunter (reine Spekulation, aber mit so viel technischer Revolution rechte ich da nicht). Damit würde ich schon davon ausgehen dass das gleiche Spiel mit der 5090 wieder klappt.

Und klappt das System irgendwann nicht mehr mit diesen extrem geringen Wertverlusten dann hatte man trotzdem über Jahre hinweg die Top Notch Hardware im System, dass Spielen genossen und summa summarung auch nicht mehr Geld ausgegeben als wenn man auf der ersten teuren GPU sitzen geblieben wäre.
 
Zuletzt bearbeitet:
DeadMan666 schrieb:
Aber wenn man klug handelt
Anhand nur zwei Generationen sehe ich hier noch lange kein immer funktionierendes Muster.
Das ist wohl mehr Glückssache als "klug handeln", da es von unzähligen externen Einflussfaktoren bestimmt wird und auch man selber die Zeitpunkte korrekt erwischen muss.
Interessant wäre so eine Analyse aber über mehrere ältere Generationen.
 
  • Gefällt mir
Reaktionen: RAZORLIGHT
Im Vergleich zu Nvidia ist AMD's Entscheidung richtig, sich primär auf Effizienz zu konzentrieren. 600W bekommen nur die Spieler weggekühlt, die über eine Klimaanlage verfügen. Spätestens dann, wenn die Außentemperaturen 25 Grad überschreiten, werden viele Käufer sich dann ärgern, weil sie die Leistung einer 5080'er nicht nutzen können.

Die in unserem Spiele-Rechner befindliche 6950'er von AMD bewältigt über FSR problemlos viele und auch aktuelle Spiele-Titel in 4k mit max. Qualitäts-Settings und über Treiber zusätzlich aktiviertes qualitatives SSAAx8 und 64'er Tesselation-Stufe bei ca. 1800-2200 Mhz Takt mit durchschnittlich 90 FPS je nach Game. Einzig Raytracing reist dann diese Karte spürbar nach unten bis unspielbar. Aber wohl nur wenig Spiele haben Raytracing soweit implementiert und optimiert, daß auch visuell ein Unterschied zu erkennen ist(z.B. bei HorizonZeroDawn oder DyingLight2 sehe ich kaum einen Unterschied). Genauso erkenne ich keinen qualitativen Unterschied zw. Nativ und FSR. Ich habe es mehrmals über Screens verglichen. Im Gegenteil, greift z.B. das treiberseitige Antialysing bei FSR besser als bei nativer Auflösung. Dazu noch Reshade+ENB und so protzt auch ein gemoddetes Skyrim mit hoher Grafikpracht auch dank aktueller 4k Texture-Mods, das sich hinter keinem aktuellen Game-Titel verstecken muß. Fehlt nur noch Raytracing.

Und wie gesagt, das alles bei dieser alten Grafikarte in 4k und runtergetaktet auf bis 1800 Mhz(laut Hersteller XFX ist die bis 2800 Mhz taktbar). Der gesamte Stromverbrauch InGame vom PC mit einem 1500W-Netzteil liegt bei ca. 280-350W(dazu mehrere große SSD's/M.2, 128GB RAM bei 1.35V und eine Soundblaster AE-9s). Zum Vergleich, während ich das hier gerade schreibe, verbraucht der selbe Rechner 135W. Einzige Ausreißer wären bei niedriger Taktung z.B. Skyrim und HorizonZeroDawn(vermutl. wegen der Grasdichte), die dann nur knapp über 60 FPS laufen. Bei beiden Titeln müssen wir dann doch über die 2200 Mhz takten.

Warum schreibe ich das? Weil eigentlich genug Power vorhanden ist und AMD nur bei Raytracing hinterher hinkt, was jedoch mit den kommenden Modellen wohl kompensiert sein soll? Und das bedeutet, daß man überhaupt keine 5090'er benötigt, um auf max. Auflösung und Qualitätssetting mit zugeschaltetem SSAA ein aktuelles Game genießen zu können. Ausnahme sind wohl die Spiele, die eine hohe Singe-Core-Leistung der CPU voraussetzen.

Und das wiederum bedeutet, daß AMD mit den max. 350W für eine Grafikkarte den richtigen Weg geht und mit viel Glück bei neuerem Design sogar noch weniger Verbrauch und dadurch geringere Abwärme, ohne einen Leistungseinbruch zu erleiden, wenn nicht gar das Gegenteil.

Eine 5090'er dürfte jedoch nur für die Leute interessant sein, die nicht nur über entsprechendes Kleingeld verfügen, sondern auch eine solide Klimaanlage im Haus eingebaut haben.

Nachtrag: Ich empfehle, FSR über den Treiber zu aktivieren(Radeon Super Resolution auf "aktiviert" stellen). Nicht InGame.
 
Zuletzt bearbeitet:
Wo bin ich hier schrieb:
Anhand nur zwei Generationen sehe ich hier noch lange kein immer funktionierendes Muster.

Bei der RTX 2080 TI hat es auch genauso funktioniert, auch weil die vom RAM her so stark bestückt war. Die hat natürlich auch noch vom Mining Boom profitiert, wird man die RTX 2080 TI Daten raussuchen ist vermutlich sogar ein Gewinn-Szenario möglich. Ich hatte damals eine RTX 2080 Super und bin mit einem Nullsummenspiel auf RTX3080 gewechselt (was widerum auch Glück war, ich hatte echt eine der ersten UVP MSI Trio bekommen bevor der Markt komplett eingebrochen ist für praktisch 1 1/2 Jahre), die 2080TI war noch einen touch besser in meiner Erinnerung.

Wo es damals nicht gut funktioniert hat war der Wechsel von GTX780 auf GTX980, damals hat die GTX970 der Preis zu madig gemacht sodass in der GTX780 ein Wertverlust von mehr als 50% realisiert habe.
 
  • Gefällt mir
Reaktionen: Wo bin ich hier
p.b.s. schrieb:
Im Vergleich zu Nvidia ist AMD's Entscheidung richtig, sich primär auf Effizienz zu konzentrieren. 600W bekommen nur die Spieler weggekühlt
Irgendwie verstehen die meisten hier den Begriff "Effizienz" nicht.
Effizienz beschreibt das Verhältnis zwischen eingesetzten Mitteln und erreichtem Erfolg.
Ohne die Leistung zu kennen, kannst du gar nicht sagen wie effizient das Ding wird.

1736023367592.png
 
  • Gefällt mir
Reaktionen: iron_monkey, ElliotAlderson, shaboo und eine weitere Person
@p.b.s. Du sagst, dass 600W ineffizient wären ohne die Leistung zu kennen. So verstehe ich zumindest die ersten beiden Sätze.
 
  • Gefällt mir
Reaktionen: iron_monkey, ElliotAlderson, shaboo und eine weitere Person
Pivi_OWL schrieb:
wie das riechen muss (gerade bei einer Mahlzeit mit Fisch...)
Ich esse keinen Fisch. Somit wohl kein Punkt bei mir.

Pivi_OWL schrieb:
und dass bei deiner Fertigpizza, den der Ofen bei 220 C° eine Halbestunde den Raum aufgewärmt hat, du nichts mehr von deiner Graka merkst...
Lässt du den Ofen offen während du die Pizza drin hast ? Ich nicht, aber ok.

Pivi_OWL schrieb:
jeder der einen separaten Raum, aka Büro oder Daddelzimmer (bei uns beides..) besitzt, oder ein "Kinderzimmer" oder einen Hobbyraum, wird dir bezeugen können, ja die Dinger machen eine "Riesen" Abwärme. Klar merkt man das im Sommer (negativ) und im Winter (da gar nicht so schlecht).
Meine Mum hat ein kleines Arbeitszimmer und auch da merkt man nix von

Pivi_OWL schrieb:
Dixi Klo.... sagt mir wer mit Wohnküche... Lächerlich diese gesamte Aussage!
Woher dein Hass auf eine Wohnküche ? Kocht ihr so miserabel dass es ständig stinkt ? Magst dein eigenes Essen und dessen Gerüche nicht ? Habt ihr keine kontrollierte Wohnungsbelüftung (so wie ich) ? Hauptsache eigene Zimmer (hoffentlich hermetisch abgeriegelt damit auch ja kein bisschen durchkommt). :daumen:

Btw. ich könnte auch einfach ins andere Zimmer gehen und dort daddeln - auf den dortigen 25qm merkt man übrigens auch nichts. Hab mal den Radi dort reingestellt und es hat exakt gar nix verändert.
Ergänzung ()

DeadMan666 schrieb:
Schalte ich die Heizung dazu nicht aus gewinnt der Gaming-Raum (ca. 45m² Wohnzimmer) pro Stunde um ca. 1°C, wenngleich es natürlich irgendwann sättigt, aber hohe 24 / niedrige 25er sehe ich schon manchmal im Zimmer nach einer Gaming Session (wenn Heizung an).
Also ob nun 22 oder 24 C ist sicherlich nicht entscheidend für "unerträglich" behaupte ich mal. Das Zimmer muss schon enorm klein sein und auch gleichzeitig enorm gut gedämmt als dass keinerlei Wärme entweicht damit du wirklich große Zahlen erreichst und effektiv "ins Schwitzen kommst".

So wie hier immer getan wird macht man aus jeder Mücke einen Elefanten.
Ergänzung ()

Matziking schrieb:
Also was ist das für eine unreflektiert und egoistisch gestellte Frage? Meine drei Zimmer Wohnung hat 64m² und das ist städtisch nicht ungewöhnlich wenig. Jetzt darfst du selber errechnen wie viel qm² jeder Raum hat, wenn du Küche, Bad und Klo abzieht und das Wohnzimmer als größten Raum errechnest. In diesem steht mein Gaming PC allerdings nicht, wie in vielen anderen Fällen sicher auch. Und dann sollte auch klar sein, wieso der Raum sich schnell aufheizt.
Ich bin sicher nicht "verständnislos" aber doch stark verwundert wie warm es hier doch bei einigen daheim dann sein muss wenn man hier so ächzt ob der Unerträglichkeit einer 500W GPU. Scheint ja jeder 35C daheim zu haben dank seiner GPU. Ob 22 oder 24 spielt nämlich effektiv absolut gar keine Rolle.

Matziking schrieb:
P.S.: Ich spiele auf 5K und habe daher egal in welchem Spiel die GPU auf Anschlag! Deswegen kaufe ich ja auch ne 4090. Ich will ja nicht nur fünf Spiele grafisch genießen können, wie du.
Dann kannst du ja auch mit der Abwärme leben oder schreist auch wenn du deine Karre trittst und sie viel säuft ? Wenn du das bewusst willst weiss ich nicht worüber du dich eigentlich beschwerst ?

Auch versteh ich nicht warum ich "nur fünf Spiele grafisch genießen können" soll ? ICH hab ja offensichtlich kein Hitzeproblem. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: iron_monkey
Wo bin ich hier schrieb:
Du sagst, dass 600W ineffizient wären ohne die Leistung zu kennen. So verstehe ich zumindest die ersten beiden Sätze.

Jetzt verstehe ich Dich. Anno 1800 ist doch CPU-lastig oder?

AMD verbessert die Effizienz der aktuellen Grafikkarten über ein neues Design, wenn ich es richtig verstehe? Sie werden folglich nicht auf mehr Leistung optimieren, sondern den aktuellen Stromverbrauch halten mit ein wenig Mehrleistung + Raytracing auf dem aktuellen Niveau von Nvidia Grafikkarten, wie z.B. eine 4080'er, optimieren?

Nvidia bringt dagegen wie gewohnt mehr Leistung mit entsprechend mehr Stromverbrauch und das im vermutlich selben Verhältnis, wie Intel mit ihren CPU's? Aber wer benötigt denn dieses Mehr an Leistung? Deswegen kann ich AMD's Entscheidung nachvollziehen und unabhängig davon, ob sie i.M. das Performance-Rennen gegen Nvidida überhaupt gewinnen könnten.
 
  • Gefällt mir
Reaktionen: Gothic47
ThirdLife schrieb:
Also ob nun 22 oder 24 C ist sicherlich nicht entscheidend für "unerträglich" behaupte ich mal. Das Zimmer muss schon enorm klein sein und auch gleichzeitig enorm gut gedämmt als dass keinerlei Wärme entweicht damit du wirklich große Zahlen erreichst und effektiv "ins Schwitzen kommst".

So wie hier immer getan wird macht man aus jeder Mücke einen Elefanten.

Die Zahlen sind ja praktisch Tagesaktuell von Gestern, also ~ 0°C Tagesmittel Aussentemperatur und die Zahlen dazu für ein < 450 Watt Gesamtsystem inkl. Monitor.

D.h. es gibt noch den Sommer Faktor und dann noch den Faktor das man z.B. mit einer RTX 5090 eher in Richtung ~ 800 Watt Gesamtsystem inkl. Monitor geht.

Dann denke ich sprechen wir im Winter eher von 25°C +X und im Sommer kann ich mir 30°C vorstellen.
 
  • Gefällt mir
Reaktionen: ThirdLife
DeadMan666 schrieb:
Dann denke ich sprechen wir im Winter eher von 25°C +X und im Sommer kann ich mir 30°C vorstellen.
Dafür muss das System ja aber 24/7 mit so einer Load laufen analog deiner Wärmepumpe. Einfach mal nur 2-3 Stunden daddeln wärmen einen normalen Raum sicher nicht in diesem Maße auf.
 
  • Gefällt mir
Reaktionen: iron_monkey
Ich rieche schon den nächsten Fail mit geschmolzenen 12VHPWR Steckern. Fände ich wirklich extrem frech, wenn NV an einem einzigen dieser Stecker fest hält.

Ich lehne dieses Design nach wie vor zur Gänze ab und würde mir niemals eine so leistungshungrige GraKa mit diesem Anschluss holen.
 
Da mittlerweile die meisten die bis 600W konfigurierten Adapterkabel ihrer PSU Hersteller verwenden, was soll da passieren?
 
Wo bin ich hier schrieb:
Interessant wäre so eine Analyse aber über mehrere ältere Generationen.
Kann nur meine eigene Geschichte anbringen (seit 2016 verkaufe und kaufe ich jede Generation, davor unregelmäßig):

Pascal: GTX 1070: 470€ Kauf, 320€ Verkauf => 150€ = 5,56€/Monat

Turing: RTX 2080: 760€ Kauf, 480€ Verkauf => 280€ = 11,67€/Monat

Ampere: RTX 3080: 880€ Kauf, 1220€ Verkauf; RTX 3080 Ti: 1600€ Kauf, 900€ Verkauf => 360€ = 14,40€/Monat

Lovelace: RTX 4090: 1750€ Kauf, 1550€ Verkauf => 200€ = 7,41€/Monat
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Wo bin ich hier, anarchie99, hahaqp und 4 andere
MoinWoll schrieb:
Kann nur meine eigene Geschichte anbringen (seit 2016 verkaufe und kaufe ich jede Generation, davor unregelmäßig):
Lucky U 👍

Denke mal, dass meine aktuelle noch ne Weile arbeiten muss. Die wird ja noch von mir gebremst (wqhd) 👍
 
Meine GPU Geschichte beginnt beim 3dfx Voodoo 2 Beschleuniger und endet aktuell bei der 4090. Sehe bisher keinen Grund die 4090 zu verkaufen und mir eine 5090 zuzulegen. Aber vielleicht ändert sich das ja noch...:)
 
Zurück
Oben