News GeForce RTX 50 & RDNA 4: Wie ist euer Erst­eindruck zu den Grafik-Neuheiten der CES?

HighPerf. Gamer schrieb:
300Watt nur ungerne brechen wollte. Die Karten setzten neue Leistungsmaßstäbe aber sind lange Zeit im 250 Watt Bereich als Top Tier Karte

Dir ist aber schon klar das eine neue aktuelle 570 Watt Karte Westenlicht mehr Leistung hat als eine alte 250/300watt Karte

Das wenn man das gleiche an Performance haben möchte für Rendering und co 4,5 oder mehr Karten Brauch um das selbe Ergebniss zu erzielen

Komisch ist sich sicher der mögliche Verbrauch am Rechner ist gestiegen aber meine Stromrechnung hat sich jetzt nicht extrem geändert

Die Leute die ihre Systeme voll auslasten und das über langer Zeit sind meistens die im Profi Bereich damit Geld verdienen und wie gesagt mehr mit einer Karte leisten als mit 5 alten ....

So hört auf Spass zu haben und wehe es verbraucht einer nur noch den nötigsten Strom
 
Maxminator schrieb:
dein Kühlschrank hat höchstens 80 Watt ;)
Mein fetter Ami-Kühlschrank mit Eiswürfelbereiter und Klopf-Klopf-Lichtchen hat bestimmt ein bisschen mehr.... Aber ja, war ein blödes Beispiel. Ich hab einfach keine Großverbraucher. =D
 
  • Gefällt mir
Reaktionen: Maxminator
Northstar2710 schrieb:
hast du da eine Quelle? denn CB erklärt MFG anders
Jop, CB hat das falsch bzw. missverständlich erklärt und zu viel Interpretationsspielraum gelassen. Im Kern stimmt es ja, dass von 5 Frames 3 generiert sind. Aber mit 2 echten Frames werden tatsächlich ganze 6 Frames generiert, also in Summe 8 ausgegeben. Das wurde mWn auch in dem Thread kritisiert.

Nvidia erklärt das ganze anders:
1736761262358.png

Die nachfolgenden Frames basieren lediglich auf dem ersten Frame. Auch nur so kannst du die Latenz unbeeinflusst lassen. Sonst würde sie gezwungenermaßen sich um mindestens den Faktor x1.5 verschlechtern. Mit dem ganzen Overhead eher verdoppeln.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Apocalypse
SKu schrieb:
Ja, dafür sieht man in dem Video auch Jittering, Ghosting und sonstige Artefaktbildung.
Das lässt sich wahrscheinlich nicht 100% vermeiden. Zumindest aktuell noch nicht.

SKu schrieb:
Das scheint also nicht wirklich besser zu sein als FG bei RTX 4000.
Dazu muss man aber auch sagen, dass DLSS Performance genutzt wurde. Ob durch DLSS-Q die Qualität nochmal zunimmt steht auf einem anderen Blatt.

SKu schrieb:
Noch interessanter ist die Performance in Far Cry 6 mit RT. Hier legt die 5090 weniger stark zu im Vergleich zur 5080. Evtl. reicht das Powerbudget der Karte nicht aus und sie drosselt die Leistung. Immerhin hat sie auch einen geringeren Boost-Takt als die 5080, damit sie wahrscheinlich noch innerhalb der 575W bleibt.
IMO ist ein Benchmark nicht so richtig aussagekräftig was die Performance angeht. Ich werde da erstmal noch auf nächste Woche warten, wo die Leaks wahrscheinlich richtig losgehen.

Vitche schrieb:
Stimmt, die 5090 muss ja nicht hergestellt und versandt werden, die erscheint einfach auf magische Weise im Paket vor meiner Haustür. ^^
Najaaa, andere Grafikkarten erscheinen auch nicht einfach so vor deiner Haustür ;)
 
Mumbira schrieb:
Aber mit 2 echten Frames werden tatsächlich ganze 6 Frames generiert, also in Summe 8 ausgegeben. Das wurde mWn auch in dem Thread kritisiert.
Mumbira schrieb:
Die nachfolgenden Frames basieren lediglich auf dem ersten Frame. Auch nur so kannst du die Latenz unbeeinflusst lassen.
Die Latenz bleibt aber ja nicht unbeeinflusst, sondern steigt von 2x auf 3x und von 3x auf 4x immer ein bisschen weiter an.
51->55->57ms für die 3 MFG Stufen nach den Messungen von Digital Foundry

In dem Bild würde nach den 3 generierten Frames auch wieder ein echter Frame folgen.

Dieser echte Frame wird auch zur Generierung dieser 3 Frames genutzt, es wird lediglich durch den Optical Flow schon viel Vorarbeit geleistet, zu bestimmen, wie die nöchsten Frames denn aussehen könnten, damit nicht erst ab Fertigstellung des 2. Frames die 3 Frames generiert, sondern nur noch feinjustiert werden müssen.

So hab ich das Prinzip jedenfalls verstanden.

Und das erklärt auch, warum die Latenz durch FG einmal recht stark steigt -> weil eben auf den 2. Frame gewartet werden muss.
Dann steigt sie aber bei MFG für einen oder zwei zusätzlich generierte Frames nicht mehr so viel weiter an -> Weil ja bereits auf den 2. Frame gewartet wurde und nur noch etwas zusätzliche Zeit für das Anpassen von drei statt einem Frame benötigt wird.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Norebo, Obvision und shadACII
Shio schrieb:
Najaaa, andere Grafikkarten erscheinen auch nicht einfach so vor deiner Haustür ;)
Guter Punkt.
Mal ganz davon ab das ne Grafikkarte bequem selbst mit einem Balkonkraftwerk bereits erledigt ist, aber Flugzeugbenzin nicht ganz so einfach erledigt ist.
 
HighPerf. Gamer schrieb:
Ja alle. Der Absolute Stromverbrauch steigt seit Jahren. Früher war es so das man die Grenze von 300Watt nur ungerne brechen wollte. Die Karten setzten neue Leistungsmaßstäbe aber sind lange Zeit im 250 Watt Bereich als Top Tier Karte geblieben. Klar gabs Ausreisser als Dual GPU aber ich spreche hier von einfachen Karten.
Was ein Schwachsinn - SLI/Crossfire schon ganz vergessen :lol:?

Hier mal von 2012:
Powercolors Radeon HD 7990 schafft über 8 Billionen Rechenoperationen pro Sekunde und darf bis zu 525 Watt aufnehmen.
Und manch einer hatte 2 solcher Karten verbaut …

Was hingegen seit jeher immens steigt ist die Effizienz ;)

Aber wen interessieren die paar Watt bei Geräten die idR bei berufstätigen Menschen im Schnitt keine Stunde am Tag laufen? Die paar kWh die da im Jahr zusammenkommen sind doch ein Witz und muss man auf der Stromrechnung in einem modernen Haushalt wirklich suchen :rolleyes:

Eine PV-Anlage dürfte bei vielen Käufern einer 2.000€+ Grafikkarte aber wohl sowieso bereits vorhanden sein, dann kommen die 200-300kWh im Jahr nicht einmal aus dem Netz …
 
  • Gefällt mir
Reaktionen: Apocalypse
MalWiederIch schrieb:
Und manch einer hatte 2 solcher Karten verbaut …
4x GPU ... konnte das die 7000er Serie überhaupt? Microstutter from Hell? :D

Davon ab ... machen 2 5090 ohne NVlink Sinn für AI Anwendungen oder muss man dann schon zu den Profi-Karten greifen?
 
Taxxor schrieb:
51->55->57ms für die 3 MFG Stufen nach den Messungen von Digital Foundry
Die 6ms würde ich als Overhead abtun. Irgendwann kostet es vermutlich mehr Zeit die Frames zu generieren, als ein echtes Frame zu erzeugen.
Taxxor schrieb:
In dem Bild würde nach den 3 generierten Frames auch wieder ein echter Frame folgen.
Das stimmt, aber das ist ja immer so, dass irgendwann ein echter Frame folgt.
Taxxor schrieb:
Dieser echte Frame wird auch zur Generierung dieser 3 Frames genutzt, es wird lediglich durch den Optical Flow schon viel Vorarbeit geleistet, zu bestimmen, wie die nöchsten Frames denn aussehen könnten, damit nicht erst ab Fertigstellung des 2. Frames die 3 Frames generiert, sondern nur noch feinjustiert werden müssen.
Der 2. echte Frame daher ja gerade nicht für die Berechnung der Zwischenframes genutzt, so wie ich es verstanden habe. Lediglich Teile der Berechnung die für den 2. Frame einfließen, werden auch für die Frame Generation genutzt. Das ist logisch, um die Bewegungen zu berechnen, heißt aber noch lange nicht, dass auf den 2. Frame gewartet wird. Das bezieht sich größtenteils vermutlich auf die Inputs zwischen den Frames. Quasi eine Art integriertes Frame Warp. Aber bei FG 3.0 wurde mWn das fertige Frame genutzt, da der Optical Flow Analyzer auf fertigen Pixeln angewandt wird. Der "AI" Optical Flow Analyzer soll dies eher abschätzen, wodurch der nächste Frame nicht benötigt wird.
 
MaverickM schrieb:
Ich kann die Bewertung der Präsentatinen so gar kein Stück nachvollziehen:
Du bist ja auch einer der sehr wenigen Nutzer (<5%) welche so ein Abstimmungsverhalten zeigen.
Eine aufwändige Präsentation, mit vielen Grafiken, Erklärungen, Techniken, flüssiger Argumentation mit wenigem Ablesen von Telepromptern mit einem halbwegs guten Schülerreferat zu vergleichen und dann umgekehrt zu bewerten, machen nicht viele.

Rein vom Aufwand und der Inszenierung war die Nvidia Präsentation schon 2-3 Stufen über der von AMD.
Das grenzwertige Marketing von Nvidia kann man wie immer kritisieren, aber kaum dazu führen, dass die Präsentation so bewertet wird. Eine 4 bei Nvidia würde mindestens eine 4, 5 oder 6 bei AMD bedeuten, sofern man neutral wäre. AMD hat sich zudem Schnitzer geleistet, wie hier.
MaverickM schrieb:
Ich saß nachts bis früh morgens da und habe mir tatsächlich die 3h KI Geblubber bei nVidia gegeben, in der Hoffnung, dass da noch was interessantes kommt.
Es waren keine 3, sondern nur knapp über 2h.
MaverickM schrieb:
Das war eine reine Buzzword-Bullshit-Bingo Präsentation für Anleger und bestenfalls noch für Entwickler peripher interessant. Was hatte so etwas auf einer Konsumenten-Messe verloren?
Man hat viele Sachen für Robotics, Omniverse, Cosmos, Physical AI usw. vorgestellt und relativ gut erklärt.
MaverickM schrieb:
AMD hat dagegen wenigstens eine Reihe tatsächlich interessanter Produkte angekündigt.
Hat Nvidia doch auch. Nicht nur GPUs.
 
Mumbira schrieb:
Aber bei FG 3.0 wurde mWn das fertige Frame genutzt, da der Optical Flow Analyzer auf fertigen Pixeln angewandt wird. Der "AI" Optical Flow Analyzer soll dies eher abschätzen, wodurch der nächste Frame nicht benötigt wird.
Das würde in der Konsequenz ja bedeuten, dass die Latenz bei MFG deutlich geringer ausfallen müsste als bei FG, das kann ich mir nicht wirklich vorstellen.

Ich gehe eher davon aus, dass der AI Optical Flow Analyzer einfach weniger Infos vom nächsten Frame benötigt und deshalb die Latenz ggü dem normalen FG nicht so stark ansteigt.

Wir werden es ja spätestens beim Test der 5090 erfahren
 
  • Gefällt mir
Reaktionen: Apocalypse
Die neuen "bestätigten" Teaser lassen gerade mich aufhorchen:

Powercolor Red Devil Radeon RX 9070 XT soll im Silent Mode BIOS auf 3,01GHz hochtakten :king:

Tatsächlich suche ich noch eine gute Linuxgrafikkarte!
:king:
 
Taxxor schrieb:
Das würde in der Konsequenz ja bedeuten, dass die Latenz bei MFG deutlich geringer ausfallen müsste als bei FG, das kann ich mir nicht wirklich vorstellen.
Genau so hab ich es auch verstanden. Wenn man sich die Videos zu ReflexFrameWarp von Nvidia anschaut, sieht man auch wie das funktionieren kann.

Aber wie du sagst, es bleibt der Praxistest abzuwarten.

@Benj
Schau dir mal die Threads zu Beruf, Bildung etc. an. Die meisten hier im Forum arbeiten in der IT und sind nicht gerade vom Mindestlohn betroffen. Viele verdienen 6-stellig. Dazu kommt noch, dass PC für alle hier ein Hobby ist. Der eine versenkt sein Geld im Auto, der andere im PC. Unser Forum ist echt alles andere als repräsentativ für den allgemeinen Markt draußen. 😂
 
  • Gefällt mir
Reaktionen: Apocalypse
Also wenn AMD nicht mit einem Preis-Leistungskracher kommt, werde ich wohl auch diese Generation auslassen.
 
Man fühlt sich schon fast wie bei Apple.. die Erwartung ist sau hoch, doch ist nur die Software zu Großteil neu und regelt alles.
 
Benj schrieb:
Ihr wollt mir echt erzählen, dass ca. jeder Achte hier ca. 2.500 Euro für ne neue Grafikkarte ausgeben möchte? Das ist ein durchschnittliches Monatsgehalt in Deutschland. Kann das schwer glauben, auch wenn der Enthusiasten-Anteil hier sehr hoch ist.
Wenn man die Karte 2 Jahre nutzt sind es nur 100€ im Monat
 
  • Gefällt mir
Reaktionen: Benj
Benj schrieb:
Ihr wollt mir echt erzählen, dass ca. jeder Achte hier ca. 2.500 Euro für ne neue Grafikkarte ausgeben möchte?
Der Preissprung von 4090 zu 5090 ist jetzt nicht so hoch und du siehst doch jetzt schon wie viele eine 4090 haben.
Ich würde mal behaupten 80% der möglichen 5090 Käufer haben oder hatten eine 4090. Aktuell bekommste auch noch immer gutes Geld für die Altkarte (war vor 2-3 Wochen noch ein bisschen mehr).
 
  • Gefällt mir
Reaktionen: Apocalypse
Zurück
Oben