Test Nvidia GeForce RTX 5070 im Test: Stillstand mit MFG bei bestenfalls 649 Euro

MaverickM schrieb:
Upscaler und andere Software-Tricks haben in einem Test, der die Rohleistung von Karten miteinander vergleichen soll, absolut nichts zu suchen.
Aber wer sagt denn, dass man nur Rohleistung vergleichen darf? Wenn es mit DLSS4 und MFG doppelt so viele FPS macht, macht es doppelt so viele FPS. Ob man das nun mag oder nicht: Es gibt bereits Spiele, die lassen sich ohne gar nicht mehr flüssig spielen.
Ergänzung ()

AnkH schrieb:
Da aber jegliche Bilder mit modernen Engines über iwelche Tricks auf den Bildschirm gelangen und "nativ" eigentlich nur noch reaktionäres Träumen Ewiggestriger ist, geht mir die Leier mittlerweile auch auf den Wecker. Selbst simples 2xMSAA ist ein "Software-Trick", da von "Rohleistung" zu fabulieren, hat schon was.
Endlich sagt es mal einer! Danke! In zukünftigen Tests wird Rohleistung alleine kaum noch eine Rolle spielen. Dafür kommen neue Testkriterien dazu. Z. B. wird die Abbildungsqualität von FSR, DLSS und XeSS eine Rolle spielen.
 
Zuletzt bearbeitet:
AnkH schrieb:
Wenn man konsequent wäre, ist selbst RT ein "Software-Trick" um die Grafik aufzuhübschen.

Nein, ist es nicht. Raytracing ist auf allen Karten mittlerweile eine in Hardware gegossene Funktion. Aber selbst wenn sie das nicht wäre: Es sind Funktionen, die berechnet werden und zu 100% immer das gleiche Ergebnis erzeugen.

Dagegen ist ein Upscaler eine Funktion, der das Bild nur interpretiert, vor allem jetzt, wo beide (FSR4 und DLSS) auf ML trainierten Algorithmen basieren. Das Ergebnis ist eben nicht eins zu eins das gleiche. Somit nicht vergleichbar.

AnkH schrieb:
Vergleicht man also mit RT an, ist nach Deiner Logik unzulässig, da ja nicht "native Rohleistung". Warum aber nun also ein "Software-Trick", der zu weniger FPS führt als Massstab zulässig sein soll, ein "Software-Trick", der zu mehr FPS führt für einen Vergleich nicht statthaft sein soll, erschliesst sich mir nicht.

Das ist Quatsch mit Soße. Da muss man auch gar nicht großartig weiter drüber diskutieren...

AnkH schrieb:
Glaub mir, in 10 Jahren kräht kein Hahn mehr nach frame generated FPS

Vielleicht sollte man nicht auf jedes Marketing-Gewäsch der Lederjacke drauf reinfallen.

Ohne die Rohleistung als Basis funktionieren weder Upscaler noch Frame Generation ordentlich. Zumindest nicht solange wir noch weiterhin Raster-Berechnung als Basis verwenden. Ändern könnte sich das allenfalls durch Engines, die rein auf Vektor-Berechnungen setzen.

blauescabrio schrieb:
Aber wer sagt denn, dass man nur Rohleistung vergleichen darf?

Weil die Vergleichbarkeit nicht mehr gegeben ist. Sollte eigentlich logisch sein. :rolleyes:
 
  • Gefällt mir
Reaktionen: Leeway
Immer wieder Enttäuschungen bei den Neuvorstellungen. Wenig Leistungszuwachs - Verfügbarkeit schwach. Nun gibt es zum Glück noch AMD. Was macht eigentlich Intel? Existieren die noch?
 
MaverickM schrieb:
Weil die Vergleichbarkeit nicht mehr gegeben ist. Sollte eigentlich logisch sein. :rolleyes:
Nur, wenn man eine sehr eingeschränkte Sichtweise hat. In Zukunft wird das Gesamtpaket eine Rolle spielen. Also welche Software-Technik auf welcher Hardware das beste Ergebnis erzielt. Wieso, weshalb, warum, ob mit KI oder mit Heinzelmännchen - das wird alles keine Rolle mehr spielen. Wenn XeSS auf schwächerer Intel-Hardware bessere Ergebnisse erzielt als DLSS auf Nvidia, werden die Leute Intel kaufen. Weil am Ende nur zählt, was hinten rauskommt. Ganz einfach deshalb, weil es bereits heute Spiele gibt, die mit reiner Rohleistung so niedrige FPS bringen, dass sie nicht mehr spielbar sind.
 
blauescabrio schrieb:
Nur, wenn man eine sehr eingeschränkte Sichtweise hat.

Diese "eingeschränkte Sichtweise" ist die wissenschaftliche Herangehensweise. Für alles andere kannst Du dich gerne an Esotheriker oder Voodoo-Fetischisten wenden. :rolleyes:

Warum die Vergleichbarkeit nicht gegeben ist, habe ich auch oben erklärt.
 
blauescabrio schrieb:
Bis dahin schlummert meine B580 als Muster ohne Wert in der Vitrine, wird alle Monate mal vorgeholt und eingebaut, um Intels Fortschritte bezüglich der Treiber nachzuverfolgen.
Das ist das jetzt als Begriff bekannt gewordene Triell, nur noch nicht auf Augenhöhe. Möge Intel aufholen, dann kann ich auch meinen Wahlzettel entsprechend ausfüllen....
 
MaverickM schrieb:
Du verstehst nicht, dass es einen eklatanten Unterschied zwischen wissenschaftlicher Vergleichbarkeit und Nutzung in der Praxis gibt. Aber anstatt sinnvoll zu argumentieren, musst Du beleidigen. Ganz großes Kino.
Du versteifst Dich da völlig in die wissenschaftliche Argumentation. Rein von den absoluten Zahlen magst Du recht haben, nur interessiert das bald niemand mehr. Was bringt Dir eine Karte, die zwar eine Rohleistung von 25FPS hat, aber die Softwaretricks nicht zur Verfügung stehen und dann eben nur die 25FPS rausschauen, während die Konkurrenz zwar nur 20FPS Rohleistung hat, aber dank Softwaretricks auf 60FPS kommt? Denkst Du echt, dass das in 10 Jahren iwen noch interessiert, WIE die FPS zustande kommen? Dafür muss man halt beim Testen um Kriterien wie Bildqualität, Ghosting, Latenz etc. erweitern, damit man dann halt immer noch sagen kann: GPU A hat zwar geringfügig weniger FPS, dafür die deutlich bessere Bildqualität. Es ist einfach ein Verschieben der als relevant betrachteten Kenngrössen zur Unterscheidung von GPU A vs. B.

Du steckst einfach in den absoluten Zahlen der nativen FPS fest. Wie erwähnt, ist aber bspw. schon heute bei den Konsolen längst nicht mehr relevant, WIE die FPS zustande kommen. Ist doch Sony und MS egal, ob die 60FPS mit Softwaretricks erreicht werden oder per Bruteforce. Was zählt, ist die Qualität der 60FPS. Und da gibts mittlerweile viele Beispiele, wo ja eben DLSS erzeugte Bilder qualitativ sogar über dem nativ gerenderten Bild sind. Wird das konsequent weiterentwickelt, kann man iwann über das Festhalten an nativen FPS auch darum nur noch schmunzeln...
 
  • Gefällt mir
Reaktionen: blauescabrio
Skjöll schrieb:
Das ist das jetzt als Begriff bekannt gewordene Triell, nur noch nicht auf Augenhöhe. Möge Intel aufholen, dann kann ich auch meinen Wahlzettel entsprechend ausfüllen....
Intel wird was den PC Grafikkarten Markt angeht einen auf Windows Phone machen und bald wieder verschwunden sein.
 
AnkH schrieb:
Was bringt Dir eine Karte, die zwar eine Rohleistung von 25FPS hat, aber die Softwaretricks nicht zur Verfügung stehen und dann eben nur die 25FPS rausschauen, während die Konkurrenz zwar nur 20FPS Rohleistung hat, aber dank Softwaretricks auf 60FPS kommt?
Man kann es nicht mehr besser erklären, nur noch lauter. Offensichtlich will er das aber nicht begreifen. Und wenn man deshalb deutlich wird, ist er beleidigt. Was will man da noch machen?
 
AnkH schrieb:
Was bringt Dir eine Karte, die zwar eine Rohleistung von 25FPS hat, aber die Softwaretricks nicht zur Verfügung stehen und dann eben nur die 25FPS rausschauen, während die Konkurrenz zwar nur 20FPS Rohleistung hat, aber dank Softwaretricks auf 60FPS kommt?

Beides ist Schrott wegen des Input Lags, und höchstens für lahme Controllerspiele brauchbar.
 
AnkH schrieb:
Rein von den absoluten Zahlen magst Du recht haben, nur interessiert das bald niemand mehr.

So ein Schmarrn. Wen das nicht interessiert der schaut sich auch keine Reviews an.
 
JMP $FCE2 schrieb:
Beides ist Schrott wegen des Input Lags, und höchstens für lahme Controllerspiele brauchbar.
Die Zahlen waren ein Beispiel, nimm halt das Vierfache davon, die Aussage bleibt die Selbe...
MaverickM schrieb:
So ein Schmarrn. Wen das nicht interessiert der schaut sich auch keine Reviews an.
Keine Argumente mehr? Die GPU Reviews hier auf CB bestehen zum Glück aus über 30 Seiten reinen nativen FPS Zahlen, gell? Facepalm...
 
also hoch und herumm skalierte Auflösung naja nicht jederr mag das.Ist irgendwie mit Fake FPS zu bezeichnen.Kann man bei Filmen und Serien auch machen,da sieht man aber dann schon das es nicht Nativ ist und das Bild wird deutlich schlechter.
Und Inputlag ist auch noch wichtig.Ich mag zwar nur Mittelmäßige Leistung bei der Reaktion haben,aber ich merke es dennoch sofort wenn was nicht stimmt.Bei Bildschirmen ist es ja im Grunde genommen egal welche Auflösung man bedient.Man muss nicht unbedingt die Native Auflösung des Bildschirms nehmen.Darum kann man das gerne 1 zu vergleichen.Ich will mal ein direkten Vergleich sehen zwischen von 4k auf Full HD vs Native Full HD.Das vergleich aber so direkt keiner.Dann kann ich beurteilen ob DLSS und CO wirklich was bringt oder nicht.Ich scheine es jedoch nicht so wahrzunehmen weil ich die Wahrnehmung nicht dazu habe.Darum ist es egal ob DLSS Geneierte Bilder besser aussehen oder nicht.Sie sind es wohl nicht.
 
Ich empfehle euch: einfach mal ausprobieren. Schnappt euch einen OLED mit mindestens 360 hz und testet was euch am besten gefällt und schaut dann bei benchmarks wie gut es mit welcher Karte performed und bestellt euch die.
 
AnkH schrieb:
Die Zahlen waren ein Beispiel, nimm halt das Vierfache davon, die Aussage bleibt die Selbe...

Dann braucht es kaum noch jemand ;)

60 fps sind den meisten gut genug, bei mir sind es 100 fps für Storyspiele mit Maus-/Tastatursteuerung. Das Fenster, in dem FG wirklich viel bringt, ist leider klein. Unten lauert der Input Lag, oben die Diminishing Returns.

latiose88 schrieb:
Ist irgendwie mit Fake FPS zu bezeichnen.Kann man bei Filmen und Serien auch machen,da sieht man aber dann schon das es nicht Nativ ist und das Bild wird deutlich schlechter.

Das sehe ich wiederum anders. 24/25 fps sind so unglaublich schlecht, dass ich selbst die erste FG im 24 Jahre alten Philips DVD 1010 mehr als Segen, denn als Fluch empfunden habe.
 
Leeway schrieb:
Gj 2020: 5,518 Milliarden
Gj 2021: 7,759 Milliarden
Gj 2022: 12,462 Milliarden
Gj 2023: 9,067 Milliarden
Gj 2024: 10,447 Milliarden
Gj 2025: 11,350 Milliarden

Man spricht eigentlich nicht von rückläufig, wenn die Kurve über drei Geschäftsjahre nach oben zeigt.
Das stimmt, da liege ich falsch.

Habe 2025 nur hier auf CB mit q1 und q2 gesehen und ging von 2022 aus.
Ergänzung ()

Galaxytourist schrieb:
Aha und NVIDIA bietet seit wann Support für Grafikkarten anderer Hersteller?
Was wurde mit der RTX2000er Serie alles eingeführt und wird seitdem ständig weiter entwickelt sowie auch Support für die Integration?

AMD fährt ganz gemütlich im Windschatten mit.
Wenn da nicht dauernd Aussetzer sind, dann kann auch hier mit geringem Aufwand genug Umsatz generiert werdenz.
 
Zuletzt bearbeitet:
AnkH schrieb:
Keine Argumente mehr?

Nein, das ist die logische Schlussfolgerung deines Arguments, dass Du nur nicht zu Ende gedacht hast. Der Sinn eines Tests ist es, Produkte miteinander zu vergleichen. Stimmt die wissenschaftliche Vergleichbarkeit nicht, ist der Test wertlos.

Anders ausgedrückt: Ihr wollt Äpfel mit Birnen vergleichen.
 
Zurück
Oben