Test Nvidia GeForce RTX 5070 im Test: Stillstand mit MFG bei bestenfalls 649 Euro

MiroPoch schrieb:
Wenn der Speicher ausgeht, limitiert die GPU selbständig die Leistung, damit es dem Spieler nicht so auffällt? Mit eingeschalteten MFG wird es wohl noch schlimmer.
Die limitiert nicht selbstständig die Leistung, sondern ein VRAM-Mangel sorgt schlicht dafür, dass die GPU nicht mehr voll ausgelastet wird. Sie verhält sich also ähnlich wie bei einem CPU-Limit - die Karte wartet auf Daten. Und mit geringerer Auslastung sinkt folglich auch der Verbrauch.

Mit MFG wird es deswegen schlimmer, weil das Feature zusätzlich VRAM benötigt und wenn der eh schon nicht ausreicht, verstärkt sich das Ausbremsen durch VRAM-Mangel eben noch weiter.
 
  • Gefällt mir
Reaktionen: MiroPoch, eXe777, Quidproquo77 und eine weitere Person
GerryB schrieb:
bei der 3070 hat Jensen gesagt, das wäre die beste 4k-Graka
Ein Verkäufer sagt das, was der Käufer hören möchte. Tut er das nicht, hat er seinen Job verfehlt. Das wird in jeder kaufmännischen Ausbildung vermittelt. Preise dein Produkt an. Nichts anderes macht Jensen. Nichts anderes hat Steve Jobs gemacht und nichts anderes macht Apple (und auch andere Hersteller) Jahr für Jahr.
Wer eine Produktpräsentation, eine reine Marketing-Veranstaltung, derart ernst nimmt, glaube vermutlich auch an den Weihnachtsmann. Allein die Aussage 5070 gleich 4090 Performance wurde im Anschluss durch die Folien (und auch durch das Gesprochene) relativiert...
5070 gleich 4090 Performance war quasi die Kurzform (lernt man auch, nie zu viel Text auf eine Folie) für "Mit der 5070 bekommen Sie dank Multi Frame Generation für nur 549 USD eine Karte, die genauso viele Frames berechnet, wie eine 4090".
Die Aussage ist halt nicht falsch und sie ist, entgegen der Aussage von Steve (GamerNexus) auch nicht gelogen. Das bestätigen diverse Tests, die das Thema 5070 + MFG = 4090 aufgegriffen haben. Das dabei die Latenz im Zweifel für'n Arsch ist, ist dann die Kehrseite. Das MFG genauso wie FG voraussetzt, dass man bereits auf spielbare FPS kommt, ist letztlich auch nicht unbekannt.
MFG sorgt, genauso wenig wie FG, eben nicht dafür, dass ich Grafiksettings hochdrehen kann. Sondern nur, dass ich ggfs. doch noch ein flüssigeres Bild generiere aus einem Bild, dass zumindest flüssig genug ist.

"Gutes ehrliches Marketing" gibt es nicht. Auch nicht von AMD. Man will ja verkaufen.
 
@Matthauser Danke, aber richtet Lob und Dank gerne auch an @Wolfgang und @Jan, die machen schon seit Tagen von Morgens bis Abends nichts anderes als Grafikkarten testen, Samstag und Sonntag eingeschlossen. ^^
 
  • Gefällt mir
Reaktionen: znarfw, Celinna, xXDariusXx und 9 andere
Sogar wenn sie für den 'ursprünglichen' Preis erhältlich wäre fände ich die Karte mehr als unspannend. Das sieht irgendwie überhaupt nicht aus wie eine Generation weiter.

Ich kann wirklich nur hoffen, daß sich AMD diesmal kein Bein stellt. Obwohl AMD ist leider alles zu zutrauen.
 
Nichtmal geschenkt was für ein Haufen Schrott.

Sorry für die Wortwahl aber das ist nichtmal einen Test Wert. Schade um die Zeit in der Redaktion.🤨🤣
 
Puh hoffentlich wird das was mit den neuen AMD Karten. Habe aber irgendwie das Gefühl, dass sie ihre Chance auch nicht nutzen. Man darf gespannt sein.
 
12nebur27 schrieb:
Die 4090 ist aber deutlich langsamer geworden seit dem launch so wie es aussieht.
Hä? Woraus schließt du das denn bitte?
 
  • Gefällt mir
Reaktionen: Celinna
Verak Drezzt schrieb:
während andere von einer 3070 auf eine 4070/Super und nun auf eine 5070Ti wegen dem VRam gewechselt sind, springe ich schon seit 2021 mit 16GB umher, ganz großes Kino oder ?
Naja gut, du hast die 16GB VRAM aber mal Hand aufs Herz:
Was hat dir das über diese Zeit in der Praxis gebracht?
Vergleichen wir doch mal die Benchmarks:
(WQHD, weil das damals wie heute eine passende Auflösung für eine Karte dieser Leistungsklasse war/ist.)

Die RTX 3080 mit nur 10GB war als damaliger Gegenspieler im Testparkur in der Rasterleistung im damaligen Test im Schnitt 6% schneller.
Heute sind es trotz scheinbar immer knapper werdendem VRAM sogar 8%.
Mit Raytracing konnte die 6800 XT ihren anfangs extremen Rückstand von 35% immerhin deutlich aufholen und liegt im aktuellen Test sogar 5% vor der 3080. Schaut man aber genauer hin, liegt das an "Indiana Jones" als extremer Ausreißertitel, in dem die 3080 komplett versagt. Nehmen wir das Spiel aus der Rechnung, ist die 3080 im Schnitt über die restlichen 5 getesteten Spiele plötzlich wieder 21% schneller im RT.
Wenn ich zum Test bei PCGH rüberschiele kommt die 3080 in Indiana Jones dort übrigens nicht viel langsamer als die RX 6800XT weg und ist dort im Schnitt (über deutlich mehr getestete Spiele) auch immer noch 19% schneller als die 6800XT. Das scheint also eher ein Optimierungs-/oder Einstellungsproblem zu sein.
Das Problem mit einzelnen Ausreißertiteln gibt es zudem auch umgedreht: Cyberpunk läuft im PCGH Test mit RT auf der 3080 ganze 70% schneller als auf der 6800XT, aber lassen wir das Cherrypicking.

Wer damals also so "blöd" war sich die RTX 3080 mit nur 10GB VRAM statt der RX 6800 XT mit 16GB zu kaufen, hatte also bis heute im Schnitt mehr Rasterizer Performance, (bis auf einzelne extreme Ausreißer) bessere Raytracing Performance und besseres AI-Upscaling inklusive der neusten DLSS Version wo die RX 6800XT für AMDs neustes Gegenstück vermutlich leer ausgehen wird.
Wenn der RTX 3080 der VRAM ausgeht, dreht man die Texturqualität herunter. Was machst du mit der RX 6800XT wenn die RT-Leistung nicht reicht, oder die veraltete FSR Version nicht gut aussieht (oder überhaupt nicht mehr implementiert wird)?
-Richtig: Auch irgendwas niedriger einstellen, oder sogar ganz deaktivieren.
Genau darum geht es mir: Klar, ich stimme dir voll zu, dass die Nvidia Karten mit mehr VRAM deutlich besser wären. Aber Flaschenhälse gibt es bei beiden (bzw. mittlerweile mit Intel sogar allen drei) Herstellern.
Da muss man eben entsprechende Einstellungen setzen um dem Gegenzuwirken und vorab beim Kauf genau hinschauen, welcher Hersteller bzw. welche Karte am besten zu den eigenen Anforderungen passt.
 
  • Gefällt mir
Reaktionen: Bullgard, kachiri und shaboo
latexdoll schrieb:
Ich denke die 6000er Serie wird erheblich besser und ohne Kinderkrankheiten, Paperlaunch erscheinen.
Abwarten, mit Sicherheit würde das bei der RTX 6000er Serie wieder einen (erheblichen) Preisanstieg bedeuten, weil vermutlich noch teurere TSMC Fertigung zum Einsatz kommt (selbst wenn der Leistungszuwachs dann nicht üppig ausfallen sollte oder die Karten absolut gesehen noch ineffizienter werden), und ob es dann die Karten wert sind (abseits einer RTX 6090 vielleicht, wenn Geld für eine Gaming-dGPU keine Rolle spielen sollte).

Da es Blackwell Refresh (GB 300 Serie) gibt und Rubin dGPUs, bleibt zudem abzuwarten, wo/auf welcher Basis da genau RTX 6000 Karten landen werden.

Ich bin eigentlich mehr gespannt, welche weiterführende Umstellung es bei AMD mit UDNA1 (vermutlich mit Teilen von RDNA5) dann geben wird (und es könnte bis UDNA2 dauern, bis man von RDNA kommend vollkommen auf einen neue Architektur umgestiegen ist).
 
Zuletzt bearbeitet:
@Xes was hat die Rohleistung der Karten mit dem VRam zu tun ? ich kann auch noch die nächsten Jahre ohne Probleme den Texturenregler auf Anschlag ziehen, während man mit der 3080 schon jetzt auf hoch oder gar medium stellen muss, auch wenn ich alles andere auf medium stellen muss damit ich spielbare FPS raus bekomme

und mich juckt keine RT Leistung, solang es bei einer Handvoll Spiele gut aussieht und man eine 1000€ Karte benötigt um ansatzweise Land zusehen für die kommenden Jahre, solang dass nicht in bezahlbaren Gefilden von der Leistung umgesetzt wird, nicht wirklich von Interesse und vor allem nicht mit irgendwelchen VRam Krüppeln wie einer 5070/4070 oder auch einer 3080
 
  • Gefällt mir
Reaktionen: Otsy
Also eher ein Downgrade bezogen auf die 4070 Super, im Prinzip gleich schnell braucht aber mehr Strom :lol:
 
  • Gefällt mir
Reaktionen: Icke-ffm und sentry0815
WOW einfach eine Brachiale Verarsche Von Nvidia :D:D:D:D:D:D:D:D:D:D...............
 
  • Gefällt mir
Reaktionen: Myon und danyundsahne
Wie erwartet ein Desaster und eine Enttäuschung, nichts anderes erwartet von dem Gierverein.
Aber hey, schöner Test!
 
Schlechtere Energieeffizienz bei kaum Mehrleistung gespart mit zu wenig Speicher. Einfach nur LOL. Intel hat wenigstens an der Energieeffizienz gearbeitet, als AMD nicht hinter herkam. Was NVidia abliefert ist einfach nur Peinlich. Was wohl passieren wird, wenn die 9070XT die 4080 (oder vielleicht sogar die 5080) überholt.
 
Was ne Totgeburt. Also das Ding kostet mit völlig inakzeptabler Thermik und Akkustik und das ist weit untertrieben, als UVP 80Euro weniger als eine custom 7900XT aus dem Handel. Bei 10% weniger FPS und jetzt schon zu wenig VRam...
 
  • Gefällt mir
Reaktionen: Myon
Wen wundert das hier jetzt mal ehrlich? Das selbe Spiel kennen wir doch von Intel 2011 bis 2017, wo sie uns 6 Jahre lang 4 Kern CPUs mit marginaler Verbesserung Jahr für Jahr verkauft haben. Jetzt macht nVidia halt dasselbe, mit 90 Prozent Marktanteil kein Problem
 
  • Gefällt mir
Reaktionen: Celinna und Slayn
Abrexxes schrieb:
Hab ich in ü35 Jahren Hardware noch nicht erlebt sowas von! (NonPC Nintendo VisualBoy ausgenommen)

Ich habe in 40 Jahren Computer noch nie so was erlebt wie den Grafikkartenmarkt der letzten 6, 7 Jahre. Es gibt NICHTS Vergleichbares. Noch nicht mal kurzfristig über 1, 2 Jahre. Ein Analyst*, der sich 2017/2018 hätte bis heute einfrieren lassen, würde analysieren, er schaue hier live einer PC-Komponentenklasse beim Sterben zu.


* Das ist die Spezies, die seit Jahrzehnten predigt, x86-Prozessoren seien finished. Einer der Gründe: der Fertigungsaufwand... "Statt mehr Leistung für weniger Geld zu liefern, werden Prozessoren zunehmend teurer, weil der Fertigungsaufwand immer weiter steigt. ... Derweil würden Grafikchips zeigen, was spezialisierte Hardware leisten kann."

😆
 
Zurück
Oben