Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGaming-Grafikkarten 2024 im Test: GeForce-, Radeon- & Arc-Benchmarks im neuen Testparcours
Ja das stimmt. Aber wenn man genug FPS hat muss man ja dann nicht weiter runter. Höchstens wegen Strom. Aber wenn ich das sagen würde heißt es denn... "strom? Sparen?hahaha ...!" Kennste wayne?
Wenn es mir im Bild eh nicht auffällt, dann sollte ich doch keine Einwände haben, noch mal 20-30W weniger zu verbrauchen^^
Und es muss ja nicht immer der Fall sein, dass man genug FPS hat. Bei Alan Wake, wo man schon eher Balanced oder gar Performance wählen muss, für hohe FPS, macht es schon was aus.
Klar hast du Recht. Aber Ottonormaluser interessiert das von 8 in 10 Fällen nicht. Zumindest ist es das was ich in 20 Jahren so erlebt habe. Ob MSAA im Treiber erzwingen,oder UV,oder was auch immer.
AMDs 7900er werden langsam günstiger. Um ein Beispiel zu nennen, zuletzt eine Hellhound 7900 XT zu immerhin 777.77€. Meiner Meinung nach gibt es nur relativ wenige Argumente, da nicht zu einer 9xx€ RTX 4070 Ti S 16GB zu greifen.
Wir werden bald wissen, wie viel sie wirklich leisten & kosten werden.
Der gemeine PC-Gamer zieht sowieso nur Nvidia in Betracht. Da gibt es keine auf Vernunft basierende Abwägung mit eventuellen Alternativen. Von daher wird eine RTX 4070 Ti Super (furchtbarer Name) auch dann wie warme Semmeln weggehen, wenn die RX 7900 XT deutlich deutlich günstiger wäre. Die Leute sind dumm.
Es werden doch zwei Generationen miteinander vergleichen? Die aktuelle und die vorherige. 6700 XT und 3060 Ti sind doch vorhanden? In WQHD dann noch die 6800 XT und die 3080.
Danke für den Hinweis. Da bei mir ein 1440p Monitor steht habe ich mir die Ergebnisse angeschaut. Ich glaube auch mit der alten Generation kann man auf 1440p spielen, daher wären solche Ergebnisse für mich interessant.
Vielleicht nicht auf Ultra, aber das ist auch vollkommen in Ordnung.
Wer gebraucht Karten im Auge hat freut sich einfach auch über Vergleichswerte von "alten" Karten. Daher mein kritischer Kommentar. Vielleicht hilft dies meinen Blickwinkel zu verstehen.
In Anbetracht der bisherigen Wünsche, die ich so las, könnte dort vllt. noch eine RTX2060/70 hinzugefügt werden. Abgesehen vom kleineren VRam ließe die sich andererseits von der 2080Ti ableiten.
Das Testen in nativer Auflösung ist die einzige Möglichkeit, einen wirklich objektiven Performancevergleich zu erhalten. Hier ist die Bildqualität bei jeder Grafikkarte identisch. Upscaling-Technologien wie DLSS und FSR sind eine feine Sache, aber sie erzeugen eben auch mal mehr, mal weniger auffällige Bildfehler. Und manche Leute stören sich eben daran. Von daher würde ich etwa DLSS nicht als absoluten Fortschritt ansehen, sondern würde auch die Nachteile der Technik erwähnen.
Und wie groß soll der Markt dafür sein? Ich bitte dich. MSI tut das nur, weil sie um die miserable Gaming-Performance der Karte wissen, bezogen auf das P/L-Verhältnis. Da muss man sie unbedingt anderweitig interessant machen. Was denkst du wieviele Privatleute sich eine RTX 4060 Ti 16GB für Stable Diffusion kaufen?
Ich habe lediglich einen Link gepostet, der zeigt, dass die 4060ti ihre Daseinsberechtigung abseits vom Gaming hat. Der Preis ist sicherlich von Nvidia so gewählt, weil die Karte durch die 16GB auch professionelle Käufer anzieht, die dann eben keine A4000 oder 4080 kaufen. Ob sich diese Kalkulation für Nvidia lohnt, weiß halt nur Nvidia. Ich denke, dass man den AI Hype nicht unterschätzen sollte. Mich haben schon einige Leute, von denen ich es nicht erwartet hätte, gefragt welche GPU ich für LLaMa oder Stable Diffusion empfehlen würde.
Die Radeons lassen mit RT immer mehr Federn, obwohl hier nicht mal mit max. RT details getestet wird. Beim neuen PCGH RT-Index sieht's noch schlimmer aus.
Muss man echt überlegen ob man da noch eine Radeon anlacht...
Im Grunde genommen steht Raytracing in Spielen nach vor am Anfang. Selbst nach 5 Jahren noch. Wieviele handwerklich sehr gut gemachte RT-Titel gibt es heute? Es sind nicht gerade viele, weil es eben jede Menge Zeit und Erfahrung braucht, eine komplett neue Technik in der Spieleentwicklung vernünftig (effizient) umzusetzen. Von daher ist ein Grafikkartentest mit RT Ultra in Wahrheit nur Schall und Rauch. Es ist eine Momentaufnahme mit wenig Praxisrelevanz, denn nur die wenigsten Gamerinnen und Gamer opfern einen großen Teil ihrer FPS für eine realistischere Beleuchtung...
Da gibt es keine auf Vernunft basierende Abwägung mit eventuellen Alternativen. Von daher wird eine RTX 4070 Ti Super (furchtbarer Name) auch dann wie warme Semmeln weggehen, wenn die RX 7900 XT deutlich deutlich günstiger wäre. Die Leute sind dumm.
Natürlich sind die Leute dumm, die eine Nvidia Karte einer AMD Karte vorziehen, die kaufen alle nur wegen dem Namen und nicht, weil es für sie das bessere Gesamtpaket ist, und fundierte Kaufentscheidungen gibts sowieso nur bei AMD-Käufern....
Die 7900XT ist halt aktuell nicht deutlich deutlich günstiger und die Annahme, dass die Allgemeinheit eine 4070Ti Super für sagen wir 900€ einer 7900 XT vorziehen würde, wenn diese 500€ kosten würde, entspringt auch nur deiner Phantasie. Solange sie wie aktuell 800-850€ kostet, ist eine 4070Ti super für 900€ natürlich das bessere Paket.
Ich würde an der Stelle zumindest der Kritik zustimmen, dass beim Aufbau der Ratings anscheinend an recht vielen die Info vorbeigeht, dass es sich um Prozente handelt.
Weil AMDs aktuell Ansatz einfach sehr kompliziert ist und wirklich hohes Know-How benötigt. Dazu kommt, dass AMD aktuell eben ca. 1,5 Generationen hinterher hinkt bei RT und sie wahrscheinlich mit RDNA4 und RDNA5 hier weiter gehen wird.
Ich denke, dass man den AI Hype nicht unterschätzen sollte. Mich haben schon einige Leute, von denen ich es nicht erwartet hätte, gefragt welche GPU ich für LLaMa oder Stable Diffusion empfehlen würde.
Vermutlich weil du in der Informatikbranche tätig bist und deswegen berufsbedingt auf diese Leute triffst?
Ergänzung ()
DevPandi schrieb:
Weil AMDs aktuell Ansatz einfach sehr kompliziert ist und wirklich hohes Know-How benötigt. Dazu kommt, dass AMD aktuell eben ca. 1,5 Generationen hinterher hinkt bei RT und sie wahrscheinlich mit RDNA4 und RDNA5 hier weiter gehen wird.
Das heißt wir haben bei Raytracing in Spielen aktuell zwei völlig verschiedene Ansätze:
Nvidia setzt auf eine hohe Rohleistung bei der Hardware, AMD auf eine effizientere Softwareumsetzung (Programmierung). Kann man das vereinfacht so sehen?
Gut, AMD musste beim Thema Hardware-RT auf Nvidia reagieren und liegt da natürlich technisch im Hintertreffen. Daher ist eine effizientere RT-Implementierung in Spielen ihre einzige Möglichkeit den Rückstand nicht zu groß erscheinen zu lassen.
Ich jedenfalls habe das Gefühl, dass bei den meisten Spielen, die Raytracing anbieten, die technische Umsetzung eher schlecht als recht ist. Da ist vermutlich noch jede Menge Potenzial vorhanden für eine deutlich effizientere Nutzung der vorhandenen Hardwareressourcen (RT-Cores).
Was nicht meine Absicht. Es ist zweifelsohne ein tolles Stück Hardware. Nur stört mich, dass es gefühlt ständig um diese Karte geht und aktuelle Spiele daran gemessen werden. Oder Nvidia als Firma als solches an der Karte gemessen wird, während AMDs Topmodell eben 1000€ anstatt 2000€ kostet.
Der Vergleich verbietet sich fast von selbst, sich daran zu reiben ist im Grunde genommen für die Katz'.
TigerherzLXXXVI schrieb:
Der gemeine PC-Gamer zieht sowieso nur Nvidia in Betracht.
Wenn man sich nur entfernt auskennt, das gilt für Beratende gleichermaßen, wird eben das erzählt, was die Meisten erzählen. Nachvollziehbar, irgendwie. In Zeiten von Google und faktischen, analytischen Gratistests eigentlich schade.
hemmi1982 schrieb:
Ich muss zugeben, dass ich keine Lust hatte 200 Kommentare zu lesen. 🤣
Die 7800XT ist nicht schneller wie die 6800XT. Das ist ganz schwach. Es kann einfach nicht sein, dass die Vorgängergeneration mehr fps / Euro bietet wie die aktuelle Generation. Irgendwas läuft seit 2 Jahren gehörig schief.
Erfreulich ist die Entwicklung nicht. Dennoch wäre ich vorsichtig. Eine aktuellere Generation könnte längeren Service oder eine bessere Unterstützung für FSR & FMF erhalten. Bei fast gleicher Leistung zwischen 6800 XT und 7800 XT würde ich das als potenzieller Käufer im Hinterkopf behalten.
Duvar schrieb:
Ich denke ich könnte meine Karte aktuell für rund 2000€ loswerden (Aorus Master).
Ja, das ist schon heftig. Ist aber ein Sonderfall des Ki-Embargos. Einige Zeit vorher konnte man eine 5700XT so teuer verkaufen, dass man fast eine 6700 XT für lau bekam. Mining, Speicherbandbreite und so. Schon verrückte Zeiten.
Duvar schrieb:
Da erwarte ich echt keine Wunder, aber je nach "vielversprechenden" Leaks, hat man genügend Zeit seine Karte noch zu verkaufen, man muss halt auch mal die Augen etwas offen halten.
Ich erwarte ebenfalls keine Wunder von RDNA4. Aber wer weiß, vllt. überrascht AMD ein weiteres Mal mit einer gesunden Steigerung. Die RX7000 waren hoffentlich so etwas wie ein Chiplet-Testlauf.
Wenn man sich nur entfernt auskennt, das gilt für Beratende gleichermaßen, wird eben das erzählt, was die Meisten erzählen. Nachvollziehbar, irgendwie. In Zeiten von Google und faktischen, analytischen Gratistests eigentlich schade.
Nvidia setzt auf eine hohe Rohleistung bei der Hardware, AMD auf eine effizientere Softwareumsetzung (Programmierung). Kann man das vereinfacht so sehen?
Stark vereinfacht, stimmt das. Genauso wie meine Aussage nur stark vereinfacht sind. Um das wirklich zu erklären, bräuchte ich gefühlt 1000000000 Seiten.
Mal Offtopic, warum gerade bei der 4090 und nicht bei der 4080 oder nie bei der 3080/3090(ti)?
Die habe alle denselben Stecker. Das ist ein Molex Stecker aus der Schublade, der hat bei der 4090 nur diese Sense Pins dazu bekommen.
Ist ja nicht so, dass eine 3090Ti weniger Strom gezogen hätte.
Andersherum gab es allerdings auch schon Fälle, bei denen der 8 Pin PCIe geschmort hat.
Ja, AMDs Ansatz ist schwächer. AMD erwartet, dass man rechtzeitig genug Strahlen erkennt, die ins leer laufen. Tut man das nicht, springt man unnötig im BVH herum, das kostet Latenz und Zeit. Ja, AMDs Ansatz ist schwächer, weil AMD "unnötige" Intersections-Tests vermeiden will.
Ich denke ich kann dir in etwa folgen.
Was ich nicht verstehe ist warum du sagst diese Tests wären "unnötig".
Man hat doch automatisch viel mehr Tests, wenn die Raymenge steigt, die Geometrie komplex ist, also stark tesseliert, oder mehrere bounces berechnet werden, wo wieder erneute Tests gemacht werden.
Für mich heißt das heruntergebrochen , dass AMD bei wenig Rays und einfacher Geometrie wie damals schon bei Einführung von Tesselation bei niedrigen Faktoren sehr schnell ist, aber die Entwickler eine "fast" unlösbare Aufgabe erhalten, indem sie damit haushalten müssen.
Selbst Avatar: Frontiers of the Pandora setzt RT gemäßigt ein, dennoch kostet es auf AMDs 7900XTX etwa 20% mehr Leistung.
DevPandi schrieb:
Und damit auch ein: Ja, AMDs Ansatz ist schwächer, weil man aktuell mindestens eine, bis anderthalb Generationen zurückhängt. Ebenso ist der Ansatz schwächer, weil man bisher einen Weg geht, der anders ist, als der von NVIDIA.
Ich denke das wird AMD schaffen, auch wenn es etwas länger dauern könnte.
DevPandi schrieb:
USER=539077]@Taxxor[/USER] hat auch damit recht, dass man bei AMD bei Spielen wie Cyberpunk und Co einiges an Leistung liegen lässt bei der RT-Implementierung.
Inwiefern? Weil der BVH mehr auf Nvidias Art ihn zu durchsuchen ausgelegt ist?
Ich dachte die Grafiktreiber von AMD und Nvidia nutzen jeweils ihre eigene Methode.
DevPandi schrieb:
Man könnte hier mit Optimierungen auf RDNA2 und RDNA3 die Leistung bei den gleichen Presets durchaus noch anheben, ohne die Strahlen zu vermindern.
Was müsste man dafür tun? Ehrlich gesagt glaube ich, dass AMD und der Entwickler da intensiv zusammenarbeiten und schon das Maximum rausholen, das ist aber nur eine reine Vermutung.
Metro Exodus verarbeitet die Rays ( Bounces) in mehreren Schritten, soviel ich weiß.
Da wird nicht alles auf einmal berechnet. Dafür kommt das Ergebnis später auf dem Schirm an.
Das kommt den Radeons entgegen, ist aber auch nur eine Notlösung.
MrHeisenberg schrieb:
Verwundert mich aber, dass AMD da nicht stärker hinterher ist. Selbst bei Sponsortiteln geht man lieber sparsam mit RT um, anstatt es AMD performant zu implementieren.
Wieso?
This would actually map the entire path taken by the light. This would also require exponentially more raytrace operations, if we wanted to perform the whole process in a single frame.
There is already a Screen-Space Reflection (SSR) system available in the engine that gives reasonably accurate reflections by sampling the previous frames final rendered image directly.