Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRadeon RX 9070 XT: Spiele-Benchmarks und neuer Hinweis auf 3 GHz
Mittlerweile habe ich sogar echt die Hoffnung, dass es zum Release oder NDA-Fall von CB in etwa heißen könnte "RX 9070 XT - Oberklasse der Mittelklasse" oder "David schlägt zurück - RX 9070 XT kontert Nvidia aus".
Wird so nicht passieren, wäre aber wünschenswert. Ich hab 700€ für die 9070 XT eingeplant, wenn's weniger wird, gut für mich.
Ich glaube anhand der aktuellen leaks, performt die GPU besser als es 90% der User erwartet haben. Besser als 7900 xt, manchmal gleichauf mit 7900 xtx...meckern kann man da nicht.
Ja, da ist dann halt abzuwarten ob das auch für die 2x8Pin-Stecker-Karten gilt oder sich mensch da die Karte "kastriert" und halt wie es im RT aussieht was Entscheidender ist (die 7000er waren ja bereits im Rasterizer gut und in der Leistungsklasse dennoch nicht so beliebt)
riOrizOr schrieb:
Preislich bin ich mit gar nicht sicher ob AMD die GPUs mit 600€ oder niedriger bepreisen muss.
Da bin ich unsicher, schlussendlich wird die 5070TI halt nicht nur so ähnlich gut um nicht zu sagen etwas besser sein (DDR7, generell bessere Speicherverwaltung, etwas niedrigere TDP usw.) sondern der entscheidende Punkt ist wie wichtig DLSS4+ in den nächsten Jahren werden wird (eins der größten Probleme an FSR ist nicht dessen schlechtere Leistung, sondern die späte mangelnden Implementierung der jeweils neuesten Version)...
Schlussendlich könnte AMD ein ähnliches Problem haben wie mit den RT/PT in der letzten Generation und dann wird es halt knapp wenn sich die Karten Preislich zu sehr annähern...
Ok, vielleicht ist DLSS4 eine Enttäuschung und das Nvidia im Grunde seine ganze Präsentation darauf aufgebaut hat wird zum Running Gag, wenn aber nicht, hättest du hier im Grunde zwei Karten zwischen denen du wechseln kannst - eine vergleichbare mit der 9070XT für niedrige Latenz in Nativ und eine bedeutend stärkere mit höheren aber jetzt dank Reflex und Co. erträglichen Latenz und nur noch sehr wenigen Artefakten/schlieren und einer guten Chance dass davon noch das eine oder andere weiter verbessert wird.
Also entweder wird das eine bzw. zwei echt gute Karten und deshalb die Geheimnistuerei.
Oder AMD vermasselt es famos und die Leistung oder der Preis sind total daneben.
Auch heute bisher keine offizielle News, dabei sind die Karten schon bei Händlern im Lager. Da fragt man sich, auf was da noch gewartet wird.
Die Marketing Praktikanten sind noch in den Semesterferien oder so, da muss man sich gedulden. Oder man hofft, FSR4 noch schneller hinzubekommen und möchte mit Launch damit punkten, dass zeitnah Spiele kommen oder gar Patches direkt.
Vielleicht basteln die noch etwas am treiber oder Warten das Nvidia ihre Karten released. währe ja auch nicht schlecht, wenn es wenigstens 1 spiel mit FSR4 zu release geben würde, wo man die Qualität sehen könnte.
Das glaube ich weniger, denn die qualität wird nicht schlechter als Dlss3.8 sein. Das FG problem bezüglich höheren Nativen FPS soll ja auch behoben sein, so das es die AMD leistung erreicht. Die einzige frage bleibt bei MFG wie niedrig die nativen fps sein dürfen im zusammenspiel mit 2-4fachem FG, damit sich das spielgefühl nicht verschlechtert. Und wie stark reflex2 die Bild qualität beeinflusst.
Und wie es mit der Qualitativen integration in spielen aussieht.
Ergänzung ()
Was bei FSR4 noch interessant wird ist ob sie nicht nur die qualität sondern auch die Leistung gegenüber FSR3 verbessern konnten.
Ich glaube es ehrlich gesagt auch nicht, dafür war die Präsentation zu sehr darauf ausgelegt und sie haben zu aktiv nicht gezeigt womit sie nicht angeben können, selbst wenn es da kleine Verbesserungen gab (ich meine sie haben ja nicht mal groß mit den Vorzügen von DDR7 geprahlt, wenn ich das richtig im Kopf habe - ein Todd Howard hätte vermutlich erzählt dass DDR7 allein die Welt aus den Angeln hebt) - wenn es also zu Problemen kommt, gehe ich eher davon aus, dass NVIDIA die selbst nicht vorher gesehen anstelle bewusst hoch gestapelt hat, weshalb ich derzeit auch noch stärker zur 5070TI als zur 9070XT neige...
Northstar2710 schrieb:
Die einzige frage bleibt bei MFG wie niedrig die nativen fps sein dürfen im zusammenspiel mit 2-4fachem FG, damit sich das spielgefühl nicht verschlechtert.
gehe hier von über 20FPS aus (d.h. ähnlcih wie in älteren Filmen - die Grund-Karte darf somit nicht zu langsam werden) - deshalb hat Framegen vermutlich auch grenzen nach oben bzw. es kann nicht auf Upscaling usw. verzichtet werden, weil theoretische Frameraten im Millionenbereich bringen halt in der Praxis nichts und mehr als Framegen*8 oder maximal Framegen*16 brauchst du halt nicht, wenn du mindestens auf 20+ Frames ohne Framegen kommen solltest...
...interessant ist hier eher (und das weis vielleicht wer) ob ich mit Framegen auch das CPU-Limit überschreiben kann, weil die ja erst in der GPU generiert werden, also nachrangig sein sollte ob dass die CPU schafft (womit Fraemgen schwache CPUs ausgleichen könnte)
Northstar2710 schrieb:
Und wie stark reflex2 die Bild qualität beeinflusst.
Das Hauptproblem bei FSR ist imo wie gesagt die Verbreitung, ist halt ärgerlich wenn FSR4 durchaus was taugt (wo von ich sogar ausgehe) aber viele Games nur FSR3 oder gar 2 unterstützen.
gehe hier von über 20FPS aus (d.h. ähnlcih wie in älteren Filmen - die Grund-Karte darf somit nicht zu langsam werden) - deshalb hat Framegen vermutlich auch grenzen nach oben bzw. es kann nicht auf Upscaling usw. verzichtet werden, weil theoretische Frameraten im Millionenbereich bringen halt in der Praxis nichts und mehr als Framegen*8 oder maximal Framegen*16 brauchst du halt nicht, wenn du mindestens auf 20+ Frames ohne Framegen kommen solltest...
Für VR sind iirc 10.000hz das Ziel für ziemlich perfekte Bewegungsschärfe.
Für einen normalen Sample and Hold Monitor 1000hz, vielleicht auch 2000hz, je nach Größe und Auflösung irrc.
Da ist schon reichlich Potential für MFG x20. Aber die Bildqualität muss dabei natürlich stimmen, sonst bringen die Frames nix. Aktuell gibts iirc eh maximal 500hz am Markt.
Ja weil Konkurrenz das bewirkt. Habe ich keine Konkurrenz kann ich den Preis festlegen. Das hat man ja bei CPUs gesehen als AMD das mir Ryzen aufgemischt hat.
Nein können sie nicht sonst täten sie es. AMD hat sich nicht umsonst aus dem High End Bereich zurückgezogen und zwar weil sie einfach keine Konkurrenz zu Nvidia in dem Bereich sind. Grafikkarten Kauf ist heute halt nicht mehr nur GPU-Leistung sondern vor allem auch das Ökosystem. Klar AMD hat FSR4 angekündigt aber das muss sich erst beweisen. Ich sehe z.B. im Chiplet-Design ein möglichen Weg für AMD zurückzukommen aber AMD muss halt liefern. Nvidia zeigt ja, dass es Leute gibt die 2k+ ausgeben aber da muss halt auch Leistung kommen und das kann AMD aktuell nicht. Die schwimmen mit und selbst Intel ist sehr stark im kommen wenn man bedenkt das die erst vor ein paar Jahren ins dGPU Geschäft gekommen sind.
Der CPU Bereich ist mit Grafikkarten eben nicht vergleichbar. Intel hat 10 Jare lange vom Q6600 bis zum 7600k QuadCores ohne Hyperthreading für $250 verkauft. Mit der Zeit hat man sich gefragt was man da eigentlich kaufte. Eine iGPU mit ein bisschen CPU-Anteil, während der CPU Part Richtung Celeron-größenniveau geschrumpft ist. Das Scheunentor was Intel AMD aufgemacht hat war entsprechend riesig, besonders weil AMD ja die iGPU weggelassen hat und dazu mit einem Chiplet-Ansatz kam. 2 Kleine Chips sind billiger als ein großer.
Bei den Grafikkarten hat sich hingegen nichts verändert.
Bis auf ein paar Halo Produkte (Fiji mit HBM,7900 mit Chiplet) Ist AMD immer bei um die 500mm2 unterwegs. Das Chipletdesign braucht mehr fläche um Performance -Nachteile dieses Ansatzes auszugleichen.
An der 6900 vs 3090 sah man auch schön, dass die AMD Karte durchaus wettbewerbsfähig war. Nur 600mm2 bedient AMD schlicht nicht. Und ein 520mm2 Chip hat auch da sch bei AMD 1000€ gekostet.
Es sind mittlerweile auch schon viele spiele mit FSR3.1 ausgestattet auch nachträglich und es wird jetzt nicht mehr weniger, die DLL ist ja Austauschbar. Es stellt sich dann nur wieder die Frage wie gut es dann läuft mit dem tausch der DLL.
definitiv. Würde auch sagen das es mind 40-50 fps benötigt. Aber halt für nach oben hin besser läuft wenn man einen Monitor mit hoher Frequenz betreibt.
falls Moores Law is dead mit dieser Aussage „ Moore's Law Is Dead gibt die Leistungsaufnahme der beiden RDNA-4-Grafikkarten mit 304 Watt für die Radeon RX 9070 XT und 220 Watt für die Radeon RX 9070 an“ recht haben . Dann wäre die 9070 nonXT, fast das interessantere Produkt.