Test AMD Radeon RX 7600 im Test: Die 299-Euro-Grafikkarte tritt mit Navi 33 auf der Stelle

leonM schrieb:
Würde bedeuten noch beschissenere Latenz als bei Nvidia, da nicht über HW-FF und somit noch mehr Latenz. Wer will sowas?
Naja das mit den mehr als 1 zwischenframe steht schon wieder in Frage (denn es ist nicht klar ob die 4 in dem Github code nicht eine Art Bitanzahl ist oder irgend sowas) tatsächlich verspricht AMD aber wohl weniger Latenz wie bei Nvidia die Frage ist daher eher ob gleiche Qualität.
 
C0rteX schrieb:
Wer als Tester glaubt, dass Propaganda für Nvidia langfristig Erfolg mit sich bringt, sollte ernsthaft darüber nachdenken, wieviel nvidia noch zahlen wird, wenn sich kaum einer für den content interessiert.
Bis auf wenige Ausnahmen waren die deutschen Creatoren hier nicht besser leider. Von einem war ich im negativen Überrascht und enttäuscht.
 
  • Gefällt mir
Reaktionen: Knopfchaos und Holgmann75
usernamehere schrieb:
Da würde ich deutlich lieber eine RX6700 für 20-30€ mehr kaufen, mit mehr VRAM und mehr Performance
Die Performance ist ziemlich identisch, gibt bekanntlich vergleichsweise wenig Tests zur 6700, bei PCGH waren es über alle Auflösungen 8% Unterschied zwischen 6650XT und 6700 was in etwa der Leistung der 7600 entspricht.

Die 2 GB zusätzliche Vram sind natürlich ein Vorteil, leider schwankt die 6700 recht stark im Preis und es gibt wenig Modelle, für 300€ im Angebot war sie ein guter Deal, bei 340€ würde ich die 35€ zur XT drauflegen da ist das P/L besser.
 
  • Gefällt mir
Reaktionen: Holgmann75
troyan schrieb:
Weil Computerbase dir beschreibt, wie sich das Spiel auf einer AMD Karte mit 100 FPS anfühlt. Ist also eine 7900XTX mit 100FPS und 60ms unspielbar für dich?

Wie ich schon schrieb: Es fehlen objektive Fakten über Latenz in Spielen. Computerbase misst nur nVidia.
Du beschreibst hier das Feature Reflex, was ein verdammt gutes Feature von Nvidia ist aber sich dafür mit DLSS3 Frames chauffieren, irgendwie unangemessen, denn durch DLSS3 fühlt sich die Latenz auch nicht wie grundlegende Latenz an, sondern wirken manchmal nochmals unangenehmer. Also verstehe nicht die Geilheit auf Frames zu verweißen, obwohl Reflex das eigentliche Gimmick ist, in diesem Sinne


@blackiwid
Kann ich mir nicht vorstellen, denn wenn es über dem Treiber geht, dann wird die Latenz sehr sicher schlechter sein. Wenn die jetzt über mehrere Frames gehen, dann ist es mehr oder weniger Triple Buffer aber halt mit fortlaufenden Zwischen-Bildern im Vergleich zur statischen gleichen Bildern in normalen Buffer(Vsync). Naja, bin mal gespannt
 
Zuletzt bearbeitet:
Epic Fail, da legt Nvidia einen Elfmeter nach dem anderen vor und AMD schießt jedes Mal kilometerweit daneben. Selbst mit Preisreduzierung ist die Karte ein Witz!
 
  • Gefällt mir
Reaktionen: bad_sign, Stuffz und BOBderBAGGER
Stillstand ist gut, weil wir die Grafikkarten länger behalten können und schlecht weil es die Entwicklung bremst. So oder so, die Zeiten sind schon längst vorbei, wo wir alle zwei Jahren eine neue Grafikkarte bedenkenlos kaufen konnten.

Wenn wir die letzte Generation von AMD komplett ignorieren, wäre die 7600 für 250€ sogar ein akzeptabler Deal. Trotzdem, mit der 6700 XT kann irgendwie keine Grafikkarte momentan konkurrieren. Und das ist irgendwie auch traurig, wenn man das Alter der Karte bedenkt.
 
@leonM
Wenn du 15 bis 20ms merkst, was glaubst, wie fühlt sich das selbe Spiel auf einer AMD Karte mit zusätzlichen 60ms+ an? Die Messungen der 4060TI in TW3 sind doch sehr anschaulich, wie stark Reflex die Latenz verbessert. Und wenn du Reflex also als Argument gegen DLSS 3 nimmst, dann sind AMD Karten für dich perse unbrauchbar.
 
Vielleicht weiß das hier jemand: Nominell habe rtx 4060ti und rx7600 eine ähnliche Rohleistung von 22,6 vs 21,5 TFLOPs. Woher kommt dann die real world Differenz, die ja nicht unerheblich ist?
 
RuhmWolf schrieb:
Laut LTT hat AMD den Preis der RX 7600 kurz vorm Launch noch am Montag von 299 auf 239 US Dollar reduziert. Gab es in Europa auch eine Reduzierung?
Anscheinend agiert AMD einfach nur noch panisch und planlos. Bei Gamers Nexus heißt es, gestern wurden die offiziell über den Preis von 269 Dollar vor Steuern informiert.
wrong launch date,
wrong driver,
wrong price...
 
Sehr schöner, ausführlicher Test. Vielen Dank dafür!
 
ssh schrieb:
Epic Fail, da legt Nvidia einen Elfmeter nach dem anderen vor und AMD schießt jedes Mal kilometerweit daneben. Selbst mit Preisreduzierung ist die Karte ein Witz!
Rosa rote Brille auf?

Beide nehmen sich momentan nicht viel..
 
troyan schrieb:
@leonM
Wenn du 15 bis 20ms merkst, was glaubst, wie fühlt sich das selbe Spiel auf einer AMD Karte mit zusätzlichen 60ms+ an? Die Messungen der 4060TI in TW3 sind doch sehr anschaulich, wie stark Reflex die Latenz verbessert. Und wenn du Reflex also als Argument gegen DLSS 3 nimmst, dann sind AMD Karten für dich perse unbrauchbar.
Was glaubst du warum man sich Monitore mit viel Hz und kleinsten Inputlag holt und Maus mit hoher Abtastung? Damit man sich dann mit einen beschissenen FG die Latenz zerstört? Ich würde kein Autorennspiel, kein Shooter, kein Hack&Slay mit sowas zocken wollen? Wozu das Gameplay eines Spiel verschlechtern??
 
  • Gefällt mir
Reaktionen: coral81
AMD hat zumindest gezeigt schnell die preise zu senken. wenn die Richtung 250€ geht ist die schon okay. aber erstmal vielleicht bisschen abwarten.

das ding ist winzig und kostet nicht viel in der herstellung. wenn nötig können sie weit runter gehen mit dem preis
 
leonM schrieb:
Warum sollte man sich grundsätzlich mehr Latzen draufpacken? Sprich, einfach DLSS2+Relfex und gut ist. Verstehe nicht, warum man bei genügend Render-Frames überhaupt sich das antun sollte? Und bei weniger Frames umso mehr. Allein dieses Zitat von CB zur Witcher3 reicht mir, um zu wissen was ich davon halten soll

Weil 60 FPS nicht genug sind?

Nativ 48 FPS mit 112 ms Latenz
DLSS Quality + Frame Generation 98 FPS bei 49 ms Latenz

Doppelte Framerate, halbe Latenz.

Passt doch?!

Zudem kannst du noch das CPU Limit umgehen, welches bei Witcher 3 eh ziemlich heftig ist. Ohne absolute High End CPU kannst du die 60 FPS in belebteren Gebieten eh vergessen. Da ist FG praktisch pflicht.

Ich finds schade, dass sowas immer schlecht geredet werden muss, nur weils von Nvidia kommt.
Ich würde es bevorzugen, wenn AMD das auch anbietet. Alles was Nvidia unter Druck setzt ist gut für alle Kunden.
 
Finde die Karte um 300 gar nicht schlecht. Sollte es in Richtung 250 gehen, wäre das doch Top, vor allem für Gelegenheitsspieler und Online-Games wie LoL, WoW, CS,..

Und sorry @Redaktion aber Spiderman mit Raytracing mit so ner GPU zu testen und sagen der VRAM würde nicht reichen -- Klar, als ob jemand mit so ner GPU an Raytracing denkt ..am besten noch Cyberpunk Pathracing in 4k damit zocken um den "low" VRAM zu bestätigen.

Wer kann gibt mehr aus und holt sich ne 6700 XT da ist man safe in der Region.
Wer nicht hat hier ne gute Wahl meiner Meinung nach.
Ggü. der 4060ti ist das ne gute Karte meiner Meinung nach. 400+ ist die 4060ti einfach nicht wert.
 
  • Gefällt mir
Reaktionen: Knopfchaos
Schade AMD. RDNA3 macht bis jetzt einen schwachen Eindruck.
 
leonM schrieb:
Was glaubst du warum man sich Monitore mit viel Hz und kleinsten Inputlag holt und Maus mit hoher Abtastung? Damit man sich dann mit einen beschissenen FG die Latenz zerstört? Ich würde kein Autorennspiel, kein Shooter, kein Hack&Slay mit sowas zocken wollen? Wozu das Gameplay eines Spiel verschlechtern??
Nochmal, ohne FG und Reflex hast du eine höhere Latenz.

Wo ein Nvidia Nutzer mit Reflex 50FPS und 45ms hat, hat er ohne Reflex dann eben 50FPS und 100ms, genau wie ein AMD Nutzer.
Sind die Spiele ohne Reflex nun alle unspielbar bzw AMD Karten generell unbrauchbar wegen so hoher Latenz?

Wenn ein Spiel FG bekommt, bekommt es dadurch auch automatisch Reflex, was es ansonsten idR nicht alleine bekommen hätte. Dann hat man nach dem Update die Möglichkeit statt 50FPS und 100ms auf a) 100FPS und 60ms oder b) 50FPS und 45ms zu gehen.
 
Zuletzt bearbeitet:
Mimir schrieb:
Weil 60 FPS nicht genug sind?

Nativ 48 FPS mit 112 ms Latenz
DLSS Quality + Frame Generation 98 FPS bei 49 ms Latenz

Doppelte Framerate, halbe Latenz.

Passt doch?!

Zudem kannst du noch das CPU Limit umgehen, welches bei Witcher 3 eh ziemlich heftig ist. Ohne absolute High End CPU kannst du die 60 FPS in belebteren Gebieten eh vergessen. Da ist FG praktisch pflicht.
Wie kommst du drauf? Beispiel:
Du hast ne 48Fps-Latenz zzgl. der Latenz von FG-Berechnung zur 48Frames-Latenz ohne Zusatzlatenz. Vor allem bei 48Frames ist die Latenz schon unangenehm, also warum noch mehr Latenz draufpacken?
Sprich,(bezogen auf die kleinste Latenz) DLSS2 + Reflex < FG + Reflex

@Taxxor
Nochmal, dass Gimmick ist Reflex und ist ein geniales Feature für genau sowas wie niedrigere Framerate, um die Eingabe zu verbessern. Also warum sollte mach sich bei zur hoher Latenz (z.B 40Frames) noch mehr Latenz draufpacken? Ist doch Irrsinn für das Gameplay des Spiels
 
Zuletzt bearbeitet:
Zurück
Oben