Naja das mit den mehr als 1 zwischenframe steht schon wieder in Frage (denn es ist nicht klar ob die 4 in dem Github code nicht eine Art Bitanzahl ist oder irgend sowas) tatsächlich verspricht AMD aber wohl weniger Latenz wie bei Nvidia die Frage ist daher eher ob gleiche Qualität.leonM schrieb:Würde bedeuten noch beschissenere Latenz als bei Nvidia, da nicht über HW-FF und somit noch mehr Latenz. Wer will sowas?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test AMD Radeon RX 7600 im Test: Die 299-Euro-Grafikkarte tritt mit Navi 33 auf der Stelle
H
HierGibtsNichts
Gast
Bis auf wenige Ausnahmen waren die deutschen Creatoren hier nicht besser leider. Von einem war ich im negativen Überrascht und enttäuscht.C0rteX schrieb:Wer als Tester glaubt, dass Propaganda für Nvidia langfristig Erfolg mit sich bringt, sollte ernsthaft darüber nachdenken, wieviel nvidia noch zahlen wird, wenn sich kaum einer für den content interessiert.
- Registriert
- Nov. 2007
- Beiträge
- 13.323
Die Performance ist ziemlich identisch, gibt bekanntlich vergleichsweise wenig Tests zur 6700, bei PCGH waren es über alle Auflösungen 8% Unterschied zwischen 6650XT und 6700 was in etwa der Leistung der 7600 entspricht.usernamehere schrieb:Da würde ich deutlich lieber eine RX6700 für 20-30€ mehr kaufen, mit mehr VRAM und mehr Performance
Die 2 GB zusätzliche Vram sind natürlich ein Vorteil, leider schwankt die 6700 recht stark im Preis und es gibt wenig Modelle, für 300€ im Angebot war sie ein guter Deal, bei 340€ würde ich die 35€ zur XT drauflegen da ist das P/L besser.
Du beschreibst hier das Feature Reflex, was ein verdammt gutes Feature von Nvidia ist aber sich dafür mit DLSS3 Frames chauffieren, irgendwie unangemessen, denn durch DLSS3 fühlt sich die Latenz auch nicht wie grundlegende Latenz an, sondern wirken manchmal nochmals unangenehmer. Also verstehe nicht die Geilheit auf Frames zu verweißen, obwohl Reflex das eigentliche Gimmick ist, in diesem Sinnetroyan schrieb:Weil Computerbase dir beschreibt, wie sich das Spiel auf einer AMD Karte mit 100 FPS anfühlt. Ist also eine 7900XTX mit 100FPS und 60ms unspielbar für dich?
Wie ich schon schrieb: Es fehlen objektive Fakten über Latenz in Spielen. Computerbase misst nur nVidia.
@blackiwid
Kann ich mir nicht vorstellen, denn wenn es über dem Treiber geht, dann wird die Latenz sehr sicher schlechter sein. Wenn die jetzt über mehrere Frames gehen, dann ist es mehr oder weniger Triple Buffer aber halt mit fortlaufenden Zwischen-Bildern im Vergleich zur statischen gleichen Bildern in normalen Buffer(Vsync). Naja, bin mal gespannt
Zuletzt bearbeitet:
Stillstand ist gut, weil wir die Grafikkarten länger behalten können und schlecht weil es die Entwicklung bremst. So oder so, die Zeiten sind schon längst vorbei, wo wir alle zwei Jahren eine neue Grafikkarte bedenkenlos kaufen konnten.
Wenn wir die letzte Generation von AMD komplett ignorieren, wäre die 7600 für 250€ sogar ein akzeptabler Deal. Trotzdem, mit der 6700 XT kann irgendwie keine Grafikkarte momentan konkurrieren. Und das ist irgendwie auch traurig, wenn man das Alter der Karte bedenkt.
Wenn wir die letzte Generation von AMD komplett ignorieren, wäre die 7600 für 250€ sogar ein akzeptabler Deal. Trotzdem, mit der 6700 XT kann irgendwie keine Grafikkarte momentan konkurrieren. Und das ist irgendwie auch traurig, wenn man das Alter der Karte bedenkt.
@leonM
Wenn du 15 bis 20ms merkst, was glaubst, wie fühlt sich das selbe Spiel auf einer AMD Karte mit zusätzlichen 60ms+ an? Die Messungen der 4060TI in TW3 sind doch sehr anschaulich, wie stark Reflex die Latenz verbessert. Und wenn du Reflex also als Argument gegen DLSS 3 nimmst, dann sind AMD Karten für dich perse unbrauchbar.
Wenn du 15 bis 20ms merkst, was glaubst, wie fühlt sich das selbe Spiel auf einer AMD Karte mit zusätzlichen 60ms+ an? Die Messungen der 4060TI in TW3 sind doch sehr anschaulich, wie stark Reflex die Latenz verbessert. Und wenn du Reflex also als Argument gegen DLSS 3 nimmst, dann sind AMD Karten für dich perse unbrauchbar.
Sherman789
Lieutenant
- Registriert
- Apr. 2022
- Beiträge
- 638
Vielleicht weiß das hier jemand: Nominell habe rtx 4060ti und rx7600 eine ähnliche Rohleistung von 22,6 vs 21,5 TFLOPs. Woher kommt dann die real world Differenz, die ja nicht unerheblich ist?
Anscheinend agiert AMD einfach nur noch panisch und planlos. Bei Gamers Nexus heißt es, gestern wurden die offiziell über den Preis von 269 Dollar vor Steuern informiert.RuhmWolf schrieb:Laut LTT hat AMD den Preis der RX 7600 kurz vorm Launch noch am Montag von 299 auf 239 US Dollar reduziert. Gab es in Europa auch eine Reduzierung?
wrong launch date,
wrong driver,
wrong price...
wrong driver,
wrong price...
Holgmann75
Lt. Commander
- Registriert
- Aug. 2020
- Beiträge
- 1.138
Was AMD betrifft glaube ich eher das Gegenteil.D3xo schrieb:und schlecht weil es die Entwicklung bremst.
RDNA 3 wirkt wie ein Feldversuch für das Chiplet Design, dessen Kinderkrankheiten dann hoffentlich mit RDNA 4 der Vergangenheit angehören.
Skudrinka
Fleet Admiral
- Registriert
- Sep. 2008
- Beiträge
- 10.560
Rosa rote Brille auf?ssh schrieb:Epic Fail, da legt Nvidia einen Elfmeter nach dem anderen vor und AMD schießt jedes Mal kilometerweit daneben. Selbst mit Preisreduzierung ist die Karte ein Witz!
Beide nehmen sich momentan nicht viel..
Was glaubst du warum man sich Monitore mit viel Hz und kleinsten Inputlag holt und Maus mit hoher Abtastung? Damit man sich dann mit einen beschissenen FG die Latenz zerstört? Ich würde kein Autorennspiel, kein Shooter, kein Hack&Slay mit sowas zocken wollen? Wozu das Gameplay eines Spiel verschlechtern??troyan schrieb:@leonM
Wenn du 15 bis 20ms merkst, was glaubst, wie fühlt sich das selbe Spiel auf einer AMD Karte mit zusätzlichen 60ms+ an? Die Messungen der 4060TI in TW3 sind doch sehr anschaulich, wie stark Reflex die Latenz verbessert. Und wenn du Reflex also als Argument gegen DLSS 3 nimmst, dann sind AMD Karten für dich perse unbrauchbar.
AMD hat zumindest gezeigt schnell die preise zu senken. wenn die Richtung 250€ geht ist die schon okay. aber erstmal vielleicht bisschen abwarten.
das ding ist winzig und kostet nicht viel in der herstellung. wenn nötig können sie weit runter gehen mit dem preis
das ding ist winzig und kostet nicht viel in der herstellung. wenn nötig können sie weit runter gehen mit dem preis
leonM schrieb:Warum sollte man sich grundsätzlich mehr Latzen draufpacken? Sprich, einfach DLSS2+Relfex und gut ist. Verstehe nicht, warum man bei genügend Render-Frames überhaupt sich das antun sollte? Und bei weniger Frames umso mehr. Allein dieses Zitat von CB zur Witcher3 reicht mir, um zu wissen was ich davon halten soll
Weil 60 FPS nicht genug sind?
Nativ 48 FPS mit 112 ms Latenz
DLSS Quality + Frame Generation 98 FPS bei 49 ms Latenz
Doppelte Framerate, halbe Latenz.
Passt doch?!
Zudem kannst du noch das CPU Limit umgehen, welches bei Witcher 3 eh ziemlich heftig ist. Ohne absolute High End CPU kannst du die 60 FPS in belebteren Gebieten eh vergessen. Da ist FG praktisch pflicht.
Ich finds schade, dass sowas immer schlecht geredet werden muss, nur weils von Nvidia kommt.
Ich würde es bevorzugen, wenn AMD das auch anbietet. Alles was Nvidia unter Druck setzt ist gut für alle Kunden.
Caramelito
Admiral
- Registriert
- Juni 2016
- Beiträge
- 9.006
Finde die Karte um 300 gar nicht schlecht. Sollte es in Richtung 250 gehen, wäre das doch Top, vor allem für Gelegenheitsspieler und Online-Games wie LoL, WoW, CS,..
Und sorry @Redaktion aber Spiderman mit Raytracing mit so ner GPU zu testen und sagen der VRAM würde nicht reichen -- Klar, als ob jemand mit so ner GPU an Raytracing denkt ..am besten noch Cyberpunk Pathracing in 4k damit zocken um den "low" VRAM zu bestätigen.
Wer kann gibt mehr aus und holt sich ne 6700 XT da ist man safe in der Region.
Wer nicht hat hier ne gute Wahl meiner Meinung nach.
Ggü. der 4060ti ist das ne gute Karte meiner Meinung nach. 400+ ist die 4060ti einfach nicht wert.
Und sorry @Redaktion aber Spiderman mit Raytracing mit so ner GPU zu testen und sagen der VRAM würde nicht reichen -- Klar, als ob jemand mit so ner GPU an Raytracing denkt ..am besten noch Cyberpunk Pathracing in 4k damit zocken um den "low" VRAM zu bestätigen.
Wer kann gibt mehr aus und holt sich ne 6700 XT da ist man safe in der Region.
Wer nicht hat hier ne gute Wahl meiner Meinung nach.
Ggü. der 4060ti ist das ne gute Karte meiner Meinung nach. 400+ ist die 4060ti einfach nicht wert.
frankyboy1967
Lieutenant
- Registriert
- Feb. 2005
- Beiträge
- 883
alter falter, genauso überflüssig wie die 4060 finde ich. nicht mal schneller als die vorgänger.
- Registriert
- Mai 2011
- Beiträge
- 21.524
Nochmal, ohne FG und Reflex hast du eine höhere Latenz.leonM schrieb:Was glaubst du warum man sich Monitore mit viel Hz und kleinsten Inputlag holt und Maus mit hoher Abtastung? Damit man sich dann mit einen beschissenen FG die Latenz zerstört? Ich würde kein Autorennspiel, kein Shooter, kein Hack&Slay mit sowas zocken wollen? Wozu das Gameplay eines Spiel verschlechtern??
Wo ein Nvidia Nutzer mit Reflex 50FPS und 45ms hat, hat er ohne Reflex dann eben 50FPS und 100ms, genau wie ein AMD Nutzer.
Sind die Spiele ohne Reflex nun alle unspielbar bzw AMD Karten generell unbrauchbar wegen so hoher Latenz?
Wenn ein Spiel FG bekommt, bekommt es dadurch auch automatisch Reflex, was es ansonsten idR nicht alleine bekommen hätte. Dann hat man nach dem Update die Möglichkeit statt 50FPS und 100ms auf a) 100FPS und 60ms oder b) 50FPS und 45ms zu gehen.
Zuletzt bearbeitet:
Wie kommst du drauf? Beispiel:Mimir schrieb:Weil 60 FPS nicht genug sind?
Nativ 48 FPS mit 112 ms Latenz
DLSS Quality + Frame Generation 98 FPS bei 49 ms Latenz
Doppelte Framerate, halbe Latenz.
Passt doch?!
Zudem kannst du noch das CPU Limit umgehen, welches bei Witcher 3 eh ziemlich heftig ist. Ohne absolute High End CPU kannst du die 60 FPS in belebteren Gebieten eh vergessen. Da ist FG praktisch pflicht.
Du hast ne 48Fps-Latenz zzgl. der Latenz von FG-Berechnung zur 48Frames-Latenz ohne Zusatzlatenz. Vor allem bei 48Frames ist die Latenz schon unangenehm, also warum noch mehr Latenz draufpacken?
Sprich,(bezogen auf die kleinste Latenz) DLSS2 + Reflex < FG + Reflex
@Taxxor
Nochmal, dass Gimmick ist Reflex und ist ein geniales Feature für genau sowas wie niedrigere Framerate, um die Eingabe zu verbessern. Also warum sollte mach sich bei zur hoher Latenz (z.B 40Frames) noch mehr Latenz draufpacken? Ist doch Irrsinn für das Gameplay des Spiels
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 180
- Aufrufe
- 22.835
- Antworten
- 406
- Aufrufe
- 45.116
- Antworten
- 135
- Aufrufe
- 21.391