Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
BerichtPreis-Leistungs-Verhältnis: Die besten Gaming-Grafikkarten gemessen in FPS pro Euro
Ok, ich nehme an, das hast du so differenziert und detailliert auch schon die ganze Zeit seit es rdna 3 gibt beantwortet, wie du auf die Fragen von mir geantwortet hast.
Ich verstehe auch dieses Lagerdenken nach wie vor nicht. Für Konsumenten ist es immer besser, wenn es mindestens zwei gleichstarke Player im Markt gibt, weil sonst ein Monopolist die Preise für die angebotene Ware quasi frei wählen kann (huhu, Nvidia!).
Es sollte also im Interesse jedes einzelnen verdammten Spielers sein, wenn Nvidia und AMD in einer Liga spielen würden. Das tun sie leider nur bedingt, Nvidia hat technologisch einen klaren Vorsprung von 1-2 Generationen - wenn man denn auf Raytracing schaut. Rasterleistung ist absolut konkurrenzfähig, aber das wurde ja jetzt auch schon 20.000 Mal durchgekaut.
@Maine Ich hatte halt ne Minihoffnung, dass da ne inhaltlich interessante Begründung kommt.
Spricht auch nix dagegen, Fan einer bestimmten Marke oder eines Herstellers zu sein, solange man da weniger missionarisch unterwegs ist und selbst weiß, dass man da nicht objektiv urteilt (urteilen kann). Wie als Trainer einer Sportmannschaft, da wird man immer eine mehr oder weniger große Einfärbung zu Entscheidungen pro eigenem Team haben.
In diesem Sinne, jedem weiter seine eigene Entscheidung, was er kauft.
Und schön, dass du @Maine hier weiter so fleißig auch ne Datengrundlage lieferst (auch wenn ich sie persönlich sicher mindestens 2 Jahre nicht mehr benötige).
Hat nichts mit lagerdenken zu tun aber erstens ist rdna 4 fast da, 2 rdna 3 ist kacke und wird fsr 4.0 eventuell nicht so unterstützen wie rdna 4. nvidia bietet heute schon dlss, während man bei amd noch immer darauf wartet gutes upscaling zu bekommen.
es gibt im moment keinen einzigen grund für ne amd karte. wegen 50-100€ mehr bekommt man bei nvidia einiges mehr geboten. amd hat es verkackt im windschatten preis zu fahren deswegen sind die marktanteile von radeon so niedrig wie noch NIE ZUVOR.
übrigens ich habe neben der ps5 eine 7800xt pulse. mit 2300mhz 225 watt zieht bisschen uv.
7800xt = 1440p
Wann nutzt man da überhaupt Upscaler?
(höchstens mal Quality in UE5-Games)
Wichtiger ist doch nach m.E. das FG/AFMF2, falls man denn nen sehr schnellen Moni hat.
(k.A. wieviel User in der Preisklasse schon teuere/schnelle Monis nutzen)
und/oder
in langsamen Games kann man mit FG/AFM2 und Fps-Limit dann auch sparsam spielen
(im CPU-Limit eeh hilfreich)
Naja, würde jetzt auch keine 7800XT kaufen um 4k zu spielen - fahre aber auch keinen Fiat 500 um dann die 24 Stunden von Le Mans zu fahren.
Habe selbst die 7800XT für 449€ im Mindstar geschossen, da sind zwei Vollpreistitel dabei. Einen davon hätte ich sowieso gekauft - also 389€ für eine solide GPU ist nicht verkehrt, ganz egal was zeitnah kommt. Du wirst auch RDNA 4 oder GTX 50xx zum gleichen Preis oder günstiger als die derzeitige Generation bekommen. Da wird nicht passieren.... mehr Leistung wird mehr kosten
Das Problem mit dem Budget hat man immer. Warum dann 100€ mehr ausgeben, wenn man noch mal 200€ oben drauf legen kann und wieder was besseres hat.
Was ist 4k? Mit upscaler tau oder fsr,xess je nachdem was besser ist, vor allem sieht 4k mit upscaling auf Performance mode ala 1080p intern besser aus als 1440p nativ. Das schaffen auch schwächere Karten. Auch bin ich keiner der Settings stupide auf Ultra setzt und dann heult wenn es nicht läuft.
Warum sollte man etwas anderes als einen 4k schrim verwenden vor alle da eh schon jedes Game upscaler besitzt was neu erscheint, und alte games schafft das Teil auch locker in nativem 4k. Immerhin Rtx 3080 leistung das war noch high end in der letzten Gen.
aber saufen tut das Teil gut ab 2400mhz aufwärts bis 3ghz sehe ich auch über 300 watt manche spiele erlauben tatsächlich knapp 3ghz.
Der Zug ist abgefahren aber ich denke das rx7900Xt Leistung von AMd für 600€ geben wird down the line nicht zum release. Vielleicht überrascht ja amd mit einem 499€ Preis dann wäre das Teil sowieso vergriffen und gescalpt. Daher lieber wie sony mit der pro hoher preis, null scalping und preise senken nach Zeit. Hardware zu release und man wird immer über die ohren gehaun. 6 monate später bekommt man es 50-100€ billiger und oder mit extra games dazu. Darauf warte ich immer. Aber da eh die Pro ins haus kommt bleibt mir deie 7800 noch sehr sehr lange erhalten spiele am Pc nur noch total war warhammer 3 und ja das braucht gpu power ohne ende.
rein technisch betrachtet gibt es Unterschiede bei der Auslegung der Modelle:
bis WQHD gibts halt nur nen kleinen Cache
für "echte" 4k-Grakas gibts deutlich mehr
ne Ausnahme war RDNA2, wo 6800+6800XT+6900 alle den großen 128MB IF-Cache haben
Wozu braucht man nen größeren Cache?
Weil die Trefferquote mit steigender Auflösung schlechter wird.
Von daher kanns passieren, das ne 6800xt auch mal in 4k runder läuft als ne 7800xt.
(gameabhängig)
häh?
Du bist wohl kein Mann der Praxis, ... bezgl. MPT+OCen keine Erfahrung.
Der Vram der 6800xt lässt sich mit DPM3=1075 auf 2148MHz und FastTiming2 OCen.
würde mal denken, das bei nem 300W-Setting die Bandbreite dann easy ausreicht
falls nicht,
kann man auch den IF-Cache noch von 1940MHz auf 2025+MHz anheben
Die höheren MHz beim 7800xt-Vram sind mit schlechteren Timings erkauft, muss also nicht
bezgl. Latenz zwingend besser sein.
Der Vram bei RDNA2 lässt sich soweit OCen, das auch 4k-Games profitieren.(x)
Keiner hat was von nur Benchmarks erzählt.
und
Da AMD-GPU´s generell gut auf scharfe Latenzen reagieren ist FastTiming 2 nicht verkehrt.
mein Vorschlag:
lass es gut sein, mit den "Meine ist besser Belehrungen", wenn Du keine Ahnung von RDNA2-Tweaks hast
(x) Milchmädchenrechnung,
wenn die Bandbreite mit OCen für ne 6900 reicht, dann wohl auch dicke für ne 10% kleinere 6800xt
Aber wenn Du extra nach Benchmarks<300W fragst, kannst Du mal schauen wie ne optimierte 6900 da so läuft
mit Vram-OCen und FT2, ... siehe Anhang, ... = etwas mehr Points als im CB-Review@stock (wird vermutlich nicht vom Vramtakt limitiert, ... ne 6800xt braucht sicher nicht ganz soviel fclk wie die opt.6900)
Ich habe keine rdna 2 karte du hast ohne Grund damit angefangen und die 2-3% + an Leistung mit Vram spielerei merkst eh nicht beim zocken. Wenn dann volle pulle PL Aufreissen und 3ghz eingeben dann hast deine 10-12% je nach Game mit der 7800xt. Aber auch das wirst nicht wirklich fühlen
Wieviele Strom verbraucht denn der Speicher einer Karte?
Macht das nicht viel aus und ist vernachlässigbar? Denn hier werden Karten miteinander verglichen die Unterschiedliche bestückungen haben.
Ernsthaft, es gibt inzwischen 4 Versionen der 4070 xD? Und das ist die einzige Karte mit annehmbarem P/L Verhältnis von NV. Tatsächlich siehts bei AMD natürlich nicht viel besser aus mit 2 Karten. Alles andere ist überteuert.
Gibts eigentlich eine denkbare Möglichkeit, durchschnittliche Gebrauchtpreise und damit auch ältere Karten aufzunehmen?
Oder vielleicht ein Verlaufsdiagramm, das zeigt bei welchem Preis sich welches P/L ergibt?
Wenn nicht, dann nicht, fragen kostet nix. Muss man halt selber fps/€ teilen, auch kein Beinbruch.
Wieviele Strom verbraucht denn der Speicher einer Karte?
Macht das nicht viel aus und ist vernachlässigbar? Denn hier werden Karten miteinander verglichen die Unterschiedliche bestückungen haben.