Test AMD Radeon RX 6700 XT im Test: Referenz und XFX Merc 319 im Duell mit RTX 3070 und 3060 Ti

Starke Karte, für theoretische 500€ sogar ganz gut.
Wann nur platzt die Crypto Blase 🤷‍♀️
 
Ich hab Morgen Geburtstag und AMD weiß das.Ich bekomme eine zur UVP
 
  • Gefällt mir
Reaktionen: s0UL1, Lamaan, naicorion und 3 andere
Ohne Decoder für hevc, vp9 und av1, die 8k bei 60fps unterstützen, wird das wohl nix für leute, die besonders hohe qualität haben möchten (bzw. für Zukunft). Nvidia tut das.
 
IBISXI schrieb:
Das sind wieder 2 Spiele. Die Frage ist... von wie vielen?
Es ging um DLSS in der UE4 und dessen einfache implementierung und nicht darum, dass XXX neue Titel erscheinen. Die Zitate der Entwickler bestätigten dies. War das wirklich so schwer zu verstehen? Aber danke für die Unterstellung der selektiven Wahrnehmung.
IBISXI schrieb:
Bei meinen Games kann es nur Cyberpunk, und dort hab ich DLSS und RT aus.

Ich frag mal anders: Wie sieht es bei Dir aus?
Wo verwendest Du es auf deinem Sys?
Und wie sieht es dort mit der Unterstützung prozentuell aus?
Ich selbst zocke nur sehr selten. Mein Sohn spielt hauptsächlich, daher teile ich das mal auf:
Vorhanden: RTX 3070.
Ich spiele damit aktuell SOTR in 4k auf dem TV und nutze dafür DLSS, da die FPS sonst zu niedrig wären und CP2077 mit RT und DLSS (aber nicht in 4k).

Mein Sohn:
Fifa 21 -> Kein DLSS
CoD CW -> Kampagne mit RT und DLSS. Competive ohne RT aber mit DLSS
RDR2 -> Kein DLSS
Fortnite -> DLSS
Minecraft RTX -> DLSS/RT
CS:GO -> Kein DLSS
WD:L -> RT/DLSS
Among Us -> kein DLSS
Rocket League -> kein DLSS

Also die Verteilung ist nicht schlecht. Interessant für mich ist jedoch noch ein anderes nvidia proprietäres Feature: CUDA.
 
  • Gefällt mir
Reaktionen: Sly123, IBISXI und Laphonso
IBISXI schrieb:
Natürlich ist das Feature gerade bei schwächeren Karten interessant.
Ach, mich freut es auch, wenn ich bei gleichem FPS Ziel bis zu 50% weniger Verbrauch habe durch DLSS.
Die 2080Ti hat in WatchDogs ihre 270W gezogen, mit DLSS gleiche FPS, aber nur noch bei 170W.
 
  • Gefällt mir
Reaktionen: s0UL1, Tornavida, foo_1337 und eine weitere Person
GERmaximus schrieb:
Im Bereich der 6800/6900er Karten gibts das bereits mit ca. . 10% weniger Leistung bei nur noch um die 200Watt.
@Duvar hat da sehr interessante Ergebnisse erzielen können

Kannst du das näher erläutern bitte? Gibt‘s dazu nen Thread hier oder einen Leserartikel? Wäre an den Ergebnissen sehr interessiert.
 
Taxxor schrieb:
Ach, mich freut es auch, wenn ich bei gleichem FPS Ziel bis zu 50% weniger Verbrauch habe durch DLSS.
Die 2080Ti hat in WatchDogs ihre 270W gezogen, mit DLSS gleiche FPS, aber nur noch bei 170W.
Die AMDler bauen eben lieber auf Wasserkühlung um:D
 
Beitrag schrieb:
Solange man auf Raytracing verzichten kann und nichts mit GPU-Computing am Hut hat, sind die RX 6000er imo durch die Bank attraktiver und anderenfalls nimmt man halt eine Nvidia und lebt mit dem kleineren VRAM.

ich finde dass die summe der fehlenden features es ganz schön schwer macht, hier von "attraktiveren" radeons zu sprechen, weil man eine erhebliche menge verdrängen muss. das ist wie "bulldozer sind gute cpus, solange man einfach nur multithreading anwendungen nutzt" - oder analog "intel 4kerner sind gut, solange man nur starcraft spielt". ob die 12 vs 8gb überhaupt einen unterschied machen, muss man erst einmal sehen. sicher ist der größere vram ein pluspunkt und ich hätte bauchschmerzen eine 3070 mit 8gb zu kaufen - der vram muss erst einmal ausgehen, bevor mehr davon etwas bringt. die 3060 mit ihren 12 gb mit der leistung ist auch nicht mehr als marketing - aber 6gb braucht man in 2021 auch nicht mehr bringen. nvidia wird wohl ohnehin bald einen super-refresh bringen, um die preise und ggf. vram ausstattung an amd anzupassen.

letztendlich sind die radeons nur konkurrenzfähig, solange man wirklich nur zockt, und zwar ausschließlich spiele, die weder dlss, noch rtx unterstützen und auch sonst garnichts macht ausser zocken. aber das berücksichtigt auch nur einen teilbereich von dem, was die gpus eigentlich können (sollten).

wer aber auch nur einmal gameplay aufnimmt, ist schon mit nvidia besser dran. und wenn man dann den rechner noch zum videoschneiden, bildbearbeiten, usw. nutzt, braucht eigentlich mit den radeons garnicht mehr anfangen. und das ist lange keine randgruppe mehr - gameplay aufnehmen, etwas bearbeiten und auf youtube hochladen ist ein normaler anwendungsfall. die opencl performance von amd im speziellen von rdna2 ist ziemliche grütze, wenn opencl denn überhaupt mal richtig funktioniert (viel größeres problem) - aber das müsste ja zwangsläufig nicht so sein - amd müsste sich nur mal drum kümmern. und dann gibts ja immer noch cuda als marktbeherrschende schnittstelle, die radeons sowieso nicht unterstützen.

auch wenn man als einzelner jetzt nicht alle features der geforce karten nutzt, sind die radeons einfach nicht als gleichwertig zu betrachten und müssten auch bei gleicher rasterperformance entsprechend günstiger sein. 5% mehr raster performance zum selben preis ist nicht angemessen, wenn die geforce bei allem anderen mehr bietet und dort die gleichpreisige radeon mit 50-100% mehr performance wegputzt.

das wäre natürlich anders, wenn die opencl performance von rdna 2 besser wäre, opencl in den entsprechenden anwendungen auch einfach mal funktionieren würde, das radeon upscaling verfügbar wäre, die raytracing performance besser wäre, und der video encoder besser wäre. aber da verlieren die radeons einfach überall - es gibt keine feature-parität, die diese bepreisung rechtfertigt.

ich persönlich zocke nichts mit raytracing und das upsampling würde ich auch relativ selten nutzen, aber die schlechte opencl performance und unterstützung sowie die mäßige qualität des encoders fuchsen mich wie hölle. die rdna2 karten dann wegen einem individuell eingeschränkten nutzerprofil zu einem ungerechtfertigten preis zu kaufen halte ich für ein falsches signal.

ich will damit nicht sagen, dass man unbedingt nvidia kaufen soll - ich hätte erhebliche probleme nvidia überhaupt geld zu geben, aber die preise von amd, gemessen an dem, was man dafür bekommt, sind weit von "gut", "attraktiv", "angemessen" oder "fair" weg - das ganze lässt sich in der summe eher mit "unterwältigend" oder "enttäuschend" beschreiben.

der verbraucher ist an der aktuellen situation selbst schuld und das selektive wahrnehmen von produktqualität um den preis zu rechtfertigen machts nur noch schlimmer. die wenigsten "brauchen" eine gpu, sondern wollen einfach nur eine - und die knappheit löst psycholigisch bedingt einen noch stärkeren kaufdrang aus.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Edzard, Vitec, zeg und eine weitere Person
foo_1337 schrieb:
Also die Verteilung ist nicht schlecht.

Ja, bei deinem Sohn sieht es besser aus als bei mir.

4 von 9 wäre auf jeden Fall schon so relevant das man beim Kauf darauf achten müsste.

Aber das ist nicht der Durchschnittsgamer und wenn Du die ganze Sache z.B. auf das ganze Steam Library siehst, wird es um den Faktor 10 schlechter aussehen.
 
  • Gefällt mir
Reaktionen: Laphonso und foo_1337
Laphonso schrieb:
Nicht informierte Gamer
Diese uninformierten gamer...
Die kaufen bei Lidl, Aldi ect.
Haben noch nie und werden auch nie einen test lesen... Erst recht nicht die Meinungen in Foren... Also ist das Gemecker hier eh sinnlos. Dann musst ins OEM Werbung forum... Da meckern und evtl. Passen die dann ihre Werbungen an für die super mega Spiele pc's mit riesiger ssd riesigen Monitor. Den hellsten led's am Markt und dem stärksten jemals gebauten Netzteilen.

Seh da noch nicht mal das Problem.
Wenn nv nicht wieder so nen proprietären Mist verzapft hätte. Einfach nur den hardware Vorteil für sich verbucht hätte. Eh null Probleme. Aber das Standards nun mal lange dauern... Es ging bei rt und DLSS nicht darum die gamer glücklich zu machen. Es ging nur ums Geld verdienen. Mit nv an Board. Wer weiß wie viel schneller der Standard breit für alle im Markt wäre... Wie viel Spiele es schon geben könnte. Also bitte verzeih mir, Das ich nv nicht in den a krieche.
Schön für jeden nv Käufer, Das er das in einigen wenigen Titeln schon mal testen kann. Für mich hat es noch null Relevanz. Da haben einige gar nicht so falsch Gelegen... Wenn das für dein altes sys kein freundschaftspreis war... Nv Vertriebs, Marketing angestellter... Spaß!

AMD ist wieder eine tolle Alternative.
Da muss ich nicht in den sauren Apfel beißen. Hab schon alles gehabt. Wenn es noch 3dfx geben würde... Ich hätte bestimmt eine!

Es gibt natürlich anwenfungsfälle da komm ich nicht um nv drum herum...

Du wirst es nicht glauben... Aber keins von den Spielen die du gerade aufgezählt hast, interessieren mich.

Auf den Markt bezogen ist das rt und DLSS Argument mit wie viel % zu gewichten? 10-15%

Da gibt es gerade jetzt bei amd durch das rundere Paket viel mehr Argumente pro.

Mfg
 
  • Gefällt mir
Reaktionen: Experte18 und daknoll
@IBISXI Eines habe ich noch vergessen hinzufügen: Es ist mir im Endeffekt auch egal, ob das Feature DLSS oder FFSR heißt und von wem es kommt, die hauptsache ist, dass es gut funktioniert. Wenn AMD also dann tatsächlich etwas vergleichbares bringt, freut mich das sehr, da dann Supersampling bei vielen weiteren Titeln vorhanden ist.
Ergänzung ()

IBISXI schrieb:
das man beim Kauf darauf achten müsste.
Ehrlich gesagt würde ich aktuell darauf gar nicht so viel Wert legen sondern wenn ich eine Karte bräuchte versuchen zum UVP zu kriegen. Egal ob nvidia oder amd, hauptsache eine KArte zum vernünftigen Preis :)
 
  • Gefällt mir
Reaktionen: Mracpad und Laphonso
Hi zusammen,

ich habe die ganzen Beiträge zu dem Artikel überflogen und z.T. durchgelesen. Einige Male wurde nach dem Verkaufs-Termin gefragt, aber bisher hat niemand geantwortet?? Kann das sein? Einige gingen wohl davon aus es geht um heute 15Uhr.

@Wolfgang :
schöner Test, danke!
Aber wieso steht im Fazit: "Was „der Markt“ macht, werden die kommenden Minuten zeigen." Oder bezieht sich das auf den x Absätze weiter oben genannten 18.März?
Irgendwie stimmt da was nicht oder ich blick nicht durch.

Übrigens wird es so wie es aussieht auch ausserhalb von amd.com Lauch-Editions in Form des Referenz-Designs von anderen "Herstellern" geben. Es sei denn meine 6700XT hat ein falsches Bild dabei. Vllt. bekomme ich ja auch unverhofft ein Custom-Modell zum Referenz-UVP geliefert.. ;)
 
Matthias80 schrieb:
AMD ist wieder eine tolle Alternative.
Das sind sie endlich wieder im GPU Sektor, und man kann sagen "nur" DLSS und nvenc sind hier die Matchpoints für Nvidia im dauerhaften Tiebreak.
Im CPU Sektor bin ich nach 4 Intel CPUs in Folge wieder bei AMD gelandet, weil das bessere, umfassende Produkt. Educated consumers, darum geht es.
Und darum lese auch ich Computerbase.

Im GPU Sektor hat AMD Augenhöhe herstellt im klassischen Render/Raster Schub und liefert mehr VRAM on top.
Nvidia hat in zumindest fast 2 Dutzend Mainstream+AAA+Franchise Titeln aber DLSS am Start, und damit ein erfolgskritisches Feature für die Raytracing Akzeptanz einerseits und modular out of the box Performance auch ohne Raytracing (Cyberpunk, CoD etc.) und hier einen Vorteil an der Front.

Um nichts anderes geht es.
DLSS im Kontext macht die 6700XT kein Stück schlechter, wieso auch? Es geht nur um das Gesamtbild und die Klarheit, in welchen Games ich betroffen bin, und was die Meßbalken dann aussagen.

Je früher AMD hier pariert, um so länger dauen wieder die Tiebreaks im Stile von Becker und Agassi im Davis Cup 1989, und das dient uns doch allen.
 
  • Gefällt mir
Reaktionen: NikoNet, karl_laschnikow und Matthias80
Taxxor schrieb:
In dem Vergleich ist DLSS natürlich die umgeklappte Rückbank bzw der variable Ladeboden.
Denn ohne DLSS haben wir zwei vergleichbare Autos mit ähnlichem Kofferraumvolumen. Nur dass man bei dem einen Auto eben durch Absenken des Bodens einige Teile mehr reinbekommen kann, während das andere Auto einen (noch) starren Boden hat.
Blöd nur das man den zusätzlichen Laderaum nur für Sachen verwenden kann die man bei IKEA gekauft hat. Machen zwar viele, aber halt nicht jeder ;-)

Taxxor schrieb:
DLSS ist eine Funktion, die die Karte bietet, die du entweder nutzen kannst, oder auch nicht.
Selbst mit einer neuen NVidia könnte ich es nicht nutzen... FF XIV, WoW, Everspace 2, Star Wars Squadrons, Monster Hunter World (hat nur das schlechte 1er), Borderlands 3... echt die einzige Ausnahme die ich hab ist Cyberpunk 2077.
 

Navi 21, Navi 10 und Hawaii mit 40 CUs im Vergleich​

Sehr starkes Thema, da bin ich gespannt.

Wollte schon schreiben, dass ich es schade finde, dass kein Fury- und Vega-Chip mit dabei ist, aber beide haben deutlich mehr Shader als die 2580 Einheiten, die als Basis für den Test dienen.

Und wie war das Vega? Letztlich ein Rohrkrepierer, der leider nur mehr MHz auf die Straße gebracht hatte. Alles andere war vergebene Liebesmüh:
  • High-Bandwidth Cache Controller (HBCC)
  • Next generation geometry engine (NGG)
  • NCU with Rapid Packed Math
  • Revised Pixel Engine
  • Draw-Stream Binning Rasterizer (DSBR)
 
Matthias80 schrieb:
Hat cb die mining Leistung mal geprüft?
Könnt ich erahnen wie realistisch es ist eine zu bekommen. 🧐
Die kannst Du Dir ausrechnen. Dort wo es drauf ankommt aktuell - ETH - bringt sie genau 75% der Leistung weil 75% der Bandbreite. Also ohne BIOS Mods 45 - 48 Mh/s. Und meiner Meinung nach wird sich auch der Preis genau daran orientieren, denn die Miner machen den Preis
 
  • Gefällt mir
Reaktionen: uli_2112 und Laphonso
So sieht es aus,da in den meisten Titeln die Performance auch ohne DSLL in den wohl meist genutzten Auflösungen wie FHD QHD WQHD noch ausreicht und es die Wenigsten juckt ob das Game jetzt 150FPS oder "nur" 100FPS ohne DSLL raushaut.Nur ist das zu kurz gedacht.
Nur deshalb ist die beste Karte Die die man zu UVP bekommen kann .
Man stelle sich z.B. einen MSFS mit DLSS Unterstützung vor und nein die schlechte Performance dato ist nicht (allein) der schlechten Optimierung geschuldet.
 
Zurück
Oben