Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
TestGrafikkarten 2022 im Test: AMD Radeon RX und Nvidia GeForce RTX im Benchmark
Spannend die 3080 Ti Ergebnisse mit den eigenen zu vergleichen. WaKü und ein gewisses OC bringen schnell 15-20% hier je nach Titel.
Die 6900XT liegt allerdings in CH deutlich besser preislich als die 3080 Ti mittlerweile. Hab immer wieder mal Karten für um die 1400 rum gesehen (lieferbar). Die 3080er braucht man gar nicht schauen, unter 18-1900 gibts da nix. Preis/Leistung spricht da klar für die AMD Karte. 6800XT findet man hingegen quasi nicht.
Gibt es auch bei NVIDIA, hat aber keinen besonderen Namen, nennt sich einfach "Framerate Limit" und lässt sich per Anwendung konfigurieren. Radeon Chill ist nichts anderes...
Ich fand es aber bei AMD bedeutend komfortabler über das Overlay zu bedienen!
Gibt es auch bei NVIDIA, hat aber keinen besonderen Namen, nennt sich einfach "Framerate Limit" und lässt sich per Anwendung konfigurieren. Radeon Chill ist nichts anderes...
Ich fand es aber bei AMD bedeutend komfortabler über das Overlay zu bedienen!
Alles ab einer 5600XT / RTX 2060 reicht aktuell noch für 60 fps in FullHD, auch wenn die teuersten Karten 3 x so schnell sind.
Die normale FPS-Limitierung funktioniert im AMD-Treiber übrigens nicht. Nutzt man hingegen Chill und stellt oben und unten 60 fps ein, dann geht das Ganze.
Naja du hast es Dir im Grunde selbst beantwortet, aus dem Grund bin ich von einer 6900XT zur 3080 Ti, nahezu gleiche Leistung ohne DLSS und RT, aber in vielen Spielen (bei mir zumindest) ist DLSS und /oder RT halt inzwischen dabei..
Ansonsten sprechen die von Dir genannten Preise natürlich eher für die 6900XT statt dafür "nur" ne 3080 zu nehmen.. von daher schwere Entscheidung^^
Und eben 5% "einbußen" dafür halt DLSS/RT ist einfach ein rundes Paket, wenn die Preise ca. gleich sind.
Ventus 308012gb vs 6900xt, beide um 1300eur sehr teuer -- Aber iwo nehme ich sind sie in der realen Welt gleih stark und DLSS/RT regelt dann zugunsten der NV Karte.
Wie es in einem Jahr aussieht, das ist das was mich beschäftigt.
AMD "altert" ja besser laut Foren-Myths. Die 16gb sollten auch besser altern, wobei ich mir nicht vorstellen kann, dass 12gb dann zu knapp sind - Außer unoptimierte Games.
Zudem ist das Sapphire Nitro Modell natürlich ansprechender als das "fade" Ventus von MSI
Gibt es auch bei NVIDIA, hat aber keinen besonderen Namen, nennt sich einfach "Framerate Limit" und lässt sich per Anwendung konfigurieren. Radeon Chill ist nichts anderes...
N Framelimiter gibts im AMD Treiber auch, aber Radeon Chill geht da ja nochmal n Schritt weiter.
Auf z.B. 90-140 FPS gestellt spart das Strom und damit Abwärme ein. Während man ein Inventar durchwühlt, sich durch einen Dialog klickt etc. braucht es ja nicht unbedingt durchgehend Volldampf.
Dann warte mal noch 2 Jahre wenn die 3080 an ihren 10GB Vram verhungert.
Dann blüht ihr der GTX 570 Tod. Die 1,28GB Vram waren einfach zu wenig AMD hatte damals 2GB.
@Topic sehr nice.
Wusste gar nicht das die 6900XT in RT nur noch 8% hinter der 3080 ist.
Wenn man selbst eine 6900XT Costum hat wird die Leistung ja fast an der des XTXH Chips kratzen.
Du meinst bestimmt die 6800XT, die ist 8% (in FullHD und RT) bis 13% ( in 4k und RT) hinter der 3080. Die 6900xtxh ist schneller (over all).
Ps.
Me <- XTXH Bzw. 6900XT in custom watercooled und daher ingame um die ~2550 MHZ bei 99% Auslastung, also eher mehr als die XTXH. Ik freu mir !
Ergänzung ()
troyan schrieb:
Die Herangehensweise der Raytracing-Benchmarks sollte überdacht werden. Spiele wie Control und Indie-Titel wie "Deliver us the Moon" rauszuwerfen, führt zu einem massiven verzehrten Bild der realen Leistung in Spielen. Nur weil der Abstand in vorallem AMD gekauften Spielen wie Farcry 6 und RE:V bei weniger als 15% liegt, muss dies nicht auf andere Titel zutreffen. Eine gleichwertige Gewichtung ist fragwürdig, wenn es x-mal mehr Titel gibt, wo der Abstand massiv viel größer ist - siehe auch Dying Light 2, wo der Abstand zwischen 30% und 100% ist.
Mindestens 100% besser, ist Nvidia!
Spaß beiseite.
Vlt. sind AMDs Recheneineheiten gar nicht sooo schlecht?
Es ist nun mal so, dass die ersten RT-Spiele explizit für Nvidia entwickelt wurden und man kann immer wieder sehen, was sowas bedeutet, wenn nur für einen Hersteller optimiert wird.
Dazu gab es außerdem eine totale unausgewogenheit bei den Effekten, so das es anders aussah, aber, außer bei einem Spiel, ich glaube es war "Metro Redux" sahen diese frühen Spiele schlecht aus.
Auch ein Spiel aus der Gegenwart, welches nur für einen Hersteller optimiert wurde ist kein guter Benchamrk für das Vermögen der Karten.
Da muss man einfach ein wenig abwarten, bis man genug Daten hat.
Und im Moment sieht es so aus, als hätte AMD einen echt guten Job gemacht.
Wobei ihnen die Unterstützung der Entwickler sicher ist und wir in Zukunft noch mehr erwarten dürfen.
Btw. ich muss mal gucken, es kam gerade ein Game mit sehr viel Optionen für die integrierten RT-Effekte raus.
Da konnte man durch Einstellen der Lichteffekte wunderbar sehen, was es bedeutet wenn nur ein Effekt angezeigt wird, aber dafür vollkommen überzeichent.
Es sieht anders aus ja, aber immer noch künstlich, es ist schlicht falsch bzw. unnatürlich, etwa so wie es früher eingebaut war und so lies es ich in diesem Spiel gut nachstellen (Ich suche es mal und poste es dann).
Einige mochten diese Effekte dennoch, wohl weil es mal was Neues war, außerdem ist es ja auch interesasant zu sehen welches Potenzial diese Technik hat, finde ich.
Aber, für ein echt gutes Resultat sollte es einfach nicht übertrieben werden.
Es sollte entweder kombiniert alle Effekten dezent programmiert, oder nur für z.B. echte Schatten genutzt werden.
Also einen Effekt, der die anderen nicht überstrahlen kann und dadurch nicht zu einem unausgewogenen Bild führt, sondern wirklich etwas zur Immersion beitragen kann,
denke ich .
Viele Grüße
Warum hast Du den 6900XTXH auf 2000 Euro gesetzt, nimmst du den absolut teuersten?
Gestern gab es den z.B. für schon 1399 Euro das war dann der Teufel als XTU, also XTXH und eigentlich gibt es den immer schon für ~1500 Euro, was das Diagramm ja schon noch mal deutlich ändern würde.
Viele Grüße
Zuletzt bearbeitet von einem Moderator:
(Unnötig langes Zitat durch Moderation entfernt)
ich würde mich an Deiner Stelle noch mal mit den Unterschieden von DLSS und FSR auseinandersetzten und gucken was für dich passt.
Mich stört bei DLSS das es in allen spielen außer Einem Artefakte im Zentrum des Bildes gibt, von besser als Nativ kann man da meiner Meinung nach überhaupt nicht sprechen.
Auch werden auf Grund der Änderungem am LOD bei entfernteren Objekten einfach mal manche Objekte gar nicht gerendert.
Ich kann FSR meist nicht vom normalen Bild unterscheiden, schon gar nicht in Bewegtbildern und wenn, dann wäre es mir lieber als Artefakte in dem Bild mit den toll rekonstruierten Rändern und den Löchern in der Darstellung.
Ich glaube DLSS kann noch sehr gut werden, aber noch ist es das nicht.
Dazu sollte man wissen, das FSR in allen Vulkangames läuft, also eine viel größere Verbreitung hat.
Dazu der V-Ram.
Für mich wäre die Entscheidung klar und BTW ich hatte schon viele Nvida-Karten in meinem Leben, nur diese Gen käme max die 3090 für mich in Frage und die ist einfach zu teuer und, ja, auch keine Gamerkarte wie Nvidia sagt gell
Gute Nacht
Zuletzt bearbeitet von einem Moderator:
(Unnötig langes Zitat durch Moderation entfernt)
Ich denke die Spieleentwickler und Puplisher habens schon zu spüren bekommen, das mit Hardwarehungrigen Games aktuell nicht viel zu verdienen ist. Einfach weil es viele nicht mehr Spielen können. Nicht umsonst stehen in letzter Zeit die lowend Games hoch im Kurs.
Ich weiß jedenfalls das bei den Spieleschmieden der Druck stark angezogen hat und viele geplante Games die "Zeitgemäß" mit neuerer Hardwarevorrausetzung bedacht waren umgeworfen wurden oder ins Stocken geraten sind. Speziell auch Spiele die auf der Unreal Engine 5 geplant sind wackeln, da es nicht nach großen Absatzzahlen aussieht wenn absehbar kaum Spieler mit der nötigen Hardware zu Adressieren sind.
@Lamaan von welchen Artefakten sprichst Du. Also mir ist da noch nie was aufgefallen.
Ghosting, meist an der Spielfigur, hauptsächlich, aber auch Flimmern, vor allem an Zäunen oder filigranen Objekten und die Tatsache, dass manche Objekte in der Entfernung gar nicht gerendert werden, wenn es zu Problemen mit dem Reduzieren des LOD gibt.
Im PCGH Forum gibt es einige Nvidia-User die das besser erklären können. Da selbst erlebt. Ich kenne es nur aus Videos oder von Erzählungen.
wow, wenn ich daran denke dass mein last Gen Flagschiff RTX 2080 Super OC, bei 1440p, Max Details (+ eventuell RT), nicht mehr reichen wird...
Traurig.
Super Test .. Dankeschön
Denke das die preiswerten AMD-Karten näher ran kommen als NVIDIA das lieb ist :-) !
Die Frage ist halt, was man für Vorlieben beim Spielen hat. Der hohe RAM der AMD´s ist langfristig gesehen, die bessere Wahl!
Danke für die Antwort. Verzerrt meiner Meinung nach ein bisschen die Aussage zu den Vergleichen AMD vs. Nvidia, da die Erfahrung zeigt, je aufwändiger die Implementierung, desto größer der Unterschied. Und wenn man dann die aufwendigen Titel (Control, Dying Light 2 und CP2077) die RT Beleuchtung haben weglässt...
Nicht unbedingt. Das beste Beispiel finde ich ist da Metro Exodus PC Enhanced Edition. Das ist für mich immer noch die beste RT-Implementierung. Das Ding hat klar von allen Spielen die beste Beleuchtung und trotzdem kommt AMD klar damit, auch wenn Nvidia ein gutes Stück schneller ist. Aber das Spiel tötet AMD aber nicht. Und sie haben es auch geschafft, Qualitätsstufen einzubauen. So muss RT implementiert werden. Dying Light 2 und Cyberpunk nutzen dagegen sicherlich nicht mehr RT, aber alles bricht zusammen - Nvidia ja auch.
C4rp3di3m schrieb:
CB wenn ihr schon die RTX2060 mit rein nehmt, dann doch bitte die 12GB Version, gerade wo so viel von VRAM die Rede ist Da ich seit letzte Woche eine habe, wäre das sehr Interessant gewesen.
Wir haben leider keine RTX 2060 12GB da, sondern nur die normale Version.
Justuz schrieb:
Ist die Bildqualität bei Nvidia und AMD identisch? Bei älteren Tests wurden die immer gegenüber gestellt (nvidia vs. ATI). Bei neueren nicht mehr, kann man also davon ausgehen das alles identisch ist?
Die Bildqualität ist zu 99,5 Prozent identisch. Ganz gleich ist diese nie, aber man muss die Unterschiede mit der Lupe suchen.
nebukadnezar.ll schrieb:
Also ich bin kein CB Pro User und verstehe nicht, wieso solche umfangreiche Tests nicht hinter eine Paywall kommen. Ihr verschenkt hier viel Zeit und Mühe. Klar freut es mich am Ende persönlich schon, soviel Service für umme zu bekommen, aber am Ende schadet es der CB.
Wir können aufwendige Artikel natürlich entweder exklusiv für CB Pro bringen oder aber für alle - mit der Hoffnung, dass diese den Adblocker aus haben. Wir versuchen letzteres, auch wenn es schwer ist
Schinken42 schrieb:
@Topic
Der neue Tesptparcours ist in Ordnung, ich finde nur der Artikel erschlägt einen etwas mit Zahlen und Verhältnissen. Prinzipiell nichts schlechtes, finde ich hier kann man schwerer folgen als nötig gewesen wäre.
Ja, es sind schon eine ganze Menge Daten, dass ist schlussendlich auch der Grund, warum wir den Testparcours immer mit einem separaten Artikel einführen. Das nun auch noch in Kombination mit einer neuen Grafikkarte wäre sicher schon super heftig. Aber es ist eben nicht ganz einfach, so viele Daten sinnvoll aufzubereiten. Wir versuchen es mit Tabellen und Erklärungen, doch natürlich gibt es da Limitierungen...
Caramelito schrieb:
Also wird der neue CB Patch dann auf CB getestet mit frischen Ergebnissen?
Tolles Update - vielen Dank.
Erstaunt hat mich die konsolidierte Leistung der RX-Karten in Raytracing. Positiv ist, dass der Test klare Worte zur Situation mit dem Grafikspeicher findet. Es war lange abzusehen, wird "in der Community" aber vielfach nicht geglaubt, wenn es nicht von einem großen Magazin schwarz auf weiß runter gepinnt wird.
Caramelito schrieb:
Wie es in einem Jahr aussieht, das ist das was mich beschäftigt.
AMD "altert" ja besser laut Foren-Myths.
Von den Genannten würde ich dir wohl die 6900xt RD empfehlen. Jedoch sollte man wohl, unter Berücksichtigung der zu erwartenden Nachfolger, derzeit gar nichts kaufen.
Zu der Fine-Wine Geschichte:
Die RX580 wird hier mit rund 10% Vorsprung zur GTX1060 gemessen. Das Verhältnis war bei Release der Probanden umgekehrt und deshalb wurde von vielen die 1060 empfohlen. Der Grund war die Behauptung, mehr als 6GB würde man niemals brauchen und dass sie zum damaligen, aktuellen Zeitpunkt schneller war. (Ein Test ist aber eine Momentaufnahme und keine Prognose)
Ja, okay in dem Punkt hast du Recht. Um die min. FPS zu sehen muss man aber schon die Finger von Maus und Tastatur lassen. Das passiert mir persönlich beim Zocken jetzt eher weniger.
In der Praxis erzielen beide Funktionen so ziemlich das gleiche Ergebnis. Ich habe früher Chill gerne genutzt und habe mich zuerst aufgeregt, dass es das bei NVIDIA nicht gibt. Ich vermisse aber nichts mehr, seitdem ich den Limiter benutze. Bis auf die Möglichkeit es über das Overlay zu nutzen, das ist bei NVIDIA echt ein Krampf... Wenn man von AMD kommt denkt man sich zuerst: "Das kann nicht euer Ernst sein...".
Der 8gb doch einigermaßen aufgebauscht, ihr habt in 1080p quasi durchgehend maxed out getestet, jeweils eine Detailstufe runter (optisch kaum Unterschiede) und die 8gb sind völlig ausreichend in 99% der Fälle.
Da hast du sicher recht, nur was sollte das in einem Test zu suchen haben. Man kann es erwähnen, aber getestet wird maxed out und da sind 8GB halt heute teilweise schon zu wenig.
Von den Genannten würde ich dir wohl die 6900xt RD empfehlen. Jedoch sollte man wohl, unter Berücksichtigung der zu erwartenden Nachfolger, derzeit gar nichts kaufen.
Zu der Fine-Wine Geschichte:
Die RX580 wird hier mit rund 10% Vorsprung zur GTX1060 gemessen. Das Verhältnis war bei Release der Probanden umgekehrt und deshalb wurde von vielen die 1060 empfohlen. Der Grund war die Behauptung, mehr als 6GB würde man niemals brauchen und dass sie zum damaligen, aktuellen Zeitpunkt schneller war. (Ein Test ist aber eine Momentaufnahme und keine Prognose)
Die 6900 ist aktuell auch mein Favorit ehrlich gesagt. RT ist mir ziemlich egal (auch im Vorzeige Titel Guardians of the galaxy, spiele ich ohne).
Bzgl. "nichts kaufen, da Nachfolger". Wie gut hat das damals für die Nicht-Käufer der 2080 ti funktioniert?
Wird es besser werden? Weiß keiner. Schlimmer kanns auch noch werden.
Jop nur sind 1060 und 580 schon sehr alt. So lange behalte ich die Grafikkarte eher nicht.
Was mich hier beschäftigt ist das schlechte Vram Mgmt von RX. Siehe Test hier, wo mal einfach die 12gb der 6700er nicht reichen zB.
Wer wirklich wollte, hat anfangs Karten bekommen; also vor so ca. 1,5 Jahren. Was ich dir ebenfalls zutraue. Andererseits hat sich der Markt und das allgemeine Bewusstsein darum durchaus gewandelt und es dürfte insgesamt noch schwerer geworden sein.
Letztlich gehts um deine Finanzen. Einer spielt im Sommer, ein Anderer nicht etc. ...
Lovelace und Co. bringen sicherlich noch mehr Chaos in die Hütte. Stromverbrauch und Kosten dürften abermals steigen.