Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

Gerade auf Igorslab gelesen: So könnte zum Start der Ampere das Binning im Schnitt ausfallen:
So sprechen die Quellen nahezu übereinstimmend von im Schnitt bis zu 30% der Chips mit Bin 0, ca. 60% mit Bin 1 und nur 10% mit Bin 2 für die RTX 3080, was für so eine kurzen Produktionszeitraum trotzdem schon recht gut ist und eigentlich auch für Samsung spricht. Im Übrigen sind die meisten der fürs Presse-Sampling gedachten Custom-Modelle natürlich die Top-Dogs der jeweiligen Hersteller und damit Bin 2. Das sollte man im Hinterkopf haben, denn auch NVIDIAs Founders Edition ist keine “billige” Referenzkarte mehr, sondern höchst aufwändig gefertigt.

Binning-Info @ Igoslab

Da würde es sich doch anbieten, dass mal einige CB-Leser ihre 3080 zu CB schicken und die mal einen Test machen, wie groß die Taktunterschiede so ausfallen bei einem identischen Produkt (3080 FE).
Obwohl, das könnte man sich auch gleich sparen und bestimmt einfach anhand der AIB-Karten ablesen, von der Knecht-Klasse zur Edel-Edition..., die paar 100 Mhz Taktunterschiede...
Interessant wird es natürlich, welchen Takt man unter Wasser beim sehr guten Binning rausholen kann.

Jetzt stellt sich natürlich die Frage, ob es nicht schlau wäre, ein paar Monate mit dem Kauf der Ampere-Karten zu warten (wenn man nicht unbedingt eine neue GPU braucht) bis sich die Fertigung gebessert hat und das binning prozentual besser ausfällt als zum Start hin. Vorrausgesetzt, die Crypto-Manie treibt die Preise nicht in die Höhe!

Jetzt muss man nur wissen, in welcher Region die Verschiebung stattfinden wird: wird es weniger Bin 0 geben und deutlich mehr Bin 1, wobei Bin 2 gleich bleibt oder wird die Anzahl der Bin 2 auch zunehmen, sprich: 10% Bin 0, 70% Bin 1 und 20% Bin 2?
Blöd nur, das NVIDIA die FEs nicht lange und in großer Stückzahl anbieten wird (also, wer nicht vorbestellt hat, könnte eventuell schon wegen der großen Nachfrage Probleme bekommen, später überhaupt noch eine FE zu ergattern).
Einige AIBs selektieren ja brutal konsequent und da braucht man sich beim Kauf einer GPU aus der low-budget-Familie keine Hoffnungen machen, die Silicon-Lottery zu gewinnen.
Zu wissen, dass man eine 3080 FE mit Bin 0 erwischt hat, wäre schon fies :/ (um so mehr, wenn man die Karte unter Wasser legen möchte)...

Wie war das nochmal mit dem "ASIC"-Wert eine GPU? Optimal fürs ocing mit Luftkühlung ein besonders hoher Wert. So über 80. Und wenn man die GPU wasserkühlt, ist es sogar besser, wenn der Wert nicht so hoch ausfällt. Bei Wasserkühlung bin ich mir da nicht so sicher, könnte sich wie bei Luftkühlung verhalten. Doch habe ich mal gelesen, dass wenn man LN2-Kühlung beabsichtigt, ein niedriger ASIC-Wert optimal fürs ocing sein soll...
 
Zuletzt bearbeitet:
Full HD ist keine Auflösung, für die es eine High-End-Grafikkarte benötigt, und daher für die kommenden Grafikkarten recht uninteressant
Verstehe nicht was der Satz im Artikel soll. Wie in vergangenen Jahren werden neue Spiele sicherlich bei gleichbleibender Auflösung immer höhere Anforderungen an die Hardware stellen und auch heute gibt es so manche Spiele (wie z.B. RDR2), welche derzeitige High-End-GPUs in die Knie zwingen. Wie kann 1920x1080 da "uninteressant" für die neuen GPUs sein?

Davon abgesehen ist es nicht verkehrt wenn die GPU ein wenig Luft nach oben hat und im Regelbetrieb dafür etwas leiser läuft.
 
Wolfgang schrieb:
Vergleiche einer Radeon ohne DLSS mit einer GeForce plus DLSS wird es nach aktuellem Stand nicht geben.
Warum nicht?

Ich würde es im Chart nur notieren:
2080: 50 FPS
2080 @ DLSS: 100 FPS

Ich verstehe dass es ein KI-Upscaling ist, aber wenn die Qualität vergleichbar oder gar besser ist, sollte man die Option auch verwenden. Niemand mit einer GPU die DLSS unterstützt würde dies deaktivieren wenn Bild und FPS davon profitieren. Es ist nur natürlich beides zu "vermischen".
 
  • Gefällt mir
Reaktionen: NJay, Darkscream und KlaraElfer
S.Kara schrieb:
aber wenn die Qualität vergleichbar oder gar besser ist, sollte man die Option auch verwenden.

Ich bin dann dafür, dass sinnlose Einstellungen wie über ultra mega weiche Schatten auf Radeon deaktiviert werden - Wenn die Qualität vergleichbar ist und die FPS stark steigen, sollte man die Option ja auch verwenden, oder?

Oder von mir aus FidelityFX..

Bevor mich jetzt alle lynchen - ich bin der Meinung, dass man nur direkte Vergleiche machen kann wenn die gleichen Vorraussetzungen gegeben sind. DLSS als Feature kann ja hervorgehoben werden. Aber wenn ich die Rohleistung der Karten vergleichen will, sollte so ein Feature deaktiviert bleiben. Was die Leute zu Hause in ihren Settings einstellen ist ja jedem selbst überlassen.

Kann sich noch jemand an die hitzige Diskussion zu den Zeiten von HL2 über das schlechte aber schnelle Anisotropische Filern der ATI Karten erinnern, die eine sich FPS über eine "leicht" schlechtere Bildqualität erkauft haben? Habe sogar den Original CB Test gefunden: https://www.computerbase.de/artikel...ualitaet-des-anisotropen-filters.1063/seite-9
 
  • Gefällt mir
Reaktionen: McTheRipper, Onkel Föhn und Jan
S.Kara schrieb:
Ich verstehe dass es ein KI-Upscaling ist, aber wenn die Qualität vergleichbar oder gar besser ist, sollte man die Option auch verwenden. Niemand mit einer GPU die DLSS unterstützt würde dies deaktivieren wenn Bild und FPS davon profitieren. Es ist nur natürlich beides zu "vermischen".
Das ist richtig, aber bei Benchmarks sollte DLSS (und vergleichbares) dennoch aussen vor stehen, oder zumindest ausser Konkurrenz laufend gesondert ausgewiesen werden, wenn, so wie ich DLSS verstehe, gar die Möglichkeit gegeben ist, dass Objekte anders dargestellt werden, als vorgesehen.

DLSS hat für mich irgendwie potentiell was von Xerox Kopierern...
http://www.dkriesel.com/blog/2013/0802_xerox-workcentres_are_switching_written_numbers_when_scanning
 
  • Gefällt mir
Reaktionen: McTheRipper und Colindo
Ich finde es auch gut dass man Mal wieder AMD als Testsystem eine Chance gibt. Und auch gut finde ich es dass CB hier manuell optimiert hat.

Als Mainboard dient das Asus ROG Strix B550-E Gaming mit AMDs B550-Chipsatz. Damit gibt es nicht nur PCIe 4.0 für die Grafikkarte, sondern auch für eine M.2-NVMe, auf der Windows 10 2004 sowie einige Spiele installiert sind. Als Speicher sind vier 8 GB große Module verbaut, die mit DDR4-3600 übertaktet sind. Die Haupt- sowie die Sekundär-Timings sind für eine bessere Performance optimiert. Die Leistung wird nach wie vor mit

Damit ist man mindestens so schnell wie ein Stock 10900K System was Games angeht.

Dass sowohl SSD als auch GPU mit PCIe 4.0 an der CPU hängen ist auch gut.

Edit: teilweise schert die Sache schon etwas aus. ZB Anno 1800, wenn man sich da 4K altes Testsystem zu neuem anschaut schrumpft der Abstand der GPU zusammen, das spricht eig etwas für CPU Limit.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn
Meiner Meinung nach etwas schwach der Test-Parcour. Sehe ich das richtig, dass da kein einziges UbiSoft Spiel mit Dunia Engine mit drin ist? Und warum ist mit AnvilNext Engine nur der denkbar schlechteste Vertreter in Form des lazy/buggy, relativ schlecht portierten GR Breakpoint da drin anstatt zuzüglich oder alternativ noch AssCreed Origins und/oder Odyssey? Und wirklich kein einziges Frostbite Spiel (wo ist BF V)? Auch kein einziges CryEngine V Spiel? Insgesamt meiner Meinung nach in Sachen Verbreitung der jeweiligen Engines eine etwas unausgewogene Auswahl...
 
  • Gefällt mir
Reaktionen: stevefrogs und 5hred
Dito, wäre schon nice, anhand von Engine-Vertretern (Spielen) zu sehen, wie gut sich eine GPU-Architektur mir einer speziellen Spiele-Engine verträgt. So könnte man vielleicht eine bessere Kaufentscheidung für die Zukunft treffen, wenn man z.B. FarCry-Fan ist und die eine GPU deutlich besser abschneidet als die Konkurrenz. Ich bezweifle, dass Spiele-Entwickler eine Engine für GPUs so optimieren, dass Leistungsunterschiede ausgebügelt werden, also Gleichstand herrscht. Und kommende Spiele auf Basis der gleichen Engine (klar, hier und da werden stets Optimierungen und Änderungen durchgeführt) könnten sich dann potentiell ähnlich verhalten wie der Vorgänger. Muss natürlich nicht zutreffen, wäre aber ein Indiz...

@Glyphus Daher plädiere ich für einen baldigen Test nach dem release der NAVI2, wie sich die Bildqualität bei den im Test "Ampere vs NAVI2" verwendeten Treibern verhält. Nicht, dass ein Hersteller da "Optimierungen" vorgenommen hat, die eventuell nur im Standbild auffallen würden (anisotropisches Filtering sollte man sich genauer anschauen und die Farbtiefe; werden genauso viele Farben dargestellt oder findet eine "Komprimierung der Farbpalette" statt, sodass Daten schneller und weniger Speicher füllend abgearbeitet werden. Also einfach mal gucken, ob NV und AMD sauber spielen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: mydayyy
Wurde bestimmt schon das ein oder andere mal erwähnt: Imho gehören in nen guten vergleichstest auch ein paar etwas ältere Karten rein damit Käufer, die nicht jede Generation mitgehen, einen brauchbaren Vergleich haben.
In der Fall hier wäre eine GTX1060 und evtl. noch eine eine GTX960 aufgrund der sehr hohen Verbreitung der Karteb imho hilfreich gewesen.
Auch ein Low-End-Karte a la GTX 1650 ist imho für den ein oder anderen Fall sehr hilfreich.
 
  • Gefällt mir
Reaktionen: Londo Mollari, nighteeeeey, StuffedLion und 2 andere
Ich kauf mir jetzt einen 340Hz 21:9 Monitor (den es nicht gibt), dann kann ich sowohl über die CPU als auch über die nicht getesteten Auflösungen jammern! :p

Aber mal im Ernst. Ich kann die Entscheidung für das PCIe4.0 System sehr gut verstehen. Auch wenn die paar Prozent fehlen, so ist man in Zukunft gerüstet falls man die frei gewordenen Lanes für Dual GPUs oder schnelle NVME Drives benötigt, letzteres auch im Hinblick auf die neuen Konsolen. Ausserdem ist der Intel Vorsprung möglicherweise bald eh weg. Dann kann man das System bequem aufrüsten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: 5hred
@RogueSix
Ohne die vorangehenden 28 Seiten gelesen zu haben, wollte ich gerade das Gleiche monieren. Natürlich sollte bei der Auswahl der Titel für den Parcours ausschlaggebend sein, dabei einen realistischen Querschnitt der Hardwareanforderungen aktueller Spiele abzubilden. Andererseits wundert es mich, dass weder AC noch FC als recht beliebte Titel vertreten sind, wobei ja gerade ersteres zuletzt auch durchaus fordernder geworden ist, als man das jahrelang gewohnt war.
 
Wolfgang schrieb:
Trackmania ist ein forderndes Spiel und zudem mal was gänzlich anderes, was das Spiel selbst und die Engine betrifft. Daher finde ichs eigentlich ganz cool, dass sowas mal drin ist. Die Ergebnisse sind aber zweifelsohne etwas einseitig.
Auch wenn es was gänzlich anderes ist, ein grafisch mittelmäßiges, schlecht optimiertes Spiel hat in einem Grafikkartenbenchmark eigentlich nichts verloren. Da macht ihr euch unnötig zu viel Arbeit.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und stevefrogs
Habe nochmal insb in 4k etwas querverglichen, also Rangliste Einzelbenchmarks zu neuem Testsystem. Bis auf einzelne Ausreißer sind die Unterschiede vertretbar.
 
HAAALT STOPP! Gab es nen Patch für HZD der die Vega Performance verbessert hat? Sieht auf einmal viel besser aus für die V64.
 
  • Gefällt mir
Reaktionen: stevefrogs und Colindo
Puh.. es sollte alles mitgetestet werden, was als Feature vorhanden ist. Sonst kann man keine Produkte vergleichen. DLSS bring +30 FPS in game X für Nvidia? Fair enough, AMD hat halt nichts. Ist so.
 
Das würde nur Sinn machen, wenn viele kommende Spiele DLSS implementiert haben und die Umsetzung qualitativ mindestens auf dem Niveau der nativen Auflösung ist unter welcher die AMD GPU getestet wird.
Sonst wäre das ein Test mit verzerrten Ergebnissen. So sollte man DLSS gesondert betrachten im Einzelfall. Gibt ja sehr wenige Spiele, die das einsetzen und erst ab DLSS 2.0 ist es von der Qualität überzeugend.

Ist natürlich eine Diskussion wert ob DLSS als Hersteller-exklusives feature einem Test hinzugezogen werden darf wenn die Konkurrenz sowas nicht bietet. Man könnte vielleicht mal demnächst nach NAVI2-release dem AMD feature set auf den Zahn fühlen und mal testen wie sich Radeon Image Sharpening zu DLSS 2.0 verhält. RIS soll ja sehr gute Ergebnisse liefern, wenn man auf einem 4K panel die interne Spieleauflösung auf 75% (oder waren es 78% runterschraubt). Optisch fast kein Unterschied zur nativen 4k-Auflösung. Bei deutlich mehr Performance.

AMD hat eben einen anderen technischen Ansatz um dem Gamer mehr Performance zu geben. Wenn ich mich nicht irre, soll RIS bessere Ergebnisse auf einem 4K panel liefern als auf einem 2K panel.
Als AMD GPU-Besitzer müsste es doch Sinn machen, sich ein 4K-Monitor zu holen und bei den fordernden Spielen einfach RIS zu benutzen. Techspot hat dazu bisher 2 sehr aufschlussreiche Tests veröffentlicht.
Wäre super, wenn sich CB mit NAVI2 mal auch das RIS feature näher anschaut und ob es seitens AMD eine adäquate Alternative zu NVs DLSS 2.0 darstellt (also bei deutlich mehr Performance ein sehr gutes Bild liefert).
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Das einzige Spiel was aus dem Testparcours fliegen sollte ist Anno. Sorry Anno war schon immer Intel Domäne (vermutlich hengt Anno am Cache wie der Junkie an der Spritze?!).
Wenn ihr über die letzten Jahre nur Anno ran zieht hat AMD heute noch eine sch... CPU.. Da gab es keine wesentliche Besserung... Ok vielleicht von Schrott zu schlecht...
Auch sind die Unterschiede so eklatant das sie in meinen Augen das Performance Rating verzerren... Bei 8 getesteten Spielen macht so eines schon viel aus...
Ich wiederhole auch meine Forderung @Jan fragt mal im Sinne des kritischen Journalismus nach bei den Entwicklern wieso sie es nicht hin bekommen Anno auch sauber auf AMD Prozessoren zum laufen zu bekommen....

Na ja wenn meine Vermutung mit dem Cache stimmt könnte ja mit Zen 3 eine weitere Besserung kommen...
Und dann gibt es hier noch Trolle die Anno in die Diskussion werfen... :daumen::utpulsegun::utbiorifle::utminigun::utrocket:
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Könnte ich Erfahrung bringen warum ich 4x 8GB RAM einbaut anstatt zwei 16 GB Riegel ?
Dachte die AMD CPUs Arbeiten im DualChannel besser ?
 
  • Gefällt mir
Reaktionen: Thorque
Thares schrieb:
Dachte die AMD CPUs Arbeiten im DualChannel besser ?

4x8 Ist auch Dual-Channel. Sogar dual Rank in diesem Fall. Das ist nicht langsam.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, Esenel und McTheRipper
Zurück
Oben