Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

Zen 1 hatte bei Vollbestückung manchmal Probleme. Alle weiteren ryzen nicht mehr. Trotzdem hält sich der Mythos hartnäckig :D
 
  • Gefällt mir
Reaktionen: adAstra, Onkel Föhn und McTheRipper
Colindo schrieb:
Die Radeon VII kann doch gar kein Raytracing... :freak:
Und das ist die absolute Leistungsangabe. Nach mehrfacher Nachfrage, ohne Leistungsangabe, muss es wohl stimmen.
Meiner Meinung nach, hat ATI schon seit sehr langer Zeit, kein Konkurrenzprodukt heraus gebracht. Stets angekündigt, jedoch auch stets am Ende, nie wirklich zur der Spitze gereicht. Sowohl bei CPU als auch bei GPU. Beinah, aber nie in Führung. Wenn die meisten Anwendungen, daraus entsprechend, auf Intel und Nvidia optimiert sind, hätte man auf die Leistung bedacht, auch stets Intel oder Nvidia kaufen müssen. Habe Asrock X370 Taichi und GTX 780.
Und bei ATI hat man inzwischen keine Probleme mit den Treibern, nein das stimmt nicht....
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Colindo
Ned Flanders schrieb:
4x8 Ist auch Dual-Channel. Sogar dual Rank. Das ist nicht langsam.
Ohhh , das wusste ich nicht , ich las immer das man immer nur zwei Stück einbauen sollte wegen den Performance gründen .
 
Thares schrieb:
Unnötiges Komplettzitat entfernt
Wie gesagt. Bei Zen 1 relevant, danach komplett irrelevant. ;) Und wenn man den RAM nicht optimiert war es schon immer egal.
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
  • Gefällt mir
Reaktionen: McTheRipper und Thares
PS828 schrieb:
Unnötiges komplettzitat entfernt
Wie ist es jetzt ? Muss man es immer noch optimieren ? Hatte bis dato nur Intel CPU , die Zen 3 wird mein altes Intel ablösen :)
 
Zuletzt bearbeitet von einem Moderator: (Komplettzitat entfernt)
@Thares Müssen tut man es nie. Aber bei ryzen lohnt es mehr den RAM zu optimieren als Stumpf den Takt hoch zu treiben.

Vollbestückung ist kein Problem wenn man sowas braucht. Gibt's nichts zu beachten. Selbst meine Threadripperplattform mit 8 dual Rank modulen lief beim ersten mal. Klar gehen Takt und Timings noch besser, aber es läuft einfach und das ohne RAM Fehler.
 
  • Gefällt mir
Reaktionen: McTheRipper
jetzt kommen endlich die Grafikkarten damit man im CPU Test deutlich weniger im GPU Limit benchen muss, was den Abstand von Intel vergrößern würde und ihr kastriert die 3090 mit nem Ryzen und erzeugt unnötige CPU Limits im Benchmark.

Hauptsache AMDbase ist glücklich, dass 1 Intel wieder weniger in einem System rumgeiert. Für einen objektiven Test zur Leistungsfähigkeit der Karten muss einfach ein 9900 K(S)/10900K mit wenigstens 3200er RAM als Basis genommen werden. Und wegen PCI-E 4.0 könnt ihr immer noch seperat testen wie groß der Unterschied tatsächlich ist.
 
  • Gefällt mir
Reaktionen: thuNDa
Kann dieser Thread nicht geschlossen werden? Echt jetzt, Intel vs AMD, Nvidia vs AMD..

Das Beste wäre, man nimmt noch die iGPU's von AMD und Intel in zukünftigen Tests mit hinzu.

Alles in Allem an alle Fanatiker: der Großteil der Masse wird weder diese Top- CPU's noch jemals solch eine Top- Graka besitzen.
Vielleicht in 2 Jahren, wenn sie auch für Normalo's erschwinglich sind.
Und bei allem Respekt: all die Hardware heuer ist so leistungsfähig, wenn ich damals an meinen ersten PC und Unreal denke :-)
Erfreut euch dran, wer weiß was in 20 Jahren möglich ist.
 
Glyphus schrieb:
Ich bin dann dafür, dass sinnlose Einstellungen wie über ultra mega weiche Schatten auf Radeon deaktiviert werden - Wenn die Qualität vergleichbar ist und die FPS stark steigen, sollte man die Option ja auch verwenden, oder?
Wenn man nicht erkennen kann ob es sich um Hoch oder Ultra handelt oder Hoch sogar besser aussieht, klar könnte man dann auf Ultra verzichten. Es ist aber auch eine andere Sittuation, da viele sicherlich gerne erst einmal alles ein bzw. auf max stellen.

Glyphus schrieb:
ich bin der Meinung, dass man nur direkte Vergleiche machen kann wenn die gleichen Vorraussetzungen gegeben sind. DLSS als Feature kann ja hervorgehoben werden. Aber wenn ich die Rohleistung der Karten vergleichen will, sollte so ein Feature deaktiviert bleiben. Was die Leute zu Hause in ihren Settings einstellen ist ja jedem selbst überlassen.
Und was will man sehen wenn man sich einen Benchmark zu einem Spiel ansieht? Die Rohleistung oder die Leistung in dem Spiel?
Darüber hinaus gibt es ja immer noch Vergleiche für Spiele ohne DLSS und Synthetische Benchmarks.

Vielleicht hatte ich mich auch schlecht ausgedrückt, ich meine das so:
1599795479177.png

Alles wie bisher, nur dass DLSS (ohne RT) mit aufgenommen wird.
 
Averomoe schrieb:
...Gegensatz zu anderen Seiten testet ihr immernoch nicht als 4. Auflösung die immer mehr verbreiteten 3440x1440. Warum? Nicht nur ich würde mich darüber freuen.

Weil es scheinbar den Aufwand nicht lohnt diese Nischenauflösung (16:9 ist immer noch Standard) mit zu testen bzw. es nicht im Verhältnis zum Aufwand stehen dürfte.

Freu Dich doch, dass andere Seiten es anbieten und bei CB wird dafür auf anderen Gebieten eben ein Schwerpunkt gesetzt, was ich persönlich auch begrüße.

So findet sich für jeden etwas irgendwo, man muss sich eben nur umschauen ;).

Einen (Sonderwunsch-)Anspruch sämtliche Spiele, Auflösungen und Konfigurationen in jedem Test geboten zu bekommen, gibt es wohl auch bei CB nicht, aber ich denke @Wolfgang und die Moderatoren werden das wohl auch (wie üblich/alle Jahre) wieder klarstellen (müssen), denn Arbeit haben sie damit ohnehin schon mehr als genug, auch wenn viele nicht müde/nimmersatt sind, immer mehr zu fordern.

Was ich eher fraglich finde, ist, daß so halbgar/ungleich umgesetzte Spiele wie Anno 1800 immer noch im Testparcours beibehalten werden, wohingegen Battlefield V weichen muss (und aktuell wohl noch kein Nachfolger in Bälde in Sicht ist, es aber ein Vorzeigtitel auch wegen RT-Raytracing Support ist im Gegensatz zu Anno 1800).
 
halbtuer2 schrieb:
Kann dieser Thread nicht geschlossen werden?

Genau sobald eine Diskussion einen gewissen Unterhaltungswert hat gleich dicht machen oder einen Moderator zwischen schalten.😴

Zum Thema abwarten und Tee trinken falls die CPU limitieren sollte wird da schon gegensteuert und für den Fall das nicht froh darüber sein das die aktuelle Schnittstelle genommen wird.

Man darf auch nicht vergessen das die Settings angepasst wurden sind in wqhd und 4k...
 
Zuletzt bearbeitet:
Bzgl der Vega Performance: die Vega ist im Vergleich zur Vorstellung näher an die 1080 rangerückt und dort auch geblieben. In Warzone bietet sie immer noch gute Performance und man bekommt sie gebraucht sehr günstig im Gegensatz zu den 1080er.
 
Cardhu schrieb:
Und ich hätte einfach gerne, dass es in den üblichen Benchmarkablauf mit aufgenommen wird.
Ich werf dir ja gar nichts vor. Dass es öfter getestet werden sollte, sehe ich ganz genauso. Aber im regelmäßigen Testablauf erhöht es einfach zu sehr den Aufwand. Oft ist bei Spieletests nur 1 Tag Zeit, bei Hardware vielleicht mal 3 Tage. Da ist es vielmehr notwendig, eine reproduzierbare Basis zu finden, und gut ist.
 
  • Gefällt mir
Reaktionen: Krautmaster
PCIe 4.0 könnte bei Ampere sehr wohl was bringen, nämlich dann wenn die Karten in hohen Auflösungen ins vRam Limit laufen.

Bei Programmen welche die GPU nutzen ist der Preformance Gewinn mit 4.0 teilweise sehr deutlich. Siehe 4.0 vs 3.0 amd 5700x video von Igor.
Viele nutzen GPUs nicht nur zum Zocken, sollte man nicht vergessen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: McTheRipper und Onkel Föhn
Banger schrieb:
Das ist ja echt lächerlich, dass Minecraft RTX auf 1440P nur lächerliche 35FPS schafft. Der Seus-PTGI-Fake-Raytracing-Shader schaffte auf meiner Karte mit aktiviertem Fake-Raytracing 45FPS und mit deaktiviertem Fake-Raytracing 55FPS.
Wenn Du den springenden Punkt schon nennst, wieso ziehst Du dann solche Schlüsse draus, nämlich das es "lächerlich" wäre. Offensichtlich sind die Versionen ja wohl nicht vergleichbar?
Schau Dir mal allein die Schatten beider Versionen an....

Glyphus schrieb:
DLSS als Feature kann ja hervorgehoben werden. Aber wenn ich die Rohleistung der Karten vergleichen will, sollte so ein Feature deaktiviert bleiben.
DLSS gehört zur Rohleistung der Karte, weil dafür eine zusätzlich in Hardware gegossene Einheit vorhanden ist, die das berechnet.
 
  • Gefällt mir
Reaktionen: adAstra, Darkscream, KlaraElfer und 2 andere
Maxxx800 schrieb:
Viele nutzen GPUs nicht nur zum Zocken, sollte man nicht vergessen.

"viele" ^^

Der Kleine Promillebereich muss auch noch den VRAM voll machen um nen Unterschied zu merken. Ggf sind aber die Ladezeiten und Frametimes mit 4.0 noch nen ticken besser.
 
w0mbat schrieb:
Toll erklärt, gutes neues Testsystem finde ich und auch die Spieleauswahl ist gut, bis auf einen Titel.

Was soll denn Trackmania hier? Das spielt doch niemand, ich hab davor noch nie davon gehört und außer, dass es nur auf Nvidia optimiert ist, gibt es nichts besonderes an dem Spiel. Wer kam denn auf die dämliche Idee, den Titel in den Test aufzunehmen?
Mhm, Trackmania scheint ja richtig beliebt zu sein hier:D
Naja, vielleicht hat das Spiel dann nur einen eher kurzen Auftritt und fliegt bei der nächsten Überarbeitung wieder raus.
KlaraElfer schrieb:
@Wolfgang
Die Lautstärkemesswerte unterscheiden sich deutlich von den alten Reviews, die RTX 2080Ti ist beispielsweise deutlich lauter geworden, die 1080Ti ist in Relation eher besser geworden.
Habt ihr die Testmethodik geändert oder verstauben die Karten einfach?^^
Die Lautstärkeergebnisse von den AMD Karten sind alle gleichgeblieben, Fehler?
Die 2080 Ti ist ein sensationelles Dezibel lauter geworden - deutlich lauter ist das wohl kaum ;)
Doom heizt mehr als das bis jetzt genutzte Metro. Da AMD-Karten eine maximale Lüfterdrehzahl haben, in das die zwei Modelle reinlaufen, können diese nicht lauter werden - die werden dann wärmer.
IBISXI schrieb:
Das "neue Testsystem" dürfte ohnehin nur eine kurze Haltbarkeit haben und nur für die Tests der neuen NV Grafikkarten taugen.
Der Plan ist, wenn alle RDNA-2-Karten erstmal durch sind (also die, die dieses Jahr kommen werden), geht es an das richtig neue Testsystem :)
Colindo schrieb:
@Wolfgang Ich habe auch nochmal die Wiedergabe auf Youtube in 4k@60 getestet. Geht butterweich im Firefox. Grafikkarte ist eine Vega64.
Mhm. Wenn etwas Zeit ist, muss ich mir das dann wohl nochmal angucken.
Syrato schrieb:
@Jan wie ist das mit "Dauerleihgaben", behaltet ihr alle oder gehen die, wenn sie auch irgendwelchen Gründen nicht mehr gebraucht werden, zum Hersteller zurück?
Dauerleihgaben sind Dauerleihgaben, die bleiben dann auch dauernd bei uns (sonst wären es ja keine Dauerleihgaben:D).
Samples, die keine Dauerleihgaben sind, gehen quasi sofort nach dem Test zurück zum Hersteller.
gbert schrieb:
Eine andere Sache betrifft Horizon Zero Dawn:
Im Test zum Spiel schneidet die Vega 64 unterirdisch ab - die 1080 FE ist in FHD 46% schneller. Im neuen Test sind die Werte für die Vega in FHD nun ganze 50% höher und auf Augenhöhe mit der 1080 FE. Auch in WQHD und UHD sind beide Grafikkarten nun auf Augenhöhe. Der Treiber der Vega ist in beiden Tests identisch (Adrenalin 20.8.1).
Hat sich die Performance im Spiel mittlerweile wirklich so stark verbessert? Die Patch-Notes zum Spiel lasen sich bis jetzt eher weniger so als ob die Patches große Performance Verbesserungen gebracht hätten.
Der letzte Patch hat so einige Karten etwas beschleunigt und Vega gleich so richtig. Das hab ich nur durch Zufall bemerkt, denn der Artikel war als der Patch kam eigentlich schon längst fertig.
Krautmaster schrieb:
Edit: teilweise schert die Sache schon etwas aus. ZB Anno 1800, wenn man sich da 4K altes Testsystem zu neuem anschaut schrumpft der Abstand der GPU zusammen, das spricht eig etwas für CPU Limit.
In Anno 1800 nutzen wir eine andere Testsequenz, die etwas mehr zu lasten der GPU geht. Die Anno-Ergebnisse sind damit nicht mehr mit dem alten System vergleichbar.
 
  • Gefällt mir
Reaktionen: bad_sign, Convert, Achim_Anders und 5 andere
Zurück
Oben