Test High-End-Grafikkarten im Test: AMD und Nvidia im neuen Testparcours im Vergleich

L3G0 schrieb:

Es wird ja von vielen gesagt, dass der VRAM bei der 3080 in 4k limitieren würde. Wenn das der Fall sein sollte, dann ist doch die AMD CPU die viel bessere Wahl, da der Intel mit PCIe 3 hier die Karte nur ausbremsen würde.

Und ich persönlich ziehe dann höhere fps in 4k denen in 1080p vor. Aber jeder wie er es gern hat.
 
xexex schrieb:
Direct Storage wird ja bei der Xbox verwendet und ist Bestandteil von DirectX. Ich glaube nicht, dass die Unterstützung der API auf dem PC, spieleseitig so lange auf sich warten lässt.

Dann einfach den Artikel von CB lesen ;-)

Nächstes Jahr erhalten Entwickler eine Vorschau
Wie Andrew Yeung im Entwicklerblog von Microsoft schreibt, wird die DirectStorage-API auch für Windows-PCs als Feature von DirectX kommen. Allerdings wird dies deutlich später als auf der neuen Xbox sein: Nächstes Jahr soll zunächst eine „Development Preview“ von DirectStorage für Spielentwickler veröffentlicht werden, ein Termin für die finale Fassung als Teil von Windows 10 wurde noch nicht genannt.

https://www.computerbase.de/news/gaming/microsoft-directstorage-windows-pc-api-xbox-series-x.73403/
 
@xexex
Genau das habe ich ja gesagt.
2021 Vorstellung für die Entwickler am PC.
Also mit Glück 2021 Spiele aufm PC mit der Technik.
Aber realistisch erst 2022.

Oder siehst du das anders?
 
@Taxxor Vorab:
Danke dir für die konstruktive Diskussion.

In dem Test hier steht: "Full HD ist keine Auflösung, für die es eine High-End-Grafikkarte benötigt, und daher für die kommenden Grafikkarten recht uninteressant"

Macht also (aus Wolfgangs Perspektive) wenig Sinn, die Karten in fullhd zu nutzen und da hat er imo gute Gründe für...

Und dazu ist der Vorsprung im neuen Test in anno in fullhd 15% und in UHD 18%.. das ist fast eher messungenauigkeit...
Trotzdem wäre eine GPU Auslastung unter 95% imo zu deklarieren, um Transparenz bim Ergebnis zu behalten.

Halten wir für anno fest: entweder hat das spiel nichts im GPU Benchmark zu suchen, die ausgewählten szene ist vielleicht gar nicht CPU Limitiert, weder mit 3900x noch mit i9 10900k oder aber intel erhöht in dem einen Spiel den reltaiven Unterschied der GPU um 3%.

Diese drei % wiederum haben nur nicht wirklich eine Auswirkung auf das Gesamtergebnis des Leistungsindex...

Kann man anders sehen und bewerten, tun aber bspw. weltweit ~3/4 der Hardware unboxed Zuschauer auch nicht... Bei über 60.000 Stimmen wollen 83% PCIE4 im testsystem sehen...

Computerbase Entscheidung ist also auf vielen verschiedenen Ebenen verständlich.
 
  • Gefällt mir
Reaktionen: Londo Mollari und Smartbomb
Achim_Anders schrieb:
In dem Test hier steht: "Full HD ist keine Auflösung, für die es eine High-End-Grafikkarte benötigt, und daher für die kommenden Grafikkarten recht uninteressant"

Macht also (aus Wolfgangs Perspektive) wenig Sinn, die Karten in fullhd zu nutzen und da hat er imo gute Gründe für...
Seine persönlichen Gründe sind aber nicht allgemeingültig, wenn ich in Ghost Recon Breakpoint nun 120fps in Ultra Settings will? Dann werde ich eine 3090 holen und in FHD spielen, denn selbst die 2080Ti schafft hier gerade mal 80, daher wären hier die FPS in 1080p schon relevant.
Wie ein Kollege aber schon festgestellt hat, hat ein 3900X Probleme, in dem Spiel 120fps zu halten, also würde selbst bei diesem sehr GPU Lastigen Titel die CPU Limitieren, wenn eine 3090 50% stärker als eine 2080Ti wird.


Achim_Anders schrieb:
Und dazu ist der Vorsprung im neuen Test in anno in fullhd 15% und in UHD 18%.. das ist fast eher messungenauigkeit...
Lesen wir den gleichen neuen Test?
Screenshot 2020-09-12 184156.png

Screenshot 2020-09-12 184143.png


In UHD sind es 19%, das ist dann Messungenauigkeit im Vergleich zu 1440p

Achim_Anders schrieb:
Trotzdem wäre eine GPU Auslastung unter 95% imo zu deklarieren, um Transparenz bim Ergebnis zu behalten.
Da bin ich bei dir, auch wenn unsere Grenze in CX aktuell bei 97% gesetzt ist, um als GPU Limitierter Abschnitt zu zählen.
Es gibt auch Spiele die schon bei 95% GPU Limitiert sind, aber auch welche, die es erst bei 99% sind, und irgendeinen Wert mussten wir nehmen^^
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, .Sentinel., KlaraElfer und 2 andere
Esenel schrieb:
Oder siehst du das anders?

Bei Spielen die rein für den PC gemacht werden bin ich bei dir. Spiele die für mehrere Plattformen hergestellt werden, werden ja bereits jetzt API auf der Xbox nutzen und dürften mit der Einführung der API auf dem PC, diese relativ zeitnah unterstützen.
 
GUN2504 schrieb:
Der 3900XT ist doch ideal. In Games sehr gut, in Anwendungen Spitze!

Was nützten mir denn hier Intel Hochleistungsfrequenzkerne die nach 56 Sekunden bei Last massiv runterdrosseln?

Wer kauft sich eine 600€ CPU und schaltet nicht das Powerlimit ab?
 
Der Preis hat rein garnichts damit zutun was Käufer mit ihrer CPU machen. Viele kaufen sich einen Prozessor und wissen nicht Mal wie man anständig das xmp Profil im BIOS aktiviert
 
  • Gefällt mir
Reaktionen: stevefrogs, Celinna, Smartbomb und 2 andere
Taxxor schrieb:
Nein sie ist nicht schnell genug dafür, was du alleine schon daran siehst, wie viel näher die Karten in 1080p und teilweise auch 1440p jetzt schon mit der 2080Ti als beste Karte rücken.

Und noch besser siehst du es an der Tatsache, dass die Tests, um die CPU zu testen, mit einer 2080Ti in 1080p gemacht werden. Würde man hier immer im GPU Limit liegen wären die CPUs im Ranking alle gleich schnell.


Wieso? Weil niemand mehr als 60fps braucht?
Und hier gilt das gleiche wie auch beim CPU Test: Mache ich einen GPU Test, dann möchte ich die Leistung der GPU sehen, ohne Limits durch die CPU.
Das funktioniert je nach Spiel auch mit einem 10900K und RAM OC nicht immer, aber sehr viel öfter als mit einem Stock 3900XT.

Du hast vollkommen Recht wenn es um das "usecase" beim Endanwender geht aber nochmal, GPU Bench "soll" ja die (neue) Grafikkarte am Limit testen mit all dessen neuen Fähigkeiten und angepriesenen Technologien um dessen max Potenzial zu ermitteln und da ist es wie bereits geschrieben, zweitrangig welche CPU (hauptsache die neuesten Technologien) weil eben GPU Limit angestrebt wird, deswegen läuft der 3900XT ja auch auf Stock. Auch wichtig für einen modernen Benchrechner sind die state of the art Technologien wozu eben auch PCI-E 4.0 (und das neue "FHD" Standard 4K) gehört, was Intel eben nicht bietet.
Da auch Compute und Semi Pro Tests von CB mit den Karten angeündigt wurden, gibt es keine Intel Alternative. Gerade dann bekommt PCI-E 4.0 und die vielen Kerne eine ganz andere Bedeutung.
Einfach abwarten. Die von CB haben sich da schon Ihre gedanken gemacht und haben Gründe wieso und warum.
Sicher auch die kommenden neuen Konsolen haben zu der Entscheidung geführt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Achim_Anders
ro///M3o schrieb:
GPU Bench "soll" ja die (neue) Grafikkarte am Limit testen mit all dessen neuen Fähigkeiten und angepriesenen Technologien um dessen max Potenzial zu ermitteln und da ist es wie bereits geschrieben, zweitrangig welche CPU weil eben GPU Limit angestrebt wird.

Fällt dir der Widerspruch hier überhaupt nicht auf?

Wenn ein GPU Limit angestrebt wird, dann muss die verwendete CPU so stark sein wie nur irgendwie möglich, ansonsten kommt einem eben das CPU Limit immer wieder dazwischen.

2080Ti erreicht in einem Spiel 90fps
Wenn CPU A in diesem Spiel auf 100fps kommen kann, CPU B aber auf 120 kommen würde, dann ist CPU A nicht geeignet, um damit neue GPUs am Limit zu testen die 110fps erreichen können.

Und da nützt es dir auch nichts, wenn die neue GPU mit PCIe auf 110 und mit PCIe 4.0 auf 115 fps kommen würde, CPU A limitiert sie so oder so auf 100.
 
  • Gefällt mir
Reaktionen: .Sentinel. und incurable
Taxxor schrieb:
Fällt dir der Widerspruch hier überhaupt nicht auf?...

4K, Max Detail, RTX > CPU Scheißegal ob 10900K oder 3900XT... Wo ist der Wiederspruch?

Bei den Karten kannst bei FHD von mir aus nen Intel mit 6GHZ rein packen und der wird dir ins CPU Limit rennen. Was hast du da jetzt getestet? Bei wieviel Frames der CPU Limit erreicht ist? Was sagt das dann über die Karte in einem !GPU! Bench aus?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartbomb
ro///M3o schrieb:
4K, Max Detail, RTX > CPU Scheißegal... Wo ist der Wiederspruch?
Dass es auch Leute gibt die wissen wollen, wie sich die GPUs in 1080p oder 1440p verhalten? Oder meinst du jeder Käufer einer 3080 spielt in 4K mit unter 100fps?
Dann kann man die Tests ja direkt weglassen und nur noch 4K testen, denn die Ergebnisse unterhalb von 4K sind dann mit der langsameren CPU als GPU Test nicht mehr komplett verwertbar.
 
  • Gefällt mir
Reaktionen: adAstra, .Sentinel., KlaraElfer und 2 andere
Supermax2004 schrieb:
Dann lesen die 4k Leute den Test hier, 1080p Gurus woanders.
Guter Vorschlag, wieviel % der CB Leser interessiert 4K?
Nach der letzten Umfrage 13%
 
Keine Ahnung, wer auf Grafik steht, will 4k. Eine neue starke Grafikkarte steht auch immer für bessere Grafik. Die Prozentzahlen kenne ich nicht, du?
Da könnte es ja mal eine Umfrage geben.
 
  • Gefällt mir
Reaktionen: Celinna
Supermax2004 schrieb:
Keine Ahnung, wer auf Grafik steht, will 4k. Eine neue starke Grafikkarte steht auch immer für bessere Grafik.
Wenn es darum geht damit auch ordentlich FPS zu erreichen, ziehe ich 1440p Ultra jederzeit 4K Medium vor.
In erster Linie upgrade ich die GPU, wenn ich mehr FPS möchte da diese mit der aktuellen Karte zu weit runtergegangen sind und ich zuviele Abstriche bei den Settings machen müsste.
Und wenn man sieht wie viele Spiele hier im Test mit der 2080Ti auf 30-40fps in 4K kommen, dann würde ich auch mit einer 3080 lieber bei 1440p bleiben.
Supermax2004 schrieb:
Die Prozentzahlen kenne ich nicht, du?
Da könnte es ja mal eine Umfrage geben.
https://www.computerbase.de/artikel...019.70231/#abschnitt_die_fragen_im_ueberblick

1080p und 1440p stellen 70% der Leser.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra, Laphonso, KlaraElfer und eine weitere Person
Taxxor schrieb:
1080p und 1440p stellen 70% der Leser.

Du scheinst zu vergessen, dass diese Umfrage 10 Monate her ist und 4k natürlich viel weniger interessant ist, wenn die einzige Grafikkarte, die für 4k Sinn macht, 1200€ kostet.

Aber ausgerechnet dieses Scenario wird ja jetzt durch diese Grafikkarten-Generation aus der Welt geschafft, indem man anscheinend diese Leistung nun für 500€ bekommt und sogar noch ca. 30% mehr Leistung für 700€.
Da macht es dann auch endlich für die große Masse Sinn, jetzt ein viel höheres Interesse an 4k zu haben.

Abgesehen davon, hat sich das Angebot für Ultrawide-Monitore bzw. 4k-Monitore u. TVs die letzten Monate stark verbessert.
Dazu kommt jetzt noch HDMI 2.1 , womit dann auch endlich 4k mit 120 Hz auf dem Fernseher zum Zocken möglich ist.

Also ich wette dass inzwischen 4k für den Großteil hier jetzt interessant und relevant ist. :)
 
  • Gefällt mir
Reaktionen: ro///M3o
Kenjiii schrieb:
Dazu kommt jetzt noch HDMI 2.1 , womit dann auch endlich 4k mit 120 Hz auf dem Fernseher zum Zocken möglich ist.

Also ich wette dass inzwischen 4k für den Großteil hier jetzt interessant und relevant ist. :)
Und die 120 Hz dann mit 50fps? Da landet man nämlich wenn man auf die 30-40fps der 2080Ti 30% draufpackt.

Also wenn man dabei auch 100+ fps haben möchte, müsste man schon stark runtergehen mit den Settings, was gleichwertig mit dem Umstieg auf 1440p voder niedriger wäre, wo dann wieder der 3900XT hier im Test limitiert.
 
  • Gefällt mir
Reaktionen: Esenel
Zurück
Oben