Test 3DMark Time Spy: Bestenliste mit über 100 Gra­fik­kar­ten (GeForce, Radeon, Arc)

Nahkampfschaf schrieb:
Bei den meisten Benchmarks findet man maximal noch die letzte Generation mit im Vergleich.
Aber eine RX580 gegen eine RTX 4090 antreten zu sehen, das brauche ich ab und zu dann doch.
Aus dem Abstand der beiden GPUs in Timespy kann man aber halt recht wenig für richtige Spiele ableiten
 
NikkyD schrieb:
Meine 1660 Super tut was sie soll seit bald 5 Jahren. Wenn ich mir anschau wieviel Geld mich eine Verdoppelung der Leistung oder eine Vervierfachung kosten würde... wir sind über den Punkt hinaus an dem ein Aufrüsten wirklich noch lohnt. Eine 4060 Ti hätte nur 217%, das sind 3 Generationen!
Eine 1660 Super ist eine RTX2xxx Architektur und dazu noch der Refresh. Die ist nicht 3 Generationen veraltet, sondern nur 2. Betrachtet mal DLSS, FG und Raytracing, sowie Ray Reconstruction hat man je nach Setting durchaus größere Leistungssprünge oder auch bessere Bildqualität oder ein Kompromiss daraus.

Die Vergleiche ohne diese Features mit Blickwinkel auf reines natives Rasterizing ist mittlerweile durchaus Diskussionswürdig. CB betrachtet bei Spieletechnik Tests ja durchaus DLSS/FSR mit.

Ich schalte heute mit der 4090 DLSS immer an, wenn verfügbar und zwar nicht wegen der Leistung(saufnahme) sondern wegen der Bildqualität.
gidra schrieb:
Meine damalige GTX 1080 hatte 8.400 bei 1.9 GHz. Jetzt die 6900XT, etwa knapp 22.000. Ich habe da aber so meine Zweifel, dass die 6900XT in Spielen tatsächlich um Faktor 2.5 schneller ist. Viel wichtiger ist doch die Kühlung. Es muss möglich sein, die Karte dauerhaft bei 85-100 % Auslastung betreiben zu können.
Bin von einer GTX1080 auf eine RTX3090 umgestiegen und der Sprung war in der Regel ein Faktor von 2,2. Das kommt schon hin.
Wobei mich interessiert, ob die Klasse 6900XT/RTX3090 auch schon nicht mehr sauber skaliert, aufgrund von CPU Limit.
 
Ich kann eh nur mit harten FPS was anfangen die APU's schneiden auch immer gut ab aber alte Karten mit eigenem Speicher sind dann halt doch konstanter .
 
Ich fände die Ergebnisse der internen Grafikbeschleuniger, insbesondere die der aktuellen APUs von AMD, noch ganz interessant.
 
Ist ja meine 3080Ti gar nicht so schlecht...
 
Der AMD Ryzen 6900HX mit iGPU 680M im Beelink SER6 Version 2024 Mini PC schafft im Time Spy Test 2770 Punkte. Ist zwar nicht viel aber na ja dafür ist der kleine PC auch sehr platzsparend.

1721126422074.png
 
  • Gefällt mir
Reaktionen: Alex1980 und Desoxy
@gidra

Alles was oberhalb der TDP des Herstellers passiert ist sowieso overclocking bzw out of spec - du sagst es sogar selbst, dass dies die Taktraten erhöhen würde. Was Costumkarten können oder manuelles OC/Feintuning kann, kann jeder selbst nachschauen in den Ranglisten bei 3dmark.com
Hat nichts mit unfair zu tun. Ist nicht mal im Ansatz ein Diskussionspunkt was diesen Artikel angeht.
 
Irrlicht_01 schrieb:
An die Leute, die hier ihre 4090 Ergebnisse posten (oder auch von anderen Karten):

Ja natürlich geht da mehr, aber hier geht es um die Stockwerte, also wie bei einer FE bzw Referenzkarte.
Man kann jede Karte übertakten - das hat dann aber nichts mit Vergleichbarkeit zu tun. Der Test ist kein Schwanzvergleich...

Und gerade bei einer 4090 ist sehr viel Luft nach oben.
Aber irgendwie scheinen die Werte für die 4090 doch ein wenig gering zu sein.
Meine macht knapp 36k Standard und jetzt (2625MHz max / 360W PL / UV / 2750 (11000) MHz Memory statt 2625 (10500) MHz) noch 34.5K.

gidra schrieb:
Doch bei AMDs 6er und 7 Reihe sind die Karten künstlich durch die TDP Begrenzung limitiert. Das hat nichts mit Übertakten zu tun, sondern lediglich an den Referenzkühler angepasste Wärmeabgabe. Gerade bei Time Spy mit der extremen Tesselation der Shader ist die TDP schnell erreicht und die Karte muss drosseln. Das haben Nvidia Karten nicht? Also ist es schon unfair.
Ja, genau das hatte ich bei meiner 6800XT vorher auch.
Mit UV hat die nochmal einiges an Takt und Leistung zugelegt und dabei die gingen die Temps sogar n gutes Stück runter.
 
Irrlicht_01 schrieb:
Hat nichts mit unfair zu tun. Ist nicht mal im Ansatz ein Diskussionspunkt was diesen Artikel angeht.
Klar, du antwortest extra, um zu betonen, dass es keine Antwort bedarf.
Würde man Superposition Benchmark zum Vergleich nehmen, dann wäre es irrelevant. Die Belastung bei Time Spy entspricht aber nicht der üblichen Belastung beim Spielen. Würde man den 6er und 7er Karten von AMD die TDP für die Dauer des Benchmarks freigeben, dann könnten die sich ein halbes Dutzend Zeilen nach oben in der Position verschieben. Wie kann das denn nicht relevant sein, wenn es hie um eine direkte Konkurrenz geht?
 
Exakt, ich antworte um mitzuteilen, dass es keiner Diskussion bedarf. Ich finde es toll, dass du das vestehst.

Wenn man sich beschwert, dass es unfair ist, dass die 6000er und 7000er in inr ihr Powerlimit rennen, kannst du genauso gut argumentieren, dass eine 4090 locker 36k macht ohne ihr Powerlimit zu überschreiten, wenn man sie entsprechend anpasst.
Es geht um Stockwerte im Timespy im Artikel - Werte wie sie vom Hersteller festgelegt wurden. Daher gibt es da nichts zu argumentieren, denn beides ist irrelvant da OC. Dass es in der Gaming-Realität durchaus anders aussehen kann verstehe ich als Arc 770 Besitzer.

Allerdings verstehe ich nicht, warum man hier nicht den neueren Steel Nomand herangezogen hat....
 
Zuletzt bearbeitet:
Ich warte am allersehnlichsten auf einen Vergleich zwischen der RTX 4090 und der RX 7900 XTX in punkto Leistung zu Effizienz.
Mich würde es brennend interessieren wie eine max UV 4090 mit FPS Limit + DLSS Quality und Raytracing Off in 4k im Vergleich zur RX 7900 XTX mit FSR, FPS Limit, Raytracing Off und entsprechenden Effizienz fördernden Einstellungsmöglichkeiten aussähe und wie groß der Performance Unterschied in den Spielen wäre. Ich denke bei beiden kann man eine echt gute Spieleperformance in 2k-4k erreichen bei sehr guter Effizienz...ich selbst nutze die 4090 so wie oben angegeben bei 4k(+DLSS Quality) meist ohne Raytracing, FPS limit auf 115 FPS beim 120Hz OLED C1 65 Zoll und bin von der heftig guten Effizienz einfach nur hin und weg! In kaum einem meiner Spieler saugt die 4090 mehr als 200 Watt!!😁
 
Der Unterschied zw. TS und realen Games wird wohl in der Effizienz MHz/W am meisten auffallen.
i.d.R. geht in den meisten Raster-Games der selbe Takt mit weniger Watt

Das Exemplar der 6800 von CB läuft im TS aber ein ganz Stück schlechter als bei PCGH.
(OK, ... Treiber ist sicher unterschiedlich, hätte aber nicht gedacht, das soviel Diff. sein kann, ... SAM=off?)

mit etwas UVen+VramOCen liege ich dann schön zw. PCGH und CB
(mein 24/7 mit weniger Watt, .... in Games würden dann meist noch 15W weniger reichen, weil der TS halt W frühstückt)
 

Anhänge

  • TS@145W.JPG
    TS@145W.JPG
    218,9 KB · Aufrufe: 5
Zuletzt bearbeitet:
Zurück
Oben