Test GPU-Testparcours 2020: Grafikkarten von AMD und Nvidia im Vergleich

w0mbat schrieb:
Aber auch drei UE4 Spiele sind mMn viel.
Naja das Performancerating soll ja eine möglichst allgemeine Aussage treffen, und viele der Spiele, die häufig gespielt werden, nutzen nun mal die UE4, da kann Computerbase auch nicht sagen lassen wir weg weil einseitig optimiert.
Und die Auswahl über die Engines zu gehen statt den tatsächlich meist gespielten Spielen(Dann hätten wir vermutlich manche Engines gar nicht drin) ist auch gut so, wenn es um das reine Performancerating geht.
Da interessieren nicht die absoluten FPS in Spiel X sondern einfach nur die Verteilung der Karten untereinander, und wenn man drei UE4 Spiele drin hat, kann man als Leser recht sicher davon ausgehen, dass die Karten in anderen UE4 Spielen ähnlich zueinander stehen.

Allerdings gab es doch dieses Jahr erst einen UE4 Titel, der sogar gleich gut auf AMD Karten lief, wenn ich mich jetzt noch erinnern würde, welcher das war^^
 
  • Gefällt mir
Reaktionen: nciht
Schade um die Zeit!
Es kann doch Jeder ein paar Games auswählen, die Ihn interessieren.
Damit gibts den persönlichen Performanceindex.
 
  • Gefällt mir
Reaktionen: fox40phil, nciht und GERmaximus
@GerryB sollte auch jeder so machen, denn sonst kann man auch genauso gut synthetische Benchmarks hernehmen und darauf basierend seine Kaufentscheidung treffen. Bringt halt nichts, ne GPU zu kaufen die in Spiel XY schneller ist, wenn man das Spiel überhaupt nicht spielt...
 
  • Gefällt mir
Reaktionen: incurable und GerryB
Mir fehlt ehrlich gesagt die Vega 64LC, die hat nämlich ein gutes Stück mehr Power als eine normale Vega 64, vor allem mit UV und OC kann man problemlos 10-15% mehr Leistung rausholen bei weniger Stromverbrauch und geringerer Temperatur. Meine läuft stabil bei 1795 MHz @1150mV und der Speicher bei 1100MHz bei 1V. Komme selten an die 65 °C ran (Ist in etwa die Temperatur, die die Vega 64LC bei Stock settings erreicht im Stresstest) und Power Consumption kommt im Grunde nie über die 290 Watt, in Ausnahmefällen hab ich aber schon 300-305 gesehen. Zugegeben, ich glaube ich habe ein gutes Exemplar erwischt, aber die LC Chips sind ohnehin binned.
 
Laphonso schrieb:
Ist alles eines Frage der Priosetzung im oder für das Hobby. Das ist die persönliche Bewertungsfrage und unabhängig von den technischen und tatsächlichen Ergebnissen. Die 1080Ti ist nicht mehr Teil der High fps lineups aus 2080Ti, 2080S und 2080, die zudem die RT Features haben.
Impuls zu meinem Kommentar war die lustige Idee, dass die 2000er Karten ja so schlecht aussehen gegen die Pascal lineups. Das ist kompletter Kokolores, darum ging es mir.
Ob man den Preis bezahlen will, ist eine ganze andere Frage. Mehr fps und mehr feautures haben oder nicht haben, soll jede und jeder für sich entscheiden.
Wegdiskutieren kann man die sichtbare und meßbare Entwicklung zu Lasen der Pascal Karten nicht. Thats it :)

Stimme ich dir zu.

Fairerweise muss man auch dazu sagen dass es zum Release auch schlechter aussah für die RTX Karten. Die 2080 war kein bisschen schneller und selbst jetzt mit optimierten Treibern, neueren Spielen mit drin etc. liegen wir bei 8% Vorsprung in der 2019er Rangliste. Ob ich jetzt mit 60 oder 65 fps zocke ist mir damals wie heute nicht den nahezu doppelten Preis wert gewesen.

Da war (und ist mMn) nichts was die normale 2080 rechtfertigt und die 2080 Ti als einziger echter Vorsprung ist halt preislich absolut unattraktiv selbst über ein Jahr nach Release.

Wirklich gut "aussehen" tun die Turing Karten dennoch nicht gerade wenn ich überlege wie der Boost von meiner 770 auf die 970 war und was man im Verhältnis fürs Geld bekommen hat.
 
  • Gefällt mir
Reaktionen: Laphonso
Aphelon schrieb:
@GerryB sollte auch jeder so machen, denn sonst kann man auch genauso gut synthetische Benchmarks hernehmen und darauf basierend seine Kaufentscheidung treffen. Bringt halt nichts, ne GPU zu kaufen die in Spiel XY schneller ist, wenn man das Spiel überhaupt nicht spielt...

Rein subjektiv betrachtet an nem Gsync/Freesync-Moni, sind auch viele nonShooter mit 5fps weniger spielbar.
Die olle 60fps-Forderung kann man getrost begraben.
Was bleibt übrig? Eine gute Performance in den openWorld-Shootern ist wichtig.
 

Anhänge

  • Shooter.PNG
    Shooter.PNG
    330,3 KB · Aufrufe: 359
Hätte nicht gedacht, dass die Titan RTX doch so weit vor der 2080TI FE liegt.

Die ist schon ein Monster.


Schade, dass die Karte sonst in der Übersicht nicht vorkommt bzw. getestet wurde.


ThirdLife schrieb:
Wirklich gut "aussehen" tun die Turing Karten dennoch nicht gerade wenn ich überlege wie der Boost von meiner 770 auf die 970 war und was man im Verhältnis fürs Geld bekommen hat.

Du meinst die 3,5GB schnell angebundener VRAM? Ja, das war wirklich großes Kino von NVidia. :freak:

Generell war der Sprung von Maxwell auf Pascal auch größer als der zuvor.

Aber ja, irgendwie wird's immer teurer.

Aber solange die Leute es bezahlen...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: fox40phil
Banned schrieb:
Du meinst die 3,5GB schnell angebundener VRAM? Ja, das war wirklich großes Kino von NVidia. :freak:

Generell war der Sprung von Maxwell auf Pascal auch größer.
Und ? Hat sich für mich nicht bemerkbar gemacht. Mein Problem mit der Karte war dann vor einer Weile eher, dass sie kein h265 in Hardware decoden kann.

Und ja, es gab oft grössere Sprünge, jetzt ist lediglich der Preissprung jedem im Gedächtnis geblieben. So kann man sich selbst auch der Lächerlichkeit preisgeben. Kein cooler move von nVidia.
 
ThirdLife schrieb:
Was interessiert mich ein DXR-Benchmark ? Klar dass da die neuere Architektur insbesondere mit ihrer zusätzlichen Hardware deutlich besser abschneidet.

DXR ist hierbei nicht entscheidend, aber das unterschiedliche Abschneiden der Pascal und der Turing Karten durchaus. Es ist schlichtweg Blödsinn gewesen seinerzeit den Leuten eine 1080Ti statt einer 2080 zu empfehlen, wenn es darum ging möglichst langfristig eine solche Karte einzusetzen. Der Architekturunterschied wird eben mit der Zeit umso deutlicher und mit steigender Verbreitung von DX12 wird die 1080Ti immer weiter zurück fallen.

1576672656832.png

https://www.anandtech.com/show/13973/nvidia-gtx-1660-ti-review-feat-evga-xc-gaming/2
 
  • Gefällt mir
Reaktionen: Affe007, schuetze27, Fraggball und 3 andere
Curiositea schrieb:
Mir fehlt ehrlich gesagt die Vega 64LC, die hat nämlich ein gutes Stück mehr Power als eine normale Vega 64, vor allem mit UV und OC
Das mag für Dich persönlich interessant sein, besitzt aber auf die Leserschaft von Computerbase gerechnet keine praktische Relevanz.
 
amorosa schrieb:
Das dann zwischen z.B. 1890mhz und 2010mhz nur 2-3FPS mehr(aber 50W und 5°mehr) liegen, scheint egal zu sein.

Meine 2070S läuft im Sweetspot. Deutl. angenehmer das ganze. Weniger Verbrauch, weniger Abwärme und vor allem : LEISER !

Absolut. Habe eine RX 5700 im Referenzdesign für 269 Euro geschossen. Takt um 30 MHz gesenkt auf 1670 MHz, läuft seit Release bei knapp unter 1000 mV. Höchsttemperatur am Kern ist 68 °C, Junction 76 °C. Säuselt leise vor sich hin. Drei Prozent Mehrleistung bei 90 °C - darauf kann ich gut verzichten.
 
  • Gefällt mir
Reaktionen: schuetze27 und amorosa
Banned schrieb:
Hätte nicht gedacht, dass die Titan RTX doch so weit vor der 2080TI FE liegt.

Die ist schon ein Monster.

Ja die Karte ist ein Monster.
Einziges Problem das PowerLimit, welches man nicht per Software überschreiben kann.

Da hilft es nur einen Widerstand dran zu löten.
Tut man dies nicht, ist die 2080Ti schneller.

Man zerstört aber definitv Performance/Watt. :freaky:
 
ThirdLife schrieb:
Nun, in 4K laut Guru 3D steht es 60 zu 76 fps. Beides mit Referenzkarten. Und das ist jetzt ein Grund wie gesagt nochmals 1000€ draufzulegen ?

Nehmen die immer folgendes Setup?
CPU von denen:
Core i7 5960X (Haswell-E) 8c/16t @ 4.2 GHz

ThirdLife schrieb:
Ich hab 480€ gezahlt für eine drei Monate alte Karte, eine Waterforce kostet das Dreifache. 26% mehr Leistung - 300% Preis.

Ah ja, daher weht der Wind. Das ist schon kein Äpfel mit Birnen Vergleich mehr, denn Obst ist sich ähnlicher als dein Vergleich.

ThirdLife schrieb:
Schön was du prognostizierst was alles passieren wird aber noch nicht tut.

Also regelmäßig kannst du auf CB nicht unterwegs sein....

ThirdLife schrieb:
Es steht ausser Frage dass es die bessere Karte ist - nur zu welchem Preis ? Und ist es sinnvoll sie JETZT zu holen ? Das ist die Frage. Die muss ich leider verneinen.

Für dich!

ThirdLife schrieb:
Ich habe vor mir als nächstes ein 5120x1440p Panel zu holen und da wirds auch mit einer 2080 Ti schwierig so einen Titel zu spielen.

Das stimmt. Aber da du ja auch in UHD mit einer langsameren Karte zockst, obowhl UHD knapp 1 Mio mehr Pixel hat als 5120x1440p, sollte die Leistung einer 2080ti generell ausreichend für dich sein.

ThirdLife schrieb:
Ich sage damit nicht dass die 2080Ti eine miese Karte ist, nur bei weitem zu teuer und neues zu nah dran um es jetzt sinnvoll in Betracht zu ziehen. Dass etwas komplett strauchelt, davon merke ich leider auch nix, alles was ich spiele läuft soweit ziemlich gut. Nicht alles in 4K, aber vieles - und damit kann ich noch gut ein halbes Jahr leben. ;)

Deine subjektive Meinung ist auch vollkommen legitim - für dich persönlich, aus deiner Sicht. (Wann kommen denn die neuen Karten?) Deshalb sind solche Aussagen:

ThirdLife schrieb:
Du darfst dir aber gerne einreden dass es das Geld wert ist jetzt 14xx€ rauszuknallen für zwei besser laufende Titel. Würd ich Geld scheissen wärs mir auch egal.

aber trotzdem vollkommener Schwachsinn. Mögen Sie spezifisch auf dich vlt. zutreffen, heißt das nicht, dass das für alle anderen gelten muss.

PS, abstruse Vergleiche anstellen kann ich genauso gut wie du:

  • Eine Gaming X 1080 ti hat damals um die ~800€ neu gekostet (mit dem schlechteren Kühler als heute!)
  • Meine 2080ti Trio X habe ich für ~1000€ (ebenfalls neu bei MediaMarkt) ähnlich zeitig nach Release wie der 1080ti VGP bekommen.

Für nur 200€ mehr habe ich also gekriegt:
  • In allen Belangen besserer Kühler
  • Eine Karte, die je nach Betriebsmodus entweder bis zu 60% schneller in ausgewählten Spielen ist oder fast doppelt so effizient bei gleicher Geschwindigkeit wie eine 1080ti ist (150W 2080ti entspricht grob 280W 1080ti Quelle:https://www.igorslab.de/nvidia-gefo...effizienz-test-von-140-bis-340-watt-igorslab/)
  • Raytracing Hardware, GDDR6 Speicher sowie alle anderen Turing exklusiven Features
Esenel schrieb:
Da hilft es nur einen Widerstand dran zu löten

Würdest du es machen, wenn du eine Titan RTX (selber bezahlt!) hättest?
 
Das ist ja erschreckend für AMD (bzw. für mich):

Warum schnalzt der Verbrauch bei einem youtube Video so unglaublich rauf? (und bei der Radeon VII als einzige anscheinend nicht). Gerade soetwas sollte doch quasi gar keinen Effekt haben und maximal eine minimale Steigerung zu sehen sein (wie eben bei den Nvdidia und bei der Radeon VII). Kann das jemand erklären?
 
Esenel schrieb:
Ja die Karte ist ein Monster.
Einziges Problem das PowerLimit, welches man nicht per Software überschreiben kann.

Da hilft es nur einen Widerstand dran zu löten.
Tut man dies nicht, ist die 2080Ti schneller.

Man zerstört aber definitv Performance/Watt. :freaky:

Die Titan RTX ist deshalb deutlich schneller, weil sie auch ein höheres PowerTarget gegenüber der 2080Ti FE besitzt. Daher kann sie auch höher boosten.
Das Ganze relativiert sich schnell, sobald Customkarten der 2080Ti zum Einsatz kommen, welche ebenfalls ein höheres PowerTarget besitzen und schon sind die knapp 3000 Euro einer Titan RTX doch schon ziemlich als Mondlandung anzusehen.
 
gaelic schrieb:
Warum schnalzt der Verbrauch bei einem youtube Video so unglaublich rauf? (und bei der Radeon VII als einzige anscheinend nicht)....Kann das jemand erklären?

Vllt. sollte der Test mal net 60fps heissen sondern 60Hz.
Ist soundso als DesktopResi zu empfehlen.

Würde mich net wundern. wenn in dem Test der Speichertakt zu hoch war.
 
gaelic schrieb:
Warum schnalzt der Verbrauch bei einem youtube Video so unglaublich rauf? (und bei der Radeon VII als einzige anscheinend nicht). Gerade soetwas sollte doch quasi gar keinen Effekt haben und maximal eine minimale Steigerung zu sehen sein (wie eben bei den Nvdidia und bei der Radeon VII). Kann das jemand erklären?

Bei der 2080Ti FE ist es doch das gleiche Problem. Zudem reden wir hier von 10-15 Watt mehr Verbrauch. Klar ist weniger besser. Aber so schlimm ist das nun auch wieder nicht.
Ich vermute mal die Radeon VII kann von ihrem neuesten HBM2-Speicherausbau profitieren und spart damit Energie.
 
Naja, gerade die Top aktuellen RX5700 gehen von 9W im Leerlauf auf über 30W. Das ist ein Plus von mehr als 20W.
Die 2080TiFe startet ja auch schon von höherem Niveau (und ist auch nicht meine Kragenweite).

Wie gesagt: das kann ich nicht wirklich gut finden. Das ist eine Aufgabe die jedes bessere Handy schafft (romantische Übertreibung).
 
  • Gefällt mir
Reaktionen: schuetze27
incurable schrieb:
Man könnte auch ganz deutlich sagen, dass AMD mit der 3000er Serie schlicht zu billig unterwegs ist, insbesondere bei den Varianten mit 2 Chiplets.

die ryzen chiplets sind so billig, dass amd schon marge ohne ende hat bei den aktuellen preisen.

laut neusten informationen hier:

https://adoredtv.com/zen2-chiplet-quality-examined-by-cost/

und hier:


kommen wir auf folgende eckdaten:

7nm wafer: ~$8000

7nm defect density: <0,09 (für high performance chips sogar noch niedriger als 7nm mobile), ich nehme einfach mal 0,08, jim hätte hier sogar 0,06 geschätzt.

dann kommen wir bei 776 guten dies pro wafer raus, mit 45 (teil)defekten. die lassen wir jetzt aber einfach mal weg. Yield über 94%.

$8000 / 776 stück = $10,30 für ein zen 2 chiplet. da kommt noch der 14nm io die dazu, der kostet auch so in der gegend.

für navi bedeutet das:

geschätzt 14x18mm = 252mm² - 82% yield. 179 gute, 39 (teil)defekte. nehmen wir da noch 10% von den defekten für eine 5700 non-xt (gerundet auf 4, vllt höher), kommen wir bei grob $44 für einen navi 10 core raus.

14,11x11mm für 158mm² der navi 14 chips, 88,4% yield+ 10% defekte = $24

Taxxor schrieb:
Naja das Performancerating soll ja eine möglichst allgemeine Aussage treffen, und viele der Spiele, die häufig gespielt werden, nutzen nun mal die UE4, da kann Computerbase auch nicht sagen lassen wir weg weil einseitig optimiert.

damit öffnet man aber die büchse der pandora, denn die folge sind schlechte werte für amd (und intel) gpus in jedem gpu roundup, die beliebtheit von amd(intel) sinkt, adaptionrate von amd sinkt, marktanteile sinken, optimierung in den spielen aufgrund eines niedrigeren marktanteils nimmt ab, performance in gpu roundups sinkt weiter, nvidia bekommt mehr marktanteile und schiebt mitbewerber durch proprietäre techniken und mehr einseitiger optimierung vollends aus dem markt -> monopol.

es ist richtig, dass nvidia an den meisten spielen irgendwie beteiligt ist, aber das ist eben eine entwicklung, die man nicht auch noch zusätzlich unterstützen muss.

wenn man tauben füttert schmeißt man ja auch nicht der fetten sämtliches futter hin, damit die noch fetter wird, sondern füttert vorallem auch die schmächtigen am rand. wir dürfen eine monopolstellung von nvidia nicht noch zusätzlich unterstützen, die tun selber schon genug dafür.
 
  • Gefällt mir
Reaktionen: schuetze27 und Benji21
Zurück
Oben