Test Nvidia-Grafikkarten im Test: GeForce GTX 480, 580, 680, 780, 980 und 1080 im Vergleich

Also wenn ich mir die letzten Benchmarks so ins Gedächtnis rufe, scheint zumindest der Treiber derweil gut zu reifen, denn Vega ist mittlerweile desöfteren vor der 1080. Anfangs war das kaum der Fall. Wird wahrscheinlich auch in Zukunft nicht besser für eine 1080.
 
  • Gefällt mir
Reaktionen: schkai
Mit mir brauchst du erst gar nicht darüber streiten. Wenn dann mit den Redakteuren die die verlinkte News "verbrochen" haben. Die werden aber mit Sicherheit hinter ihrem Test stehen. ^^

Und auf vielen Seiten im Netz, z.B. auch PCGH, Tom´s Hardware, Hardwareluxx, u.s.w. steht Vega oft deutlich schlechter da als vergleichbare Pascal GPUs. Turing wird nach ersten Leaks übrigens ähnliche Probleme haben wie Vega, dass die Schwankungen bei einzelnen Games sehr groß sind.

Im Durchschnitt ist Pascal, trotz deutlich älterer Architektur, aber schneller und effizienter als Vega.
 
Zuletzt bearbeitet von einem Moderator:
highwind01 schrieb:
Die deutsche Inflation ist auch total relevant für ein in den USA entwickeltes und in Asien hergestelltes Produkt... :rolleyes:
Wow die geballte Finanzkompetenz......womit bezahlt man noch gleich in Euro Raum, zu dem auch Deutschland zählt, für ein importiertes Produkt?
Ergänzung ()

matty2580 schrieb:
Das ist aber schon bei Tonga so gewesen, wo selbst Tahiti oft noch besser war, dann kam Fiji, und jetzt Vega. Die 3 Architekturen sehen im Grundaufbau auch sehr ähnlich aus. CB hatte das übrigens zu Vega geschrieben:


https://www.computerbase.de/2018-05/amd-radeon-rx-vega-untersucht/2/

Also nix da mit Vine Wine bei Vega. ^^
Abwarten....die HD7970 ist auch erheblich besser gealtert als die GTX680, um die 290X ist es im Vergleich zur GTX780 (Ti) auch nicht gerade schlecht bestellt. Interessant wird es also wenn die Modelle 2-3 Generationen überholt sind. Das der Tonga schlechter altert als Tahiti war ja fast schon absehbar denn er bekam weniger Speicher und Speicherbandbreite. (3 GB, 384 Bit vs. 2 GB, 256 Bit)
Das kann die Bandbreitenkompression in absehbarer Zeit nur zum Teil abfangen.
Und natürlich sehen die GCN Architekturen im Grundaufbau ähnlich aus, ist ja die gleiche Grundarchitektur in verschiedenen Ausbaustufen.
 
Zuletzt bearbeitet von einem Moderator:
Nein Polaris und Hawaii weichen im Grundaufbau deutlich ab von z.B. Tahiti, Tonga, u.s.w.
Deshalb ist Polaris auch so gut unter Full HD, und nicht in höheren Auflösungen.
Intel hatte sich beim AMD Deal auch eher für Polaris 22 entschieden, und nicht für Vega, obwohl dass offiziell drauf steht. Wie CB richtig getestet hat, hat Vega auch nur Polaris IPC. Und deshalb hat sich auch Intel für Polaris 22 entschieden, weil dass für Full HD die deutlich effektivere Architektur ist.

Leonidas;11365557 schrieb:
Damit sehen sich Fiji und Vega 10 – bis auf das Speicherinterface – zum Verwechseln ähnlich, wobei selbst das Speicherinterface in dem Sinne gleich ist: HBM1 endet bei 500 MHz, während HBM2 bis zu 1000 MHz Speichertakt ermöglicht – sprich, der höhere Speichertakt kann hierbei die Halbierung des Speicherinterfaces bei Vega 10 wieder ausgleichen. Eingerechnet diesen Punkt sind die Rohleistung von Fiji und Vega 10 taktnormiert (bezogen rein auf den Chiptakt) sogar absolut identisch – womit Vega 10 dazu gezwungen wird, eine etwaige (bzw. zu erwartende) Mehrleistung allein über höhere Taktraten oder/und Zugewinne in der Recheneffizienz pro Takt zu generieren. Und dies wird kein einfaches Brot für Vega 10, denn am Ende geht man normalerweise immer den Weg über mehr Hardware-Einheiten, wenn man eine deutliche Mehrperformance erreichen will.
https://www.3dcenter.org/news/weite...hezu-vollstaendige-bestaetigte-hardware-daten

PCGH-Redaktion;9314218 schrieb:
Ein Indikator dafür sei AIDA64. Das System-Analyse-Tool erkennt die Grafikeinheit des Intel Core i7-8809G als Polaris 22. Um einen Fehler handle es sich dabei nicht. Als Gegenbeweis dient der Ryzen 3 2200G, bei dem AIDA64 die Vega-iGPU korrekt als Radeon Vega 8 erkennt. Ebenfalls verräterisch sei der Auszug aus dem DXDIAG-Tool, das Aufschluss über die unterstützten Feature-Levels von DirectX liefert. Vega unterstützt offiziell DirectX 12.1, Polaris hingegen nicht. Auch hier findet sich eine passende Übereinstimmung mit der eingänglichen These.....Dass der vermeintliche Polaris-Chip als Radeon Vega M bezeichnet werde, sei letztlich wohl reines Marketing.
http://www.pcgameshardware.de/CPU-C...on-RX-Vega-M-mit-Polaris-Architektur-1253954/
 
Zuletzt bearbeitet von einem Moderator:
Hm, insgesamt kann ich mich eigentlich auch nicht ueber die Leistung meiner GTX 670OC (quasi GTX 680) beschweren. 6 Jahre sind auch schon eine Weile, nur schade, dass die Turing GPUs speichertechnisch stagnieren werden, wobei die Hoffnung bekanntlich zuletzt stirbt, dass eine GTX/RTX 2060 doch noch mit 8GB kommen wird.

Ja, eine HD7950 hatte ein 1GB mehr Speicher gehabt (der in dem ein oder anderen Szenario doch etwas bringt), aber diese verbraucht m.W. auch mehr und haette mich damals auch mehr gekostet.

Damals war die Kundenpolitik von nVidia noch nicht so daneben wie heutzutage, wo es sich natuerlich anbietet nicht nVidia als Quasi-Monopolisten zu unterstuetzen (natuerlich auch in der Hoffnung einer zukuenftig weniger rasanten Preistreiberei/-entwicklung).

Allerdings wird da AMDs/RTGs Navi (RX 680) in 7nm vermutlich deutlich attraktiver werden (als eine moegliche RTX/GTX 2060 in 12nm), denke ich 'mal, da mir DLSS-AA und RT-Raytracing nicht so wichtig sind, sondern hoffentlich eher Rohleistung nahe GTX 1080Ti Niveau bei weniger Verbrauch, erstmalig 12 GB Speicher (wahlweise vielleicht auch nur 6GB) in der Mittelklasse und noch akzeptablem (Mittelklasse?-)Preis im kommenden Jahr.

Untere Ober-/Performanceklasse oder mehr muss es fuer mich (in den ersten bevorstehenden RT-Raytracing Jahren) wohl auch nicht mehr werden.
In 3-5 Jahren laesst sich darueber dann nachdenken, falls es sich einigermassen (idealerweise ueber alle Gaming-GPU-Hersteller hinweg, also auch AMD/RTG und moeglicherweise Intel) etablieren sollte.

Ob dann im abschliessenden/finalen Artikel hier auf CB die ganzen GPUs nicht nur vergleichend in einer Tabelle zusammengefasst werden, sondern zumindest die nVidia 80er Serie bisher bzgl. der gleichen Spieletiteln direkt mit der Leistung einer RTX 2080 verglichen werden?

Vermutlich werden die neuen Turing Karten aber alle von Werk ab uebertaktet sein, da scheinbar kein Blower-Lueftertyp mehr im Founders Edition Referenzdesign verbaut wird und dementsprechend wird hoffentlich hinsichtlich der Leistung mit lueftertechnisch aehnlich designten Custom-Modellen der Vorgeneration verglichen um die wahre Mehrleistung an den Tag zu bringen/abzuschaetzen.
 
Zuletzt bearbeitet:
j-d-s schrieb:
Für mich ist ja ein gewichtiger Grund gegen 4K, dass man dann Windows skalieren muss und das funktioniert nach wie vor nicht gescheit (und vor allem nicht für _ausnahmslos alle Programme_) - naja, und die Hardware kostet dann ein Vermögen, weil in 4K brauchste VIEEL stärkere Hardware als für FullHD (oder WQHD).

Aber die Leute sind aus unbekannten Gründen total geil auf hohe Auflösungen, obwohl man das wohl gar nicht wahr nimmt. Vor allem bei Smartphones. Ob du auf dem 5.5"-Display nämlich Full HD hast oder noch mehr, das wird man kaum sehen können. Da gibts sicher auch wissenschaftliche Untersuchungen drüber.

Und vor allem: Wenn ich schon ne höhere Auflösung wollte, dann nicht zum Zocken (da reicht Full HD völlig)... sondern zum Arbeiten. Denn einen Haufen Fenster auf/nebeneinander ist schon ne sehr gute Sache. Aber wie gesagt, 4K ist dafür dann wieder zu viel. Denn da wird die Schrift so klein, dass das kein Mensch lesen kann.

Das man keinen Unterschied sieht, kann nur von jemandem kommen, der noch nie 4K in Action gesehen hat. Du würdest NIE wieder in FULL HD spielen wenn du mal in 4K gedaddelt hast.

Der Vergleich mit dem Handy hinkt übrigens gewaltig.
 
matty2580 schrieb:
Im Durchschnitt ist Pascal, trotz deutlich älterer Architektur, aber schneller und effizienter als Vega.

Naja wenn man außer Acht lässt, dass AMD die kompletten Compute-Funktionen an Board gelassen hat, und nicht wie nVidia alles rausgeworfen hat, dann erklärt sich recht schnell warum Pascal so effizient ist und Vega als Stromfresser dasteht.

Sobald die Leute mit ihrer GPU aber etwas anderes machen als nur zu spielen, gibt es im Consumer-Markt lediglich Vega die eben alles bietet.

Zudem bezweifel ich das Vega jünger als Pascal ist, die Architektur war wohl eher schon lange fertig und der Mangel an HBM hat den Release deutlich nach hinten geschoben. (die ersten HBM Module waren auch bei weitem nicht leistungsfähig genug).
 
  • Gefällt mir
Reaktionen: derSafran
Genau die Energieeffizienz war es, die mich letzten Endes nun doch noch zum Kauf einer 1070ti überredet hat.
Ich war wirklich hin und weg, als die neuen Vega Modelle kamen, aber dann hätte auch noch einneues Netzteil hergemußt.
Also hab ich mich dann doch zu einer Karte der Grünen entschieden.
Tut mir echt leid, AMD, aber ich glaube, viele Käufer sehen es ähnlich.
 
highwind01 schrieb:
Die deutsche Inflation ist auch total relevant für ein in den USA entwickeltes und in Asien hergestelltes Produkt...
Schon Mal was vom Umrechnungskurs gehört ? :rolleyes:
 
Cool Master schrieb:
Gibt es eigentlich ein Grund warum 1440p nicht immer dabei ist? Bei einem Test ist es dabei und dann mal wieder nicht. UHD ist zwar ganz Nett aber das ist nicht wirklich relevant, da deutlich mehr Leute in 1440p Unterwegs sind, zumindest wenn man dem Steam HW Survey vertrauen darf.
1080p liegt bei 60% Anteil (lt. Steam) und 1440p wird immer mehr aussterben, je mehr bezahlbare 4K Karten
für die Masse es gibt. 1440p gibts eigentlich auch nur bei Gaming Monitoren, kaum bei herkömmlichen Displays
oder Fernsehern. Ich hab keine Steam Zahl dafür gesehen, aber extem hoch wird die kaum sein können.
Hast du einen Link dazu dass ich mir das mal anschauen kann?
 
Wadenbeisser schrieb:
Wow die geballte Finanzkompetenz......womit bezahlt man noch gleich in Euro Raum, zu dem auch Deutschland zählt, für ein importiertes Produkt?
Wow, das geballte Unwissen... Wer bestimmt noch gleich den Preis für das zu importierende Produkt und in welcher Währung stellt der Exporteur noch gleich seine Rechnung? :freak:

supermanlovers schrieb:
Schon Mal was vom Umrechnungskurs gehört ? :rolleyes:
Das solltest du vielleicht nicht mich sondern den Spezi fragen, der bei einem importierten und in US-Dollar gehandelten Produkt mit der deutschen Inflation in Bezug auf den deutschen Endkundenpreis argumentiert... :rolleyes:
 
Zuletzt bearbeitet:
Dann verstehst du offenbar immer noch nicht wie Inflation und Umrechnungskurse funktionieren. Ich kann dir ein paar gute VWL Bücher empfehlen.

Du hast aber zum Teil Recht, man müsste eine mögliche Veränderung von Zöllen und USt berücksichtigen.
 
  • Gefällt mir
Reaktionen: Iscaran
Schrotti schrieb:
Wozu 1440p? Der Unterschied zu FULL HD ist so gering das es sich nicht lohnt. Außerdem bekommt man UHD Monitore mittlerweile schon ab 249€ -> https://geizhals.de/?cat=monlcd19wide&xf=14591_38402160

Ich würde behaupten das 90% der wqhd User eine herzzahl von mindestens 100 zu schätzen weis.
Und da es in 4K weder Panels mit 100hz ( ok der 2500€ Monitor mal außen vor) gibt, noch Hardware um 4K überhaupt in Richtung 100fps zu beschleunigen, ist 4K auch für mich der technisch verfrühte worat case Schritt im Bereich Gaming.

Wer einmal mehr als 100hz / fps genießen durfte schmunzelt über 60 sehr deutlich

Und zwischen wqhd und 1080p sind optisch deutliche Unterschiede
 
  • Gefällt mir
Reaktionen: schkai
Aldaric87 schrieb:
Sobald die Leute mit ihrer GPU aber etwas anderes machen als nur zu spielen, gibt es im Consumer-Markt lediglich Vega die eben alles bietet.

Erklär doch mal was Vega so viel besser macht oder was Vega so viel mehr bieten soll?
MMn ist die Aussage einfach völlig neben der Realität.
FP64 kann Vega64 wie auch Fiji davor schon auch nicht in schnell...

Mal davon ab sollte man mMn einfach auch langsam erkannt haben, dass der Compute Vorteil bei AMD zu einem großen Teil auch einfach daher kommt, dass man bei AMD viel mehr Rohleistung im Chip hat (bei vergleichbar schnellen Vertretern im Gaming) - diese im Compute auch mehr oder weniger problemlos ausfahren kann. Deswegen ist das NV Produkt aber in der Form nicht wirklich schlecht(er) - sondern das AMD Produkt einfach durch mehr Rohleistung klar schneller. Kürz den Rohleistungsvorteil bei AMD und der Vorsprung schrumpft in sich zusammen.

Auch sehr interessant bei Vergleichen von alt GPUs - Tahiti vs. GK104 bspw. So ne HD7970GHz halt geschmeidige 40% mehr Rohleistung und ist bis auf grob 10% an der ur Titan dran. Schlägt sogar ne 780er Stock. Eine volle Tahiti auf ~750MHz eingekürzt wäre doch mal ein Vergleich zu ner stock 1006MHz GK104.

Aldaric87 schrieb:
Also wenn ich mir die letzten Benchmarks so ins Gedächtnis rufe, scheint zumindest der Treiber derweil gut zu reifen, denn Vega ist mittlerweile desöfteren vor der 1080. Anfangs war das kaum der Fall. Wird wahrscheinlich auch in Zukunft nicht besser für eine 1080.
Was konkret soll denn der Treiber da ändern??
Wenn man sich mal Reviews und Messungen über die Treiberversionen hinweg ansieht sollte klar auffallen, dass das eher ein Mythos mit dem gereiften Treiber ist. Auch bei AMD! Es werden im üblichen Rahmen 5-10% im Schnitt zugelegt. Wenn überhaupt. Aber das gilt für NV und AMD in gleichem Maße.
Warum Vega mehr zulegt im Vergleich liegt wie so oft bei AMDs GPUs der Vergangenheit einfach daran, dass immer neuere Titel immer mehr Rohleistung ausfassen und damit immer weniger stark durch die CPU gedeckelt werden.

Zum Quervergleich - nimm nen aktuellen Treiber und teste 1:1 die Spiele aus dem Releaseartikel von der 64er Vega und es ändert sich im Rahmen der Messungenauigkeiten oder Bugfixingstuff quasi gar nix an den Ergebnissen. (deswegen stehe ich auch den CB Rückblicken eher kritisch gegenüber - weil man sehr neue Titel bencht und damit klar die alten Kamellen benachteiligt)
 
die 580 hat meinen Stromzähler damals zum Glühen gebracht ^^
 
Bob_Busfahrer schrieb:
Doof nur, dass AMD mit "guten" Karten kein Geld verdient -
Wadenbeisser schrieb:
Wow die geballte Finanzkompetenz......womit bezahlt man noch gleich in Euro Raum, zu dem auch Deutschland zählt, für ein importiertes Produkt?
Ergänzung ()


Abwarten....die HD7970 ist auch erheblich besser gealtert als die GTX680.

und eine 980TI deutlich besser als Furyx ! Die Fury sieht heute überhaupt kein land mehr und so alt ist die karte nicht:
https://www.reddit.com/r/Amd/comments/7ckjj5/furyx_aging_tremendously_bad_in_2017/

und was heisst hier abwarten ? Eine GTX1080 ist andarthalb jahre früher erschienen als Vega und hat meistens ein leichtes Spiel!
YouTube (Test vom 16.08.2018)
Durchschnitt (10 Tests)
https://www.3dcenter.org/artikel/la...ch-analyse-nvidia-geforce-gtx-1070-ti-seite-2

Rx64 = 99,5%
GTX1080 = 106,9%

...und Fury später als 980TI. Das ist ein gewaltiger unterschied.
Das ist ein Armutszeugnis was AMD in den letzten jahren ablieferte und jeder der objektiv ist wird mir zustimmen.

Die framelatenzen sind auch katastrophal im vergleich zu NV, spikes (ruckler) sind oftmals extrem hoch :
https://www.guru3d.com/articles_pages/geforce_gtx_1070_fcat_frametime_anaysis_review,6.html
https://www.guru3d.com/articles_pages/geforce_gtx_1070_fcat_frametime_anaysis_review,7.html
https://www.guru3d.com/articles_pages/geforce_gtx_1070_fcat_frametime_anaysis_review,8.html

NV hat direkt mit dem ersten Treiber gezeigt wie die Resultate aussehen sollten.Die AMD karte war zum damaligen Zeitpunkt bereits monate auf dem markt.

Das eine 290x besser gealtert ist als 780Ti stimmt auch nicht.

780Ti war ein übertaktungsmonster (25-30%) und liess sich deutlich besser OC als 290X. AMD hatte damals glück das NV den takt viel zu niedrig ansetzte.
Leider wurde die GHZ Edi sehr selten gebencht

http://www.pcgameshardware.de/Gefor...1/Tests/Gigabyte-GTX-780-Ti-GHz-Test-1098977/
https://www.hardwareluxx.de/index.p...e-geforce-gtx-780-ti-ghz-edition-im-test.html

Das vergessen hier wieder viele.
Wenn beide OC sind und der Vram nicht zur bremse wird ist die karte auch heute noch sehr gut augestellt gegen 290X und verweist sie nicht gerade selten auf platz 2

780TIOC vs 290XOC


290x kann sich lediglich in einem spiel "leicht" absetzen


Das GTX680 mit ihren 2GB Vram kein land sieht ist doch nicht verwunderlich, oder ? Welches aktuelle Spiel bleibt unter 2Gb ? Nicht ein einziges ! Framedrops sind hier vorprogrammiert.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Schrotti
supermanlovers schrieb:
Dann verstehst du offenbar immer noch nicht wie Inflation und Umrechnungskurse funktionieren. Ich kann dir ein paar gute VWL Bücher empfehlen.
Stehen diese guten VWL Bücher im gleichen Regal wie du guten Mathe Bücher die mir verständlich machen, dass eins plus gleich drei ist? :lol:
 
matty2580 schrieb:
Nein Polaris und Hawaii weichen im Grundaufbau deutlich ab von z.B. Tahiti, Tonga, u.s.w.
Deshalb ist Polaris auch so gut unter Full HD, und nicht in höheren Auflösungen.
Intel hatte sich beim AMD Deal auch eher für Polaris 22 entschieden, und nicht für Vega, obwohl dass offiziell drauf steht. Wie CB richtig getestet hat, hat Vega auch nur Polaris IPC. Und deshalb hat sich auch Intel für Polaris 22 entschieden, weil dass für Full HD die deutlich effektivere Architektur ist.


https://www.3dcenter.org/news/weite...hezu-vollstaendige-bestaetigte-hardware-daten


http://www.pcgameshardware.de/CPU-C...on-RX-Vega-M-mit-Polaris-Architektur-1253954/

Da ich den Verdacht nicht loswerde das wir komplett an einader vorbei reden. Das definierst du als Grundaufbau? Die nackte Anzahl an Einheiten oder deren grundsätzlicher Aufbau und Verschaltung?
Ich tippe auf ersteres denn im Bezug auf letzteres scheinen sich Fiji und Vega intern recht deutlich zu unterscheiden.
Und bitte nicht mit dem Grafik Chip für die Intel CPU kommen, das Teil scheint ein Custom Chip mit Schwerpunkten aus beiden Welten zu sein. Mit dem Vega aus dem Grafikkarten und IGP Bereich scheint der nur vom Namen her bekannt zu sein.

Chismon schrieb:
Hm, insgesamt kann ich mich eigentlich auch nicht ueber die Leistung meiner GTX 670OC (quasi GTX 680) beschweren. 6 Jahre sind auch schon eine Weile, nur schade, dass die Turing GPUs speichertechnisch stagnieren werden, wobei die Hoffnung bekanntlich zuletzt stirbt, dass eine GTX/RTX 2060 doch noch mit 8GB kommen wird.

Ja, eine HD7950 hatte ein 1GB mehr Speicher gehabt (der in dem ein oder anderen Szenario doch etwas bringt), aber diese verbraucht m.W. auch mehr und haette mich damals auch mehr gekostet.
Die Nummer war "etwas" komplizierter, siehe die damaligen Tests. ;)
Die Referenz Modelle der HD7950 und der GTX670 fraßen ähnlich viel Strom (OC Varianten natürlich mehr) aber die GTX670 wurde von der Leistung und vom Preis her der HD7970 zugeordnet, die HD7970 war ca. 17% schneller als die HD7950 und die GTX680 war bei dem damaligen Test im Schnitt ca. 10% schneller als die HD7970.
https://www.computerbase.de/2012-05/test-nvidia-geforce-gtx-670/4/

Bei den 3 besagten Spielen aus dem Test hier ist die HD7970 allerdings ca. 30% schneller als die GTX680 und hätte damit im Vergleich zu damals beim cherry picking gute 40% zugelegt. Will man jetzt vom gleichen Preis ausgehen (HD7970 vs. GTX670) dann wären wir bei einem rechnerischen Leistungsunterschied von ca. 50%.

highwind01 schrieb:
Wow, das geballte Unwissen... Wer bestimmt noch gleich den Preis für das zu importierende Produkt und in welcher Währung stellt der Exporteur noch gleich seine Rechnung? :freak:
Wechselkurse, Steuern beim kaufbaren Produkt.
Wäre mir neu wenn man als Endkunde nur den Einkaufspreis in der ursprünglichen Währung des zu importierenden Produkts zahlt.

Die simpelsten Zusammenhänge beim Einfluss der Wechselkurse und Inflation auf den In- und Export nicht verstanden?
Willst du Produkte importieren dann werden sie für dich bei gleich bleibenden Produktionskosten mit abnehmenden Wert deiner Währung für dich immer teurer, ebend schlecht für den Import.
Willst du die von dir produzierten Produkte exportieren dann werden sie beim gleich bleibenden Produktionskosten für den Kunden immer billiger, gut für den Export.
 
Zurück
Oben