Test Pascal, Polaris und Vega im Test: Mit neuen Benchmarks und Treibern in das Jahr 2018

Ich glaube nicht an den Minning Boom was die Vega GPUs betrifft, es gibt auch keine zahlen darüber und die Boardpartner haben sich ja auch schon beschwert, daß sie so wenige Chips bekommen. Denke eher das die Ausbeute bei Vega nicht so pralle ist, bzw. die Produktion aus welchen Gründen auch immer Probleme bereitet, nach einen halben Jahr praktisch keine Vega zu kaufen liegt sicherlich nicht an den Minning Boom, daß muss auch noch andere Ursachen haben.
 
Die Frametimes in fps, mit den CB hier hantiert sind auf den ersten Blick wirklich eigenartig.

Der Autor hat es diesmal im Artikel in einem Nebensatz erklärt was sie machen.

Also wie folgt

1. Ergebnisse normalisieren und das schlechteste Prozent rauswerfen, was jeder Statistiker macht (99th percentile bilden)
2. Aus den verbleibende 99 Prozent aller Frames die Frametimes erreichen
3. Aus denFrametimes einen Durchschnitt bilden
4. Die Frametimes in fps umrechnen*

*Wenn zb der Durchschnitt aller Frametimes 16,66ms beträgt, entspricht dies eine Framerate von 60 Bildern pro Sekunde
 
Zuletzt bearbeitet von einem Moderator:
Mort626 schrieb:
Wenn das langsamste 1% weggelassen wird, müssten die FPS aber größer werden. ACO hat auf der RX 560 durchschnittlich 27 FPS in FHD, aber nur noch 12, wenn man mit den 99% rechnet.

Passt doch. Ein Wert, der über dem Durchschnitt liegt, wäre eher ein Max Wert und kein Min Wert.
In der Textsequenz wurden z.B. Werte zwischen 5 und 35fps erreicht.

Nur 1% der Zeit lagen die fps aber niedriger als 12.
12fps werden also in 99% der Zeit MINDESTENS erreicht, also ist 12fps der 99% Wert.
Den Rest dieser 99% lagen sie dann zwischen 12 und 35fps und der Mittelwert aus allen Werten ist dann eben 27fps im Schnitt gewesen.
 
Zuletzt bearbeitet:
Dass der AMD CPU Anteil wegen des unterirdisch/amateurhaft programmierten und China-Cheater verseuchten PUBG abstürzen soll, macht diesen Battle Royale 1 oder 2 Map Mode-Shooter bestimmt ungemein sinnig als CB Parcours-Spiel :rolleyes: ... sorry, aber ich bin froh, dass Wolfgang/die CB Redaktion da nicht auf den aktuellen "Hypetrain" aufgesprungen sind und anderen Hardwareseiten/-magazinen das PUBG benchen überlässt.

Dann würde ich eher noch bis Januar auf die Closed Alpha von Hunt:Showdown warten, wenn man dafür denn einen Exklusiv-Key ergattern könnte (gut für CryTek und CB ;) ), denn der CryTek Titel sieht erstens um Klassen besser aus und wird bestimmt auch einigermaßen hardwarefordernd ausfallen.

Ob es dann auch irgendwann Spiele-RAM-Tests geben wird (zusätzlich zu den CPU- und GPU-basierten Benchmarks), wenn Squadron 42 wohl mindestens nach 16 GB hungert (aber vermutlich gerne mehr möchte für flüssigeres Gameplay)?
 
Zuletzt bearbeitet:
Ja HBM Samsung leider only und Samsung ist halt nicht der beste Fertiger da ist Globo und TSMC besser.

Und ja ich habe ein i5-6600 aber erstens war er damals für ca 150€ echt billig und AMD hatte leider nix mit DDR4. Denn den hatte ich schon vorher gewonnen beim Gewinnspiel, also so zusagen alternativ los auf Intel. Jetzt würde ich natürlich sofort AM4 kaufen da muss man wenigstens nicht sein eigenes Bios schreiben wenn man OCn möchte.

Ja im Prinzip hast du recht naja.

So aber jetzt mal bitte wieder zurück zum Thema warum berichtet eigentlich niemand darüber dass NV Cuda streicht mh. Tja glaube ja dass alle zusätzlich noch eine AMD haben oder nur den CPU wie 1984. Naja was mich auch stört ist dass Win10 kein BDs mehr gehen warum bitte was soll der sch**** echt keiner berichtet darüber sorry sowas nervt.
 
Zuletzt bearbeitet:
HaZweiOh schrieb:
Das ist aber kein Grund, oder willst du das Ergebnis verzerren? Wenn die Leute nunmal diese Spielen spielen (das ist ja Fakt), und das dazu führt, dass für sie eine kleinere Grafikkarte reicht, dann sollte man ihnen das auch so sagen.


Laut Umfrage spielt wirklich niemand (in Zahlen: 0%) mit 720p! Ein Test damit ist deshalb sinnlos.

Computerspiele werden IMMER im GPU-Limit hängen, gerade mit der steigenden Verbreitung von WQHD und 4K.
Auch wenn das nicht so wäre, wäre die Übertragbarkeit eines Tests mit 720p im Jahr 2017 auf das Jahr 2022 reine Spekulation.

Willst du jetzt sagen das ich ein "niemand" bin? :O
 
@über mir:
0 % sind 0 %, natürlich ist das gerundet. Ich werde aber weiter "niemand" schreiben. Wenn wir über jeden obskuren Sonderfall einzeln diskutieren würden, könntest du das Forum gleich schließen. Sonst meldet sich noch Lieschen Müller aus Wolkenkuckucksheim, die am C64 spielt und gern in der Statistik erwähnt werden möchte.
 
Zuletzt bearbeitet:
deo schrieb:
An sich braucht Nvidia nur so lange umzulabeln, bis AMD aufgeschlossen hat.
Und der Leistungsvorsprung zur älteren Serie wird per Treiber hergestellt.

Woran AMD schon seid Fury kein Interesse mehr hat @Highend Gaming dGPUs.:rolleyes:
Zu hoffen das die nun den Markt mit Vegas fluten bzw. Anteile mit einem 500mm² Gaming DIE only (die erst entwickelt werden muss) zurückholen mit Dumping Preisen, ist sehr naiv.
Navi wird ziemlich sicher auch nur als GPGPU DIE kommen mitn nCUs wie Vega sie hat.
 
Zuletzt bearbeitet von einem Moderator:
Machen sie doch mit Ampera schon und die Leute finden es gut. ;-)
 
tek9 schrieb:
Die Frametimes in fps, mit den CB hier hantiert sind auf den ersten Blick wirklich eigenartig.

Der Autor hat es diesmal im Artikel in einem Nebensatz erklärt was sie machen.

Also wie folgt

1. Ergebnisse normalisieren und das schlechteste Prozent rauswerfen, was jeder Statistiker macht (99th percentile bilden)
2. Aus den verbleibende 99 Prozent aller Frames die Frametimes erreichen
3. Aus denFrametimes einen Durchschnitt bilden
4. Die Frametimes in fps umrechnen*

*Wenn zb der Durchschnitt aller Frametimes 16,66ms beträgt, entspricht dies eine Framerate von 60 Bildern pro Sekunde

zu 1: Normalisieren könnte man machen, ist aber unnötig (und ein Mehraufwand)
zu 2: Die Frametimes werden mMn direkt gemessen. Ein Umrechnen sollte deshalb hier nicht nötig sein.
zu 3: Ein Durschnitt wird nicht gebildet. Das 99. Perzentil entspricht der maximalen Frametime der restlichen 99% der Messwerte.
zu 4: Ja, das ermittelte 99. Perzentil wird dann in FPS umgerechnet (einfach der Kehrwert).
 
tek9 schrieb:
Wenn Karten von AMD so teuer und schlecht verfügbar sind wie es 2017 der Fall ist, benötigt AMD offensichtlich keine Unterstützung wie du sie betreibst?
Was hat der Preis mit der Unterstützung zu tun, die eine Firma braucht oder nicht braucht? Der Aufpreis gegenüber dem Referenz-UVP landet doch nur bei den Händlern und in diesem Fall wohl auch bei Asus, die die Knappheit ausnutzen und hohe Preise aufrufen (was ihr gutes Recht ist). AMD profitiert von den hohen Preisen wahrscheinlich am wenigsten.

Faust2011 schrieb:
dann muss sich doch an dieser Situation mal was ändern. Ich verstehe einfach nicht, was hier schon seit Monaten passiert :eek:
Das liegt ja nur zum Teil in AMDs Händen. Für den Mining-Hype können sie nichts und einfach nur deshalb die Produktion hochfahren dürfte einerseits riskant und andererseits teuer sein, aber gleichzeitig nicht von heute auf Morgen gehen, noch dazu, wo es ja schon wieder auf die nächste Generation zugeht. Dass es bei der Vega-Produktion schlecht läuft ist da schon eher in AMDs Verantwortungsbereich (wobei man auch da nicht hinter die Kulissen gucken kann), aber auch wenn sie das gern ändern würden, geht das sicher nicht mit einem Fingerschnippen. Vielleicht haben sie das auch mehr oder weniger aufgegeben und konzentrieren sich eher darauf, die nächste Generation ordentlich hinzubekommen. Wäre meiner Meinung nach sinnvoller, als jetzt noch viel Mühe in die Produktion von Vega zu stecken.

Mort626 schrieb:
Wenn das langsamste 1% weggelassen wird, müssten die FPS aber größer werden. ACO hat auf der RX 560 durchschnittlich 27 FPS in FHD, aber nur noch 12, wenn man mit den 99% rechnet.
Der Wert, der dort steht, ist nicht der Durchschnitt aus den 99 verbliebenen Prozent, sondern er ist quasi der Wert des zweitschlechtesten Prozents für sich genommen, ohne jeden Durchschnitt. Also eben der Wert des 99. Perzentils. Im Durchschnitts-Wert kommen noch das schlechteste Prozent, also das 100. Perzentil, und 98 bessere Prozente / Perzentile dazu, die dann zusammen den Durchschnitt ergeben, der deswegen immer über dem Wert des 99. Perzentils liegen sollte – es sei denn, im letzten Perzentil passieren sehr komische Dinge.

Heißt eben, dass in 99% der Fälle in diesem Spiel keine niedrigeren FPS-Werte erzielt wurden als der dort angebebene Wert und kann so ein Maß für die Schwankung der Messwerte sein. Je näher der Wert am Durchschnitt liegt, desto weniger schwanken die FPS.

Und da als Spieler eigentlich immer die Momente, in denen die FPS einbrechen / am niedrigsten sind, diejenigen sind, die zuerst stören, ist das eigentlich der spannendere Wert.

Bei deinem ACO-Beispiel hat also das 99. Perzentil 12 fps, das erste Perzentil vielleicht irgendwas mit 40, und im Durchschnitt über alle Perzentile landet man am Ende bei 27.

Blueline56 schrieb:
Ich glaube nicht an den Minning Boom was die Vega GPUs betrifft
Mining sorgt für die hohen Preise (und damit den Verlust der Konkurrenzfähigkeit) bei den 5xxer-Karten, niedrige Liefermengen sorgen für die hohen Preise bei Vega. Da gibt es, soweit ich es mitbekommen habe, keine großen Zweifel.

tek9 schrieb:
1. Ergebnisse normalisieren und das schlechteste Prozent rauswerfen, was jeder Statistiker macht (99th percentile bilden)
Das, was du da beschreibst, ist nicht das Bilden des 99. Perzentils, es ist nur das Wegwerfen des 100. . Aus dem "Rest" müssen dann auch noch die 98 besten Perzentile entfernt werden, wenn man sich nur das 99. ansehen möchte.
 
Zuletzt bearbeitet:
foxio schrieb:
zu 4: Ja, das ermittelte 99. Perzentil wird dann in FPS umgerechnet (einfach der Kehrwert).

"Frametimes in fps" ist und bleibt aber trotzdem eine falsche Aussage, entweder man nennt es Frametimes in ms und gibt dann entsprechend auch ms an, oder man bleibt bei fps, nennt es dann aber auch einfach 99% Min. fps
 
DocWindows schrieb:
:eek:

Die Performance/Watt Grafiik ist einfach nur vernichtend. Ist zwar kiene Neuigkeit, aber die Situation in einer Grafik zu sehen lässt einen dann doch nochmal zusammenzucken.



Den nVidia-Wein kannst du halt sofort trinken, weil er meist schon so gut ist wie er nur werden kann. Bei AMD wartest du halt bis der Wein genießbar wird.
Dabei besteht in der schnelllebigen Welt der PC-Spielegrafik aber auch immer die Gefahr dass der Wein beim Reifen umkippt und zu Essig wird. Polaris macht jetzt auch keine großen Sprünge mehr, obwohl die GPU doch eigentlich langsam durchreifen müsste.

Grafikkarten werden schneller zu altem Eisen als einem lieb ist. Dank der Hardwareverwandtschaft von Konsolen und PC können wir User das aber entspannter sehen.
Der Wein wird nicht mehr so schnell sauer wie vor ein paar Jahren. So kann ich mit meinem inzwischen sechs Jahre alter Rechner mit Nehalem-CPU und einer drei Jahre alten GTX 780ti im 1080p - Betrieb noch gut mithalten. Die 3GB-VRam reichen da auch heute noch aus. Aktuelle Treiber funktionieren und skalieren auf dieser betagten Hardware immer noch gut.

Mit der Playstation Pro und der X-Box Scorpio wird ein neues Kapitel eingeläutet.
Mein aktueller, aber auch schon 18 Monde alter Gaming-PC mit nem 7700k und ner GTX 980ti wird da trotzdem noch ne Weile mithalten können.

Ich finde die Ähnlichkeit von Konsolen und PC sehr gut. So geht die Umsetzung von Konsolen-Games für den PC und umgekehrt schneller von statten. Hardwarevoraussetzungen für unsere Lieblings-Spiele werden durch diese Verwandtschaft über einen längeren Zeitraum eingefroren. Treiberanpassungen für die GPUs sind viel wichtiger als früher geworden. Wir User können uns deshalb seit geraumer Zeit über wirklich gute und stabile Treiber unserer Grafikkarten freuen.

Ich muss mich nicht ständig um einen stabilen Betrieb meines PC kümmern, sondern kann ganz einfach nur zocken. Alle zwei Wochen nen neuen GPU-Treiber installieren? Nö, eigentlich nur wenn mal ein neuer Game-Ready-Treiber fällig ist, ansonsten bleibt die olle GPU-Software drauf. Vor fünf oder sechs Jahren war das nicht im Ansatz so komfortabel. Ich finde die heutige Situation sehr angenehm und weitgehend anwenderfreundlich.
 
Zuletzt bearbeitet:
Stunrise schrieb:
Eine 980Ti wird im Leben nicht, sofern es irgendwie stabiles und realitätsnahes OC sein soll, eine 1070Ti erreichen, ganz zu schweigen von "sie muss einpacken". Simples Wunschdenken eines Besitzers, nicht mehr und nicht weniger.

Bist dir da sicher?

https://www.computerbase.de/artikel...te.2487/#diagramm-performancerating-3840-2160
die 980 TI ohne OC ist 16% hinter einer GTX 1070 Gaming. Und 32% hinter einer 1080 FE.

neben mir die 8% Rückstand zur 1070 FE als Referenzwert.

Ergo sind eigentlich schon alle Partnerkarten der 980 TI mindestens auf GTX 1070 Gaming Level:
https://www.computerbase.de/artikel...-980-ti-test.50840/seite-3#abschnitt_leistung

und die ASUS taktet hier mit lediglich 1.392 MHZ.

CBs OC Test mit der Stock Karte ohne jeden Mod bescheinigt 20-23% mehr Leistung als die Referenz.

Keine 980 Ti dürfte ein Problem damit haben nahe 1500 Mhz zu takten, also etwa 25-30% zur Referenzkarte sind eher der Standard.

Damit dürfte man etwa auf dem Niveau der 1070 Ti Customs (ohne weiteres OC) agieren. Ergibt ja auch Sinn bei da die 1070 TI mit 2.432 Shaderen eben weniger hat als eine 980 TI mit 2.816 Shaderen, dafür aber eben höher taktet.


Zusammengefasst:

GTX 980 TI -> GTX 980 TI OC
100% -> >125%

GTX 980 TI -> GTX 1070 FE
100% -> 108%

GTX 1070 FE -> GTX 1070 TI
100% -> 116%

ergo

GTX 980 TI -> GTX 1070 TI (Custom)
100*1,08*1,16 = 125%
womit eine GTX 980 TI ~ so schnell ist wie ne GTX 1070 TI, bei 1500Mhz auch etwas schneller

Q. E. D.


Edit: Gerechnet mit realitätsnahem OC von 1400-1500 Mhz, >1500 is weniger die Regel. Knapp darunter aber üblich.
Edit2: hier is noch nen OC vs OC vid. Man achte auf die 4k Ergebnisse und die Tatsache dass seine 980 Ti nicht mal den Boosttakt hält >.<
 
Zuletzt bearbeitet:
Dass eine 980 Ti unter Extrem-OC (1500+ Takt, 4000+ Speicher) auf 1080 FE-Niveau kommt ist kein Geheimnis. Man sollte auch bedenken dass die Ti mehr Speicherbandbreite hat. Sie kommt damit immer noch auf GDDRX-Niveau und manche Spiele profitieren damit.
 
ju, ziemlicher Underdog durch das hohe OC Potential. Im Video steht sie (gerade auch in 4K) echt sauber da, selbst gegen ne OC 1070 TI. 1461/2000 wie im Video is n guter Richtwert.

Jedenfalls zeigt es gut wie wenig sich bei GPU binnen 2.5 Jahren getan hat. Auch was P/L angeht.
 
Mich würde es freuen wenn bei solchen tests noch die GTX 780/980 Ti sowie AMD 390X und FuryX dazu kommen, damit man immernoch einen richtwert auf die Vorgängerversionen und Architektur hat!
 
Wolfgang schrieb:
Für 150 Euro gibt es derzeit erste Modelle von Nvidias GeForce GTX 1050 Ti mit einem 4.096 MB großen Speicher....Wem auch 150 Euro zu viel sind, der sollte zu einer Radeon RX 560 greifen....Dabei gilt aber zu bedenken, dass der Leistungsunterschied zur GeForce GTX 1050 Ti recht groß ist....Wer um die 200 Euro ausgeben möchte, hat derzeit Pech, denn eine Empfehlung in dieser Preisklasse gibt es nicht. Auch für maximal 250 Euro gibt es keine lohnenswerten Grafikkarten. Sinnvoll wird es erst wieder für maximal 300 Euro.
Und genau in diesem wichtigen Preisbereich klafft eine Lücke von 150€, zwischen 150€ für eine 1050ti und 300€ für eine 1060. Und ehrlich geschrieben ist die 1060 (6GB) für 300€ auch nicht gerade ein Schnäppchen, da eine 970 oder RX 290/390(X) eine ähnliche Leistung schon lange davor boten, und auch nicht viel teurer waren wie eine 970 für ~320€ mit teilweise guten Spielebundles.
 
Ich habe mir im März 2017 eine 6 Monate alte Zotac GeForce GTX 980 Ti AMP! Extreme für 300€ gekauft, die hat jetzt noch 44 Monate Garantie und takte ohne das ich Hand anlege unter Last mit 1419MHz, stabil gehen ohne Speicherübertaktung 1475MHz(Speicher hatte ich noch nicht versucht zu übertakten), denke ich habe Angesichts des Preises und den ab Sommer in die Höhe schnellende Preise für Grafikkarten alles richtig gemacht habe, genau so schnell wie eine 1070 OC oder Vega56 Karte und deutlich günstiger, die Karte dürfte noch eine gute zeit lang für mich reichen. Wenn man bedenkt das es die 980Ti bereits seid dem Sommer 2015 gibt, hält sich diese Karte wirklich lange weit oben im Leistungsranking.
 
Schön zu sehen, dass der Spieleparcours mal angepasst wurde, bisher war der ja extrem nvidia-lastig - erwartungsgemäß profitiert RX Vega deutlich (aber sind eh nur Benchmarks, es kommt immer auf die Spiele an die man spielt).

Wie im Artikel erwähnt ist die Liefer- und Preissituation bei RX Vega aktuell scheußlich. Wo bleiben die ganzen produzierten GPUs? Zu kaufen sind sie ja nicht...

Bei dem ursprünglichen RX-Vega-Test waren die Vegas mit ca. 30 W Leistungsaufnahme bei Abspielen eines 4K-YT-Videos noch die besten, nun sind sie damit plötzlich fast Schlusslicht, weil Nvidia viel besser ist - hat Nvidia hier nachgebessert?
 
Zurück
Oben