Test Pascal, Polaris und Vega im Test: Mit neuen Benchmarks und Treibern in das Jahr 2018

Bei den Spielen denke ich ist es doch so das es teils sehr unterschiedlich ist wie gut eine Grafikkarte arbeiten kann und da denke ich mir wäre es doch am besten wenn man weiß welche Grafikkarte besser für sein Lieblingsspiel ist als nur raten zu müssen. Darum wäre mir ein Test mit spielen die auch viel gespielt werden lieber als "nur" technisch interessante Spiele zu testen. Ein Wolfenstein sollte auf jedenfall im Test sein und da ist halt der vergleich DX zu Vulkan interessant.
Ich hätte halt lieber einen realistischen Test als ein theoretischen. Man muß halt den Kauf einer Grafikkarte nach den Spielen die man spielt ausrichten nicht nach dem was theoretisch besser ist.
 
Aus dem Artikel:

Auch für maximal 250 Euro gibt es keine lohnenswerten Grafikkarten.

Ich sehe da sogar direkt in diesem Artikel eine Radeon RX 570, die nur minimal hinter der GTX 1060 liegt, aber aktuell für ca. 240 EUR zu bekommen ist. Übersehen oder nicht aufgenommen, weil sie nur 4GB hat (für die Leistung der RX 570 scheinen mir 4 GB angemessen)? Die GTX 1060 mit 6GB gibt's erst ab ca. 260 EUR. Das ist für manche der Schmerzpunkt.
 
hatte mir gestern die "msi 1070 ti gaming 8G" für 478€ gekauft. im Prinzip kein schlechtr Preis dafür dass sie sehr nah an die gtx 1080 herranreicht.
 
Spieler mit 144hz Monitore wollen nur eins. Viel FPS. Und wer zusätzlich noch WQHD hat und modernere spiele spielt braucht die 1080ti.
 
Ne GTX1080 kannst aber auch wieder übertakten ;) Zudem hat sie den besseren GDDR5X Speicher.
 
Hmm kann ich da von 'Glück' sprechen dass ich kurz vor Weihnachten noch eine ASUS Strix Vega 64 OC ergattern konnte ;)? Für 'günstige' 740€ ;).

Ja ich weiß ich hätte da auch eine 1080Ti irgendwo für bekommen, aber da ich Nvidias Geschäftspraktiken wie 4GB 970 (haha), PhysX, Gameworks, G-Sync oder jetzt aktuell die Einschränkung der Treiber für GPU compute nicht unterstützen will weigere ich mich ein Nvidia-Produkt zu kaufen. Lieber zahle ich etwas drauf und verzichte auf ein paar FPS.
 
HaZweiOh schrieb:
Die 1,6 Cent, die es faktisch sind, werden uns alle vollkommen ruinieren. Für ein Toastbrot reicht das Geld dann nicht mehr, wie sollen wir das bloß überleben? :freak:

Wenn man ganz penibel nachrechnet, sinds genau 1.21 Gigawatt! :lol:
 
Danke CB für den Test. Aufgrund euren Tests hab ich mir vor nicht allzu langer Zeit die 1080 Ti Strix OC gekauft, und keine Sekunde bereut.

Anregung zum Parcours: zwei Spiele, die die id Tech 6 verwenden, braucht es nicht. Doom sollte man rausschmeissen. Drinlassen sollte man lediglich Wolfenstein, das ist das deutlich modernere und anspruchsvollere Spiel.
 
Naja Doom hat auch seine Berechtigung wird immer noch oft gespielt auf Steam.
Echt die bescheiden schon wieder was, cool da sagt keiner was und beschert sich. Och man und ich wollte die ganze zeit eine GTX960 4GB für den Übergang suchen. Naja dann doch erstmal neuer Monitor. Später dann mal eine Vega Refresch Karte.
 
Das Problem an der ganzen Sache ist:
2012 hat ein 720p Test gesagt ein 2500k wäre schneller als ein FX8350.
2017 sagt ein 720p Test dass der FX8350 nun schneller ist...
Aufgrund unterschiedlicher Anzahl von Threads und wie diese von den Spielen genutzt werden, können sich die Ergebnisse von Jahr zu Jahr ändern. Wie damals 4 gegen 8 Threads gewonnen haben und heute umgekehrt wird es eben in 2-3 Jahren mit 12 gegen 16 Threads aussehen.
Somit bringt ein 720p Test nur etwas bei gleichen Anzahl an Threads, ansonsten werden die Ergebnisse durch spätere bessere Auslastung der Prozessoren komplett auf den Kopf gestellt!
 
DerBaya schrieb:

Zu finden auf Computerbase.de
Launchartikel FX8350 und die letzten Prozessorberatungstests... einfach in den Performanceratings alte Prozessoren miteinblenden.
Bin leider nicht so gut im verlinken - aber ihr seid alle genug hier unterwegs um es zu finden wenn ihr wollt ;-)
 
HaZweiOh schrieb:
Die 1,6 Cent, die es faktisch sind, werden uns alle vollkommen ruinieren. Für ein Toastbrot reicht das Geld dann nicht mehr, wie sollen wir das bloß überleben? :freak:

Es ging um den Zusammenhang, also gleiche Leistung, 150€ teurer und halt höherer Verbrauch. Allein genommen ist es nicht wichtig.

Dennoch, ich pers. finde 100W+ Mehrverbrauch nicht als Erbsenzählerei. Das finde ich z.B. wenn man bei HDs oder SSDs von Verbrauch redet. Da macht man sich Gedanken um wenige Watt Verbrauch... Dazu kommt, das man auch ein höher dimensioniertes Netzteil braucht.

AMD konnte halt den höheren Verbrauch immer mit niedrigeren Anschaffungspreisen kompensieren. Nun hat AMD nur noch das Freesync auf seiner Seite. Ansonsten kann man die Karten nicht empfehlen.
 
@DF86: Der FX8350 hätte aber ja auch eher mit nem i7 verglichen werden müssen oder nicht?
 
DerBaya schrieb:
@DF86: Der FX8350 hätte aber ja auch eher mit nem i7 verglichen werden müssen oder nicht?

Von den Threads her ja klar. Aber es geht hier ja nur darum dass man einfach nicht sagen kann dass ein Prozessor der in heutigen Spielen in niedrigen Auflösungen vorne liegt dies auch noch in 2-3 Jahren tut.
Und es deshalb sehr wichtig ist bei einer Kaufberatung die Laufzeit des Systems mitzuberücksichtigen.

Hier noch die Links:

https://www.computerbase.de/2012-10/test-amd-fx-8350-vishera/7/

FX langsamer.

https://www.computerbase.de/2017-02...-test/#abschnitt_performancerating_in_full_hd

Aktuelle Spiele FX schneller...
 
Da hast Recht, ok.
​Das Ende für 4C/4T CPUs rückt halt immer näher...
 
tic-tac-toe-x-o schrieb:
Einige neutrale Spiele. Einige Nvidia bevorzugte Spiele und einige AMD bevorzugte Spiele. Es herrscht Gleichheit.

Im Benchmarkparkour vielleicht aber da draußen sind die meisten Spiele Nvidia supported und wenn ich 2x Vulkan reinnehme was ha de einzigen sind des gibt, ist maybe ein wenig AMD lastig.
Aber da streitet man sich über ein paar Prozent.

Wär intressanter wenn man alle 2016/2015 Spiele rausnimmt und nur noch aktuelle testet.

Gschwenni führ mal ne Tabelle und schau nochmal genauer hin. Es ist beinahe 50/50 Wenn du die Spielestrecke davor neutraler fandest ist jetzt auch kein Wunder

50/50 hier in der Realität draußen sinds eher 90/10.
 
Taxxor schrieb:
Stimmt, niemand spielt in 720p, aber wenn ich heute sehe, dass CPU A in 720p im Durchschnitt 30fps mehr schafft als CPU B, dann nehme ich CPU A, denn mit steigender CPU Last in den Spielen der kommenden Jahre und der immer besseren Grafikkarten wird es dann auch bald in 1080p dazu kommen, dass CPU B ins Limit läuft während CPU A noch Reserven hat, was man dann heute im 720p Test schon voraussehen konnte.

wir haben doch beim 2500k und 8350 gesehen dass es eben nicht so ist
ein 720p sagt nichts über die zukunft aus
es zeigt dir nur wie schnell die cpu in 720p jetzt im moment ist und nicht mehr

okay DF86 hat es auch schon erwähnt
 
HaZweiOh schrieb:
Finde ich nicht. Wenn zwei CPUs in der Realität gleich schnell sind, und sich dieser Trend in der Zukunft sogar verschärft (durch steigende Auflösungen, weiter steigende Grafikanforderungen sowie höhere Frame-Zahlen für VR), dann sollte man den Lesern die Sache einfach so erklären, wie sie ist.

Nachvollziehbar finde ich nur das Argument der Vergleichbarkeit mit früheren Tests. Das könnte man mit Nachtests einzelner, älterer CPUs lösen.

kann deine gedankengänge nachvollziehen weil ich selbst lange nicht "geklickt" habe wieso 720p die beste auflösung ist um cpus zu testen. hier mal ein versuch das leicht und deutlich zu erklären:

JETZT ist der i3 genauso schnell wie der i7. absolut richtig. keine frage. aber...

- eine cpu kaufst du dir für eine längere zeit. meist überlebt die cpu mehrere gpu aufrüstorgien. wenn du dir also stand HEUTE eine cpu kaufst, für viele 100 euros dann interresiert dich zwar sicherlich wie sie im moment abschneidet aber genauso ist auch wichtig wie es aussieht wenn in deinem pc eine gtx 1360 werkelt. denn in 4 jahren ist der i3 von heute eben NICHT mehr genauso schnell wie der i7 von heute.

der 720p test ist so zu sagen ein: "wie-altert-meine-cpu-test"

klick?
 
Zuletzt bearbeitet:
Zurück
Oben