• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

News Trine 3 Benchmarks: 18 Grafikkarten von AMD und Nvidia im Vergleich

Das Video ist mal wieder so herrlich sinnfrei, weil man die Unterschiede in der Kantenglättung a) in horizontaler Bewegung kaum sieht, und b) schon gar nicht in 30 FPS und c) erst recht nicht bei einem komprimierten Video.

In meinen Augen kann so ein Video nur jemand erstellen, der nicht weiß, was der Sinn von Kantenglättung ist.
 
Schöner Test, hat mich mal wieder auf ein Spiel aufmerksam gemacht :)

@ So manchen

Was soll eigentlich immer die Missgunst gegenüber nVidia, heißt es nicht der Kenner schweigt und genießt?
Sorry, finde das echt immer albern. Was nun die bessere Karte ist, ist wahrscheinlich sowieso mehr Glaubenssache, wie Wissenschaft, ob nun eine Karte 10% schneller ist, oder nicht, ist in der Praxis sowieso nicht relevant. Und die Preisunterschiede sind nun auch nicht wirklich gewaltig. Lasst es doch einfach, es nervt.
 
Laggy.NET schrieb:
Die Karten von CB laufen mit standardtakt bei der GTX980 sind das 1.126 MHz.


Damals zu HD7000 Zeiten wars umgekehrt. Da hatte AMD das große OC Potential.

.. Da zählt einfach nur Rohleistung, die mir in der Praxis wenig bringt.

Ist 1126 MHz nicht der Basistakt? Ich glaube das Referenzmodell boostet bis auf über 1200MHz.

GCN hatte doch nie großes OC Potenzial. Mehr als 1200MHz war doch praktisch mit keiner GPU möglich.


Ich finde es gerade gut, wenn die reine Rohleistung aufgezeigt wird, statt wenn diese mit irgendwelchen zweifelhaften (Gameworks) Effekten verfälscht wird.
Und was Nvidia's Taktraten angeht: Nvidias Referenzmodelle laufen halt im Sweetspot, da sind sie eben am effizientesten. Als 290er hier jahrelang mit ihren gedrosselten 850-900MHz im Ref Design gebencht wurden, haben Nvidia User ja auch nicht protestiert.

Ich bin auch dafür, dass nur Custom Designs gebencht werden, aber dann sind alle Energie, Temp, und Lautstärkemessungen der Refdesigns unbrauchbar.

Was mir bei diesen Gamebenchmarks immer fehlt, ist die Kernauslastung und VRAM Belegung. Aber auch der Stromverbrauch der Karten, der ja von Spiel zu Spiel sehr variiert.
 
http://www.hardwareluxx.de/index.ph...gtx-970-amp-extreme-core-edition-im-test.html

Wie bereits gesagt kann schneller sein. Im Vergleich je nach Spiel und Auflösung besser als 290x uber oder auch 295x. Die 390 ist vergleichbar.

Einen direkten Vergleich Custom vs Custom konnte ich neulich auf ner LAN sehen, da hatten zwei Kumpels einmal die Zotac amp extreme und einmal die Sapphire nitro. Da hatte meist die 970er die Nase vorn.

Btw. Du weißt selbst das es keine klaren Quellen dazu gibt.
 
zeedy schrieb:
Ist 1126 MHz nicht der Basistakt? Ich glaube das Referenzmodell boostet bis auf über 1200MHz.

GCN hatte doch nie großes OC Potenzial. Mehr als 1200MHz war doch praktisch mit keiner GPU möglich.


Ich finde es gerade gut, wenn die reine Rohleistung aufgezeigt wird, statt wenn diese mit irgendwelchen zweifelhaften (Gameworks) Effekten verfälscht wird.
Und was Nvidia's Taktraten angeht: Nvidias Referenzmodelle laufen halt im Sweetspot, da sind sie eben am effizientesten. Als 290er hier jahrelang mit ihren gedrosselten 850-900MHz im Ref Design gebencht wurden, haben Nvidia User ja auch nicht protestiert.

Ich bin auch dafür, dass nur Custom Designs gebencht werden, aber dann sind alle Energie, Temp, und Lautstärkemessungen der Refdesigns unbrauchbar.

Was mir bei diesen Gamebenchmarks immer fehlt, ist die Kernauslastung und VRAM Belegung. Aber auch der Stromverbrauch der Karten, der ja von Spiel zu Spiel sehr variiert.


Stimmt hast recht, ändert aber nichts daran, dass die OC Verisonen aus dem Handel 100-150 MHz schneller Boosten, und mit manuellem OC auch 1500 MHz kein großes Problem sind.

Und was GCN angeht, Ich hatte damals ne HD7950 die Karten hatten nen Boost von 925 MHz im Referenzdesign. Übertakten konnte man aber bis auf 1200 MHz, wenn man ne gute Karte hatte.
Das sind mal eben +30% mehr Takt. Wer die alte 800 MHz (non Boost) Verison hatte und die 1200 MHz schaffte, hatte damit ein OC von +50%. Das ist absolut pervers, wenn ich das mal so sagen darf.

Gut, fairerweise muss man sagen, dass die ersten Karten meist noch keinen so hohen Takt schafften, da brauchte es etwas Glück. Aber das Potential war in jedem Fall vorhanden. So um die 25% konnte man fast mit jeder Karte rausholen (und das ist schon sehr viel), mit etwas glück eben sehr viel mehr.
 
Ich fände es auch besser wenn ein Unterschied bei Referenzmodellen und OC Varianten zu Wort kommen würde. Im derzeitigen Augenblick gibt es nun mal sehr große Unterschiede bei der Übertaktbarkeit von den neuen Modellen beider Hersteller. Und eben dieser Leistung, der einer Grafikkarte zugerechnet werden sollte, muss Rechnung getragen werden.

Die Radeon R9 390X muss sich dagegen um sechs Prozent der GeForce GTX 980 geschlagen geben, während die Radeon R9 390 ein Prozent hinter der GeForce GTX 970 liegt.

Eine 980 zum Beispiel ist nicht einfach so zwischen einer Fury X (wo es nur ein Modell gibt, dass für Normalübertakter kaum übertaktbar ist) und einer 390X (ähnliches Szenario) zu platzieren. Statt 6 % Vorsprung hat die 980 eben 10-15.
 
Zuletzt bearbeitet:
Naja diese Prozentangaben sind doch albern. GCN hat bei 1GHz noch eine gute Leistung pro Watt, bei ca. 920MHz aber ihren Sweetspot, wenn ein solcher Chip aber mit 1Ghz Takt released wird, dann hat er die selbe OC Möglichkeiten, wie der selbe Chip @900MHz.

Tahiti, eher XT als Pro, ging noch ohne Probleme bis auf 1200Mhz, Hawaii hat aber eine deutlich höhere Transistordichte daher sind 1200MHz meist nur mit guter Kühlung möglich. Und beim Fiji ist die Energiedichte noch einmal deutlich höher, sodass meist schon bei ca. 1100MHz Schluss ist.
 
Schöner Test - dann wird es bei mir wohl eine 390er Nitro werden - und dazu einen FHD+ Monitor.
 
Moselbär damit machst nichts falsch
Auf alle Fälle, besonders bei der Moni-Wahl. Es sei denn, dass Plus steht für 1440p aufwärts ...^^

@Topic
Schönes Spiel & THX 4 Test und um noch etwas Öl in das Feuer zu gießen ...Gute 970er-Custommodelle erreichen idR 980er Stock-Niveau, folglich alles in Butter ... :p
 
Man sieht eigentlich nur wie unverhältnismäßig hoch die Anforderungen getrieben werden können
Ich finde es jetzt nicht unverhältnismäßig fordernd, wenn man das Spiel, das von der grafischen Qualität her mE nicht weit unter einem Witcher 2 rangiert, mit einer dreieinhalb Jahre alten GTX 680 (~770 minus ein paar %) halbwegs in 4k spielen kann und jeder popelige AMD-Prozessor für dreistellige Frameraten reicht (damals offenbar noch mit hartem FPS-Lock).

Anyway, sobald die Linux-Version da ist, wirds gekauft.
 
Thomaswww schrieb:
Hi, ich wünsche mir für zukünftige Grafikkarten Tests auch ältere Modelle und Auflösungen, bei den aktuelle Mainstream Modelle spielbare FPS liefern. Viele Benutzer haben doch 2-3 Jahre alte Karten und wollen wissen ob sich ein Neukauf lohnt.
Sehe ich auch so. Man sollte die alten Generationen nicht so schnell ausblenden. Allerdings muss man dazu sagen, dass man bei AMD ja momentan ganz gut runterrechnen kann, da viele Karten nur einen neuen Namen bekommen haben. :)
 
Trine 3 hat keine besonderen Hardware-Anforderungen.

Das hat dieser Test gezeigt.

AMD und NVidia zeigen kein großes Interesse an solchen Tests.

Kleine Grafikkarten kommen mit diesem Spiel gut zurecht.

Interessant ist für uns User wo es klemmt. Wir User pfeifen auf Casual Game @Fury.

Never Mind
 
grom schrieb:
genau so geil wie "vergleichs-screenshots"

Aber gerade Kantenglättung sieht man am besten auf Screenshots, wenn nicht live am Bildschirm.
 
Wo ist der Unterschied zwischen 1200Mhz und 1500Mhz bei der GTX970? Krüppelspeicher bleibt Krüppelspeicher.
 
Skidrow schrieb:
Aber gerade Kantenglättung sieht man am besten auf Screenshots, wenn nicht live am Bildschirm.
das siehst du nur live am bildschirm. denn dann bewegen sich die treppen bei schlechtem AA
 
Hagen_67 schrieb:
OFF- Toppic:
@Fanboys: Leute, ich fänd's echt mal schön, wenn man mal EINEN EINZIGEN Fred hier lesen könnte ohne das der eine oder andere meint in rot oder grün rumschei...n zu müssen. Geht auf nen Spielplatz, beschmeißt Euch mit Sand und klaut Euch die Förmchen...
Muß dir (leider) zustimmen, es nervt und verdirbt den Spaß am Lesen der Artikel. Kaum geht es auch nur entfernt um Grakas, kriechen die ersten Stinkstiefel aus ihren Löchern und versuchen, das Ganze Richtung AMD vs Nv zu lenken. Ein armseeliges Häufchen diese Fanboys...

*trotzdem interessanter Test. Werde mir das Game wohl zulegen, macht einen recht guten Eindruck trotz kurzer Spielzeit.
 
Zuletzt bearbeitet:
Es wäre viel interessanter gewesen statt eine R9 290 (390 ist ja schon dabei) eine R9 280/7950 zu testen um einen Vergleich zur R9 380 zu haben.

Ansonsten ein sehr schönes Spiel, Trine 2 hat im coop richtig Spass gemacht. Dieses hier hole ich mir sobald es im Sale für 10€ ist.
 
Skidrow schrieb:
Das Video ist mal wieder so herrlich sinnfrei, weil man die Unterschiede in der Kantenglättung a) in horizontaler Bewegung kaum sieht, und b) schon gar nicht in 30 FPS und c) erst recht nicht bei einem komprimierten Video.

screenshot_2015-08-22jvkwu.png
 
Zurück
Oben