Bericht Grafikkarten-Rangliste 2024: GPU-Vergleich mit GeForce RTX, Radeon RX & Arc für Juli

THG ist aber auch ein Extrem-Beispiel, weil alles mit "4K" Auflösung getestet wird. Desweiteren sollte man nicht vergessen, dass die R9 mit seinen 8 GB laut CB Aussagen, dann sogar besser gewappnet sein dürfte.
Von der Performance her, holt die R9 390 dann auf die Ti auf, der Verbrauch ist aber mit 100 Watt höher. Die 980 GTX spielt von der Performance auf einer anderen Liga, man müsste die Karte im Endeffekt mit der 390 gegen vergleichen, aber selbst die ist unter DX12 je nach Auflösung ca 10% schneller.
Das einfache Schubladendenken funktioniert hier nicht, man müsste komplett neu auswerten, was EchoeZ gemacht hat. Da hilft es auch nicht andere als Fanboys zu bezichtigen, nur weil es einem nicht in den Kram passt und alles doch nicht so dramatisch klingt, wie man es erhofft hat. Es sind zwar vllt diese 174 Watt zwischen 980 GTX und R9 390 aber da sind auch ca 20% Performance unterschied. Messung der R9 390 wären noch interessant, sogar an die Performance der 980GTX angepasst (UV-niedrigere Taktrate) oder 980GTX OC auf dessen Niveau rauf. Dann wäre es ein interessanter Vergleich.
So sind es leider nur einfach Werte.


Luxmanl525 schrieb:
Ansonsten bringst du da was durcheinander. Im übrigen ist der Vergleichsmaßstab für die 390 X die GTX 980 und nicht die GTX 980 Ti. Und da Reden wir locker von ca. 180 Watt Unterschied, das ist einiges, noch dazu Reden wir zusätzlich über erheblich höhere Abwärme. Na ja, was solls, so kenne ich das, sich die Dinge so zurecht Biegen, wie man sie braucht.
Hättest du eben auch die Werte neben dem Verbrauch begutachtet, würdest du merken, dass die R9 unter DX12 gleich schnell ist wie die 980GTX TI.

Somit hat der Vergleich von EchoeZ nichts mit Fanboy zu tun, sondern er hat einfach eine Basis gesucht, wo der Output möglichst der gleiche ist und dann den Verbrauch verglichen und der beträgt dann eben ca 100 Watt.

Es gibt Leute, die ihren Strom selbst Bezahlen.
Achso, sicherlich Spiele ich am Tag so zwischen 3-4 Stunden.
Woher weißt du, dass er seine Stromkosten nicht selbst zahlt ? Oder willst du nur ablenken ?

usopia
Kurze Fun-Frage, ist das nun eine Problematik für AMD oder NV ?

Ich würde es nicht als Problematik beschreiben, es sind einfach Fakten, auf die CB noch nicht eingegangen ist.
Aber obwohl ständig Leute mit ihren 980 GTX (wahrscheinliche, jene die am lautesten bellen, wahrscheinlich auch ehemalige 970 GTX Besitzer) meinen, es kommen ja sowieso erst in Jahren die ersten wirklichen DX12 Games; Es kommen das Monat und Folgemonat genug DX12 Tite auf den Markt.
Gott sei dank sehen wir dann die Performance/Watt der Karten under DX12 und können sie dann endlich halbwegs einordnen. Denn diese Diskussion bezüglich AoS und das ständige Geweine geht mir schon ziemlich auf die Nerven. Gut bin selber Schuld, dass ich jetzt auf die letzten Posts was geschrieben habe.

Meiner Meinung nach, werden sich die AMD was Performance/Watt unter DX12 im Vergleich zu den Werten in DX11 etwas verbessern aber es wird am Ende alles mehr oder weniger ausgewogen verhalten, sodass es weiterhin die Pro und Contra geben wird.
Man muss aber sagen, dass jene die Hawaii beim Release um die 400 Euro gekauft haben, bisher sehr gut gefahren sind. Anders als jene mit der Titan zum Beispiel.

Hier eine Liste von DX12 Games:
https://en.wikipedia.org/wiki/List_of_games_with_DirectX_12_support

Btw,Gears of War ist auch schon am Markt. In dem Spiel dürfte NV gegenüber AMD ja sehr profitieren. siehe Link.


PS: Bin gespannt ob das neue Total War nicht auch noch ein DX12 Unterstützung bekommt. Bilde mir ein, dass jene damals auch sehr zügig DX11 eingeführt hatten. Wobei gut, damals waren die noch im AMD Programm.
 
Zuletzt bearbeitet:
LeChris schrieb:
HBM2, GDDR5X, 14/16nm, zumindest bei AMD noch mal ein deutlicher Sprung in der Architektur ... also wer noch warten kann, wäre damit auch ganz gut beraten, oder?

Warten ist Nonsens, wenn man aktuell eine Karte benötigt. Du zahlst sowieso immer die Leistung im Vergleich zu anderen Karten. Außerdem wäre da noch die Verfügbarkeit bei Markteintritt. Ist ja nicht das erste Mal, dass es reine paper launch's gibt.
 
Luxmanl525 schrieb:
Hallo zusammen,

@ EchoeZ

Es gibt Leute, die ihren Strom selbst Bezahlen...

So long....

Die kaufen sich dann natürlich eine 980Ti um Strom zu sparen. Alles klar.
Ich hab nVida und Intel PC Hardware seit es sie zu kaufen gibt. Intel 286, 386 und 486 zum erstenmal mit einer Nvidia Diamond 3D.. Bin also auch offensichtlich alt genug um meinen Strom selbst zu zahlen.
Und um dich kurz zu erinnern:
Du schrieb:
Ich habe bei dem DX 12 von Ashes of the Singulyrity völlig die Leistungsaufnahme unter DX 12 vermisst, besonders mit den Asynchronus Shadern. (ich auch, nebenbei) Denn AMD hat damit zwar Vorteile möglicherweise, diese gehen eben auch mit einer unfaßbar hohen Leistungsaufnahme bzw. gestiegenen Leistungsaufnahme mit ein. Und das gilt insbesondere und vor allem für die speziell von CB so hoch gelobten R9 390 bzw. 390 X!

Und ich rede von Exorbitant gestiegenem Strombedarf bei DX 12 mit Asynchronus Shadern. Aber auch ohne sind es jetzt unter DX 12 über 180 Watt Unterschied bei diesem Spiel und zwar zwischen 390 X u. GTX 980. Es wundert mich sowieso nicht mehr, daß hier bei dem besagten Test diese Fakten völlig Unterschlagen wurden.

Das Fass hast Du geöffnet, und selbst das verkackt. Dramaturgie pur ohne jede Basis. Du vergleichst die Leistung der 390X mit einer langsameren Karte? Ernsthaft?


Diese Basis hab ich Dir dann geliefert, eben in der Form das bei AoS unter DX12 und 4k im THG-Test (Igors Test haben für mich die höchste Relevanz, nebenbei) die R9 390X so schnell ist wie die 980Ti.
Bildschirmfoto_2016-03-06_12-07-01.png
Dort beträgt die maximale (also NICHT immer benötigte) Leistungdifferenz ~110W!
Bildschirmfoto_2016-03-06_12-32-36.png
Und ich Depp hab letzte Nacht bei der R9 353W maximal gelesen und damit gerechnet, sind ja nur 333W maximale Leistungsaufnahme.

Egal..R9 390X User, freut euch über das Schmankerl
Auch wenns nur ein Fingerzeig ist, es muss verdammt viel schieflaufen, das 2016 mal nicht ausnahmweise ein AMD Jahr wird. Das kann doch nur schlimm für Leute sein, die fortlaufen AMDs Untergang predigen. Die können und wollen es einfach nicht wahrhaben, das mal der andere es besser gemacht hat. Ein e x o r b i t a n t e s NoGo :freak:

Du hast meinen Post werder vollständig gelesen, geschweige denn verstanden worauf ich damit hinaus wollte. Das habe ich wohl offenbar zu subtil verpackt, oder doch nicht? ;)

und sorry, Sarkasmus, Ironie und Zynismus sind allergische Reaktionen meinerseits, auf Stumpfsinn, Übertreibung und offensichtlicher Mangel an Interpretationfähigkeit von technischen Werten.
Häng mal n alten Stromzähler an deinen PC, mach ein Benches, kalkuliert deinen Verbrauch mittels der Benchmarkwerte und vergleich das mit den realen, nicht diskutierbaren Verbrauchswerten des Stromzählers in kWh. Dann wirst Du wissen, was ich meine ;)

Mich kannste gern Klugscheisser, Haarspalter, Besserwisser oder Moralprediger nennen. Nur nicht Fanboy. Da liegst Du sowas von daneben, wie mit deiner restlichen Einschätzung.
Doch nur AB :D
 
pipip schrieb:
...
Ich würde es nicht als Problematik beschreiben, es sind einfach Fakten, auf die CB noch nicht eingegangen ist.
Aber obwohl ständig Leute mit ihren 980 GTX (wahrscheinliche, jene die am lautesten bellen, wahrscheinlich auch ehemalige 970 GTX Besitzer) meinen, es kommen ja sowieso erst in Jahren die ersten wirklichen DX12 Games; Es kommen das Monat und Folgemonat genug DX12 Tite auf den Markt.
Gott sei dank sehen wir dann die Performance/Watt der Karten under DX12 und können sie dann endlich halbwegs einordnen. Denn diese Diskussion bezüglich AoS und das ständige Geweine geht mir schon ziemlich auf die Nerven. Gut bin selber Schuld, dass ich jetzt auf die letzten Posts was geschrieben habe.

...

Die Liste der Spiele für 2016 ist allerdings sehr überschaubar insbesondere im Vergleich zu den parallel veröffentlichten Spielen mit DX9 - 11, da nicht mal das veröffentlichte Descent laut Liste den DX12 Pfad offiziell besitzt; der Rest ist "when its done" bzw. Early Access". Dass soll jetzt den Einfluss von DX12 nicht schmälern, denn mich interessiert schon brennend, wie sich bei z.B. bei Tomb Raider das Spielvergnügen verbessert, wenn man später statt 11 dann DX12 verwenden kann - sprich was kann die Zukunft bringen. Mitunter wohl ein Grund, dass bei Toms sehr häufig "könnte" steht.
Allerdings spielt es halt Stand jetzt keine große Rolle noch dazu ist es in meinen Augen fast Quark, Monate nach Release den DX12 Pfad nachzuschieben. Wenn DirectX 12 für zukünftige Spiele tatsächlich wichtig wird, erwarte ich als Spieler, dass der DX12 Pfad gleich zu Release eingebaut ist, anderenfalls ist der Kosten/Nutzeneffekt für das Studio zumeist negativ (größter Umsatz in den ersten 6 Wochen nach Verkaufsstart).
Nvidia ist in jedem Fall gefordert, ein Auge auf den Treiberpfad zu legen und ähnliche Mühen wie für den DX11 Pfad zu investieren

Womit wir gleich beim Thema wären, dass mich hier ebenfalls noch interessiert. Wie groß ist der Aufwand, DirectX 12 als separaten Pfad mit zu integrieren (bzw. nur DX12)? Sicherlich bieten das die Main-Engines an, doch es hallt noch in den Ohren, dass die Hardware-Nähe mit gesteigertem Aufwand erkauft wird, den das Entwicklerstudio erst einmal aufbringen muss. Stimmt das noch?


@gerzerk

Die Notwendigkeit würde ich allein mit Defekt abgrenzen. Gerade jetzt würde sich Warten auf Polaris/Pascal definitiv lohnen und wenn man es bis dato ausgehalten hat, ist man das herunterregeln durchaus gewohnt ;)
 
Keine Ahnung wie manche das so sehen können das in dem Test eine R9 390X genauso schnell ist wie eine TI?
Ich sehe eigentlich nur das sie insgesamt langsamer ist und die MSI 980 TI dazu auch nicht unbedingt die schnellste Costumkarte ist.... Von dem her bleibt nur abzuwarten bis das fertige Game raus kommt und weitere Games kommen. Ist auch alles noch Beta...

Hier noch was interessantes. Aber halt auch nur Beta...
3D Center

Ich warte erst mal ab wie sich das in den nächsten Spielen entwickelt und auch mal ein fertiges Spiel getestet wird. Dann schrei ich erst mit wenn´s berechtigt ist! :evillol: Hitman kommt ja auch bald. Bin jedenfalls auf weitere Test´s gespannt. DX 11 und Vulkan gibt es ja auch noch.

Jedenfalls schön gemacht der Vergleich hier auf CB... Hat somit von Zeit zu Zeit immer wieder einen kleinen Anhaltspunkt! :daumen:
 
Palmdale

Ich nenne dir mal ein anders Beispiel. Wieso gibt es bei der PS4/XOne oder sogar bei der WiiU immer HD-Remakes und Remastered und das von alten Games, welche dann mit günstigeren Preisen und allen DLCs ect noch mal vermarktet werdeb?
Siehe WiiU Zelda the WindWaker HD Remake und zelda twilight princess HD Remake ? Nintendo selbst hat gesagt, dass sie experimentiert haben und es der sinnvollste Weg war, die WiiU besser zu verstehen und das Setting für das kommende WiiU zu finden.

Das selbe sehe ich für DX12. Die Studios wollen die neue Hardware (oder API) kennen lernen und am einfachsten ist es, bestehende/alte Games mal zu portieren und dann zu sehen, wo man die Weichen verstellen muss. Es sind also Lernprozesse für die "vollwertigen" DX12 Games".
Die aktuelle Hardware ab 400 GTX und HD 7000 sind alle DX12 (Ready) somit dürfte es nicht an der Hardware liegen. Desweiteren kommen von MS DX12 only Games bereits auf den Markt, welche nur über den MS Store zu erwerben sind.

Allein die Erfahrung die man für kommende Games sammelt, ist es wert, da etwas vorzeitig quer zufinanzieren. Außerdem ist es nichts neues, dass die meisten Studios mittlerweile mehr Fokus auf die Engine setzten, als auf die eigentliche Story ect. Deshalb gibt es auch aktuell meist nur Fortsetzungen.
Somit die Frage des Aufwands ist interessant, aber ist relativ zu dem Gedanken, ein DX12 Game zu entwickeln, ohne davor bereits Erfahrung mit funktionierenden Games gemacht zu haben.

Btw, den großen Umsatz machen die Firmen aktuell sowieso mit DLCs. Bei FarCry Primal haben sie sogar die gleiche Karte von FarCry 4 genommen. Die ganzen NV Gameworks "Features" sind weg, ich kann mir da nicht vorstellen, dass hier zum Beispiel gleich viel in die Entwicklung geflossen ist, wie es beim Vorgänger der Fall war. Trotzdem wird es wohl dutzende DLCs geben und mich würde es nicht wundern, wenn Ubisoft aktuell nicht selbst an DX12 übt. Wenn man das dann gemacht hat, wieso nicht auf den Markt bringen und testen ? Das wird man wohl nicht als DLC verkaufen können, aber man wird für das Game Werbung machen können, wenn man es auf die Verpackung schreiben kann.
Jene Games die auf der DX12 Liste stehen und einen DX12 RenderPfad bekommen, sind interessanterweise wieder voll im Gespräch. Könnte es schon fast als Marketing abtuen.
Tomb Raider, welches du selbst erwähnst, bleibt weiterhin im Gespräch, obwohl man es letztes Jahr bereits auf der XBOX ONE kaufen konnte. In kommenden DX12 Bench, vllt im Sommer, wenn die neuen Grafikkarten von AMD (und laut Gerüchten auch NV) da sind, wird Tomb Raider in der Liste zu finden sein.

Also ich persönlich sehe mehr Vorteile als Nachteile (Kosten).

Zusammenfassend, würde ich zustimmen, dass die Liste überschaubar ist, aber die Aussage "Es werden eh so bald keine DX12 Titel kommen" kann ich nicht zustimmen. Auch muss es nicht bei dem Umfang der Liste bleiben. Es könnten noch einige Ankündigungen kommen die dann durchaus Einfluss auf die aktuellen und kommenden Karten haben dürfte. Also eine konkrete Aussage ist aktuell einfach nicht möglich, somit sollte man das alles nicht einfach ausschließen.


VAN DOOM
Das Spiel ist in der Beta, aber das Studio hat kommuniziert, dass kaum noch was zum fertigen Spiel dazu kommen soll. Somit ist es "fast" final, so schrieb auch CB im Test.
Und wenn du dir die Tests anschaust, ist die R9 390 immer beim Niveau der 980 GTX TI. Gut letzter hat paar FPS mehr.
Freue mich dann gleich auf die ersten Kommentare bezüglich Die-Size und Margen kommen...
 
Zuletzt bearbeitet:
Pipip schrieb:
Gott sei dank sehen wir dann die Performance/Watt der Karten under DX12 und können sie dann endlich halbwegs einordnen. Denn diese Diskussion bezüglich AoS und das ständige Geweine geht mir schon ziemlich auf die Nerven. Gut bin selber Schuld, dass ich jetzt auf die letzten Posts was geschrieben habe.
Etwas das Gleiche hab ich auch noch gedacht, bevor ich den letzten Post abschickte. Dann dachte ich weiter und kam zu dem Schluss daß doch vielleicht dem ein- oder anderen User hier meine Rechnung für sich gegencheckt und begreift worauf ich ständig hinaus will:
Das die kalkulierten Leistungsmessungen nicht stellvertretend für den realen Verbrauch sind, jedoch gut für die Dimensionierung der Kühlung. Auch 100J wollen abgeführt werden.
Das bedeutet bei 3 Gehäuselüftern die mit 800rpm laufen, ein Plus von vielleicht 100rpm.
Wenn man damit während des Spielens nicht leben kann, meinetwegen.....

Noch ne allgemeine Anmerkung: Mit meine letzte Post wollte/will ich niemanden Überzeugen, sich aktuell eine 390X zu kaufen, schon garnicht als Alternative zu 980 ohne Ti.
Das muss jeder selbst für sichausmachen, was er spielen will, und von welchem Hersteller er die bessere Leistung dafür erwarten kann. Selbst einem Ich-zocke-ausschliesslich-AoS-Gamer würde ich die 390X NICHT empfehlen, da ist die Nano oder Fury definitiv vorzuziehen. Dem Ich-zocke-nur-Project.Cars-Gamer rate ich widerum von AMD ab.
So zu differenzieren ist eigentlich ganz leicht, ohne gefärbte Scheuklappen. Es geht dann nur nicht ganz so schwarz-weiss, denn niemand spielt nur 1 Spiel.

Ich stimme weiterhin Palmdale zu, es sind aktuell nicht übermäßig viele DX12 Spiele für 2016. Aber es ist Anfang März! Der Stein ist ins Rollen gekommen. Ob die verbaute Karte bis Pascal/Polaris reicht ist natürlich ne Sache wie weit man die Regler runterschrauben will. Ein Besitzer einer R9 3xx(X) muss sich wohl etwas weniger Gedanken machen.

Ich lehne mich nun zurück und warte ab, ich muss nicht aufrüsten, meine 560 läuft seit fast 6 Jahren tadellos, und noch hab' ich an so manchem Regler Luft nach unten. Trotrzdem wirds verdammt eng bis Jahresende.
Sollte die in nächster Zeit die Beine strecken, tendiere ich zu einer 960 wegen der geilen Anno 2205 Performance, oder eine 380 ohne X um das hoffnungsvolle Zittern um DX12 mitzuerleben.. ;)


gertrud: Die ZDF Doku "Die Väter der Pixel-Monster" kann ich jedem nur empfehlen. Die Älteren hier, die sich, wie ich im Alter von 12 Jahren, einen ZX81 Bausatz zusammengeschraubt und gelötet haben, werden sicherlich auch das ein oder andere Nostalgie-Tränchen kullern lassen.

Man bekommt dort mal einen tiefen Einblick in die Entwicklung der Gamerwelt, Interviews mit Leuten, deren Namen Anfang der 80er auf bunt beklebten Kasetten standen. Schauts euch an, es lohnt sich!
 
Zuletzt bearbeitet:
pipip schrieb:
Palmdale

...
Tomb Raider, welches du selbst erwähnst, bleibt weiterhin im Gespräch, obwohl man es letztes Jahr bereits auf der XBOX ONE kaufen konnte. In kommenden DX12 Bench, vllt im Sommer, wenn die neuen Grafikkarten von AMD (und laut Gerüchten auch NV) da sind, wird Tomb Raider in der Liste zu finden sein.

Also ich persönlich sehe mehr Vorteile als Nachteile (Kosten).

Zusammenfassend, würde ich zustimmen, dass die Liste überschaubar ist, aber die Aussage "Es werden eh so bald keine DX12 Titel kommen" kann ich nicht zustimmen. Auch muss es nicht bei dem Umfang der Liste bleiben. Es könnten noch einige Ankündigungen kommen die dann durchaus Einfluss auf die aktuellen und kommenden Karten haben dürfte. Und nicht nur AMD User rüsten auf AMD auf, es können auch aktuelle NV-User sein. Analog natürlich das selbe.

...

So restriktiv wollte ich die Interpretation der Liste nicht verstanden wissen ;). Ja, es kommt noch viel und bei den großen Publishern und deren Triple-A Games ist zu erwarten, dass DX12 mit eine große Rolle spielt.
Ich stimme zu, dass die derzeitig angekündigten Patches dazu dienen, die Zukunft zu testen und zu ebnen. Meine Befürchtung war eher, dass es ähnlich zu Mantle um sich greift, das Spiel zunächst mit DX11 zu veröffentlichen und 6 +/- 6 Monate später den DX12 Pfad. DAS wäre unschön.
Die von mir erwähnte Masse an DX11 Spielen kommt hingegen nicht von den großen Publishern, daher meine Frage zum Aufwand, DX12 in seinem Spiel zu implementieren. Es muss ja einen Vorteil geben, von dem der Entwickler überzeugt ist, dass es sein Spiel aufwertet vor dem Hintergrund, dass sich diese "Investition" ebenso rechnet. Zwei Pfade brauchen Zeit, kosten Geld und DX12 dürfte meinem Laienwissen nach eben aufwändiger zu implementieren sein (als Beispiel erwähnt die möglichen Kinderkrankheiten, die bei Mantle als Low-Level-API ebenso auftauchten wie Speicherbedarf explodiert).
 
Mich würde interessieren was für eine Grafikkarte ich für dota 2 oder lol brauche um sie auf 2monitoren ala 4K zu spielen :)
 
Die von mir erwähnte Masse an DX11 Spielen kommt hingegen nicht von den großen Publishern, daher meine Frage zum Aufwand, DX12 in seinem Spiel zu implementieren. Es muss ja einen Vorteil geben, von dem der Entwickler überzeugt ist, dass es sein Spiel aufwertet vor dem Hintergrund, dass sich diese "Investition" ebenso rechnet. Zwei Pfade brauchen Zeit, kosten Geld und DX12 dürfte meinem Laienwissen nach eben


es wird wie mit allen grossen Ankündigungen, auf die AMD fans hoffen, am Ende bleibt nur die lange Vorfreude und das eigentliche Thema wird still und heimlich im Sande verlaufen, weil insgeheim jeder weiss, dass es nie soweit kommen wird. Am Ende wird es mit AoS genau so sein wie Crysis 3, damals der Beweis, dass Multicore-nutzende Spiele die Zukunft sind und immer wieder erwähnt, ist aber eben nur ein SPiel von 1000 anderen und die Entwickler machen einfach einen Bogen drum. So wird auch hier die rechenpower der AMD-karten brachliegen, zumindest so lange, bis Nvidia eine gleich gute oder bessere ALternative hat, ob nun per Software oder der neuen GPU-Architektur.

übrigens finde ich den Vorsprung bei AMd gar nicht so dramatisch... Fury vor 980ti, dafür absurd hohe Wärmeabgabe, da kommt die 980ti mit OC auch hin, bei AMD ist nunmal OC nicht möglich in solchen Dimensionen wie mit grossen Kepler-oder Maxwell Karten. Eigentlich schade, denn die R9 nano ist ne geile Karte. Wenn denn das Potential endlich auch genutzt werden würde.

Zumindest setzt es nvidia aber unter Druck, überhaupt iwas zu optimieren, ist also gut für alle. Wenn das alles nicht sowieso nur ein Riesentheaterstück ist.
 
Zuletzt bearbeitet:
pipip schrieb:
VAN DOOM
Das Spiel ist in der Beta, aber das Studio hat kommuniziert, dass kaum noch was zum fertigen Spiel dazu kommen soll. Somit ist es "fast" final, so schrieb auch CB im Test.
Und wenn du dir die Tests anschaust, ist die R9 390 immer beim Niveau der 980 GTX TI. Gut letzter hat paar FPS mehr.
Freue mich dann gleich auf die ersten Kommentare bezüglich Die-Size und Margen kommen...

Ähm die R9 390 bestimmt nicht. Eher die mit X ;). Den Abstand zur Fury X mit 6 FPS zur R9 mit X finde ich jetzt nicht gerade die Welt.
Eine 980 TI wie die AMP! Extreme oder sowas wo eben deutlich höher taktet und schon sieht es wieder ganz anders aus trotz ohne Asynchronous Shader seitens Nvidia in diesem Spiel .

Wie gesagt im Gesamtverhältnis wenn man es betrachtet finde ich das jetzt keinen Untergang. Würde Nvidia hier auch so profitieren wäre das wahrscheinlich eher der Untergang für AMD. Von dem her finde ich es gut das Nvidia unter Druck gerät was für uns wiederum nur gut sein kann. Mehr Performance zum Nulltarif. Zumindest hoffe ich das Nvidia das auch Softwaretechnisch einigermaßen gut umgesetzt bekommt!

Ansonsten wie gesagt lasse ich das erstmal auf mich zu kommen. Ist ja nicht das einzige DX12 Game was kommen soll. Irgendwann muss sich Nvidia auch mal dazu äußern und was auf die Beine stellen. So oder so ist das nur gut für uns. Hoffe das Zen im Prozessor Bereich auch so Punkten kann gegen Intel.... :D
 
Zuletzt bearbeitet:
GEZ-Verweigerer schrieb:
. So wird auch hier die rechenpower der AMD-karten brachliegen, zumindest so lange, bis Nvidia eine gleich gute oder bessere ALternative hat, ob nun per Software oder der neuen GPU-Architektur.

Da laut der Aussage NV ja die gleiche oder bessere Alternative vorstellen wird, klingt die Aussage AMDs, die GCN effizienter zu machen gar nicht so abwegig.
Bin also auf Pascal gespannt, wie dort ACE-Unit umsetzten wird und NV dann ihr Design auch breiter aufstellen wird, wie es AMD mit GCN macht. Denn wie man in den Benchmarks gesehen hat, profitiert man mit ACE eigentlich erst dann richtig, wenn es eine hohe Anzahl von Shader gibt, die neben Grafikberechnung auch Compute-Berechnungen machen können.

Per Software meinst du wohl Gameworks ?

@Multithreading
Auch so ein Thema was DX12 betrifft.

VAN DOOM
Den Abstand zur Fury X mit 6 FPS zur R9 mit X finde ich jetzt nicht gerade die Welt.

Wieso sprichst du jetzt über die Fury X ? Dass die FuryX eine bessere Figur macht, wissen wir eh, speziell weil hier der Verbrauch niedriger ausfällt, als jener der R9 390X. Die Fury X verbaucht 30 Watt mehr als die 980GTX TI im Toms 4k Test und ist 5 FPS schneller.
Im Mittel geben sich beide Karten nichts. Kann gut sein, dass es eine TI gibt die mit OC schneller ist.

Jetzt stellt sich nur die Frage, was man zur nächsten Generation sagen kann. Wird NV weiterhin eher auf weniger Shader und geringere Packdichte und kein so breite Architektur setzten, dafür höhere Taktrate setzten über 1,5 ghz ? Oder werden sie wie AMD eher in die Breite gehen.
Darum geht es mir. Und bitte lasst doch das Gequatsche von "Untergang". Weder AMD noch NV wird "untergehen" auch wenn es gern immer prophezeit wird.
Klar ist, vieles was NV für Pascal wirbt hat GCN bereits. HBM, Interposer, virtuell shared Memory, Async Compute. AMD wird vermutlich auch nicht auf die Stelle stampfen, speziell, weil AMD zur R9 300 Serie bereits bekannt gegeben hat, dass der Nachfolger wieder mehr umsetzten wird. Das hat AMD dann vor Monaten mit Polaris angekündigt. Wie man dann zu Pascal positioniert, wird man dann sowieso sehen. Es ist sinnlos da jetzt irgendwelche Prognosen aufzustellen.
Wir haben 14nm FinFet, DX12 und andere neue low Level API usw. Das sind einfach viel zu viele Unbekannte.
 
Zuletzt bearbeitet:
@pipip

Komm mal wieder etwas runter. Ist ja schlimm mit dir! Hallo, das sind nur Grafikkarten! ;)

Warum ich die Fury-X mit einbeziehe? Sollte klar sein, weil ich wie schon mal erwähnt das Gesamtverhältnis betrachte in wie weit welches Modell an Performance zulegt und wie der Abstand FPS mäßig eben ausfällt.
Vom Verbrauch her habe ich nichts geschrieben. Brauchst darüber also auch nicht mit mir diskutieren. Ist mir in so einem DX12 Test auch wurscht, weil mich da nur die Leistung interessiert, also welche Technik mit was eben besser agiert.

Zum Thema Untergang oder wie auch immer...
Ich schrieb ja auch "wahrscheinlich" und sehe jetzt auch keinen so großen Hype wie so manch anderer User durch dieses eine Game im Betastatus. AMD im CPU-Bereich lebt ja schließlich auch noch.

Der Rest ist wie schon anders formuliert Zukunftsmusik, daher auch der Kommentar mit erstmal abwarten bis andere Games mit "DX12" kommen und wie viel Leistung zum Nulltarif eben dabei letztendlich raus kommt...

Von Pascal oder auch Polaris hört man auch nur das was die Medien im Vorfeld verbreiten. Wie es letztendlich wird,... keine Ahnung! Lass mich überraschen....

Jedenfalls muss ich ja momentan bei grün bleiben mit meinem Bildschirm, so oder so wird es eher Richtung Pascal gehen...:D
 
Zuletzt bearbeitet:
Hallo zusammen,

@ pipip

Lies dir doch bitte mal mein Posting # 249 durch. Dann schaust du mal, was daraus gemacht wurde, daß ich lediglich auf die Problematik des erheblich gestiegenen Stromverbrauchs unter DX 12 aufmerksam gemacht habe. Stellvertretend habe ich die 390 X Respektive GTX 980 genannt, weil die u. a. in ungefähr ähnlichen Preisregionen liegen und als ähnlich Leistungsfähig Positioniert angesehen sind. Und damit einhergehend habe ich die dezente Kritik geäußert, daß dies hier völlig Unterschlagen wurde.

Nicht mehr, nicht weniger. Der erhöhte Strombedarf ist ja nicht gerade gering, bei der 390 X speziell Liegen zwischen DX 11 u. DX 12 Sage und Schreibe über 100 Watt. Und wenn ich manche eher knapp kalkulierte Netzteile in manchen Rechnern sehe, dann sollte das für eine solche Publikation und einem solchen Anspruch wie CB ihn hat, zumindest rudimentär seine Erwähnung Finden. Das ist meine eigene Persönliche Meinung. Daß die GTX 980 Ti unter DX 12 nicht sonderlich schneller ist als die 390 X, hat für mich, speziell unter dem besagten Aspekt, keinerlei Gewichtung und deshalb bin ich da auch absichtlich nicht drauf eingegangen.

@ EchoeZ

Es gibt praktisch noch kein DX 12 Spiel. Du willst allen Ernstes als Vergleichsmaßstab Nehmen, daß die 390 X unter genau einem Benchmark eines Beta-Spiels ähnlich Leistungsfähig wie die GTX 980 Ti ist? Und nochmals, nur unter DX 12? Ich empfehle dir im übrigen dringendst das Schlußstatement des besagten Tests.

Zu deinen nur "110" Watt Unterschied zwischen GTX 980 Ti u. 390 X. Genau dies kann zwischen Sein und nicht Sein Entscheiden. Wie schon bemerkt, ich kann nicht Verstehen, daß ein solch eklatanter Unterschied nicht in dem Beitrag von CB seinen Niederschlag findet.

So long.....
 
Zuletzt bearbeitet:
kachiri schrieb:
Ich verstehe die Hoffnungen für den Sommer nicht. Ja. Es kommt eine neue Generation. Und klar, es wird auch wieder ein Leistungsplus geben. Was spricht aber für ein großes Plus im Sommer? AMD wirbt aktuell vor allem mit Effizienz. Am Ende haben wir - im Vergleich zu derzeitigen Karten im Mittelklase-Bereich - vielleicht 5-10% mehr Leistung. In FPS ist das meist dann nicht viel mehr. Dafür halt die höhere Effizienz. Aber was juckt mich Effizienz beim Gamen, wenn ich "aufrüsten" will und am Ende aber für ein Haufen Geld nicht mehr Leistung erhalte.

Nvidia und AMD werden sich hüten, ihre neue Technik zu verschenken. Der wirkliche Leistungssprung wird also wohl erst bei den wirklich teuren Karten ankommen. Und dann muss man mal sehen... Zu viel erhoffen, sollte man sicher aber eigentlich nicht.

So seh ich das auch. Interessant wäre zu erfahren was Nvidia wegen dem asynchronous compute Dilemma tun wird.
 
in 5 tagen kommt hitman, dann gehts hier erst richtig rund. :D
 
Aktuell ist ein schlechter Zeitpunkt für den Grafikkartenkauf.

nvidia

- Die Hardware unterstützt AS nicht, es bedarf einer leistungsschächeren Software(not)lösung
- Für DX11 ist die Hardware bis auf abgespeckte Karten wie die GTX 960 oder GTX 970 gut aufgestellt, besonders die GTX 980 Ti 6GB -> damit leider nur die teuersten Karten.
- Die GTX 980 Ti patzt unter DX12 aber besonders, die Leistungsaufnahme steigt beträchtlich an, das Leistungsplus ist aber ein Witz

AMD

- Unterstützt AS ziemlich gut
- Mutiert der preislich attraktive, leistungsstarke Hawaiichip zu einem üblen Schluckspecht, sobald die Computeinheiten richtig ausgelastet werden. Immerhin steigen auch die FPS stark an, undzwar auf das Niveau der GTX 980 Ti
- Die Fury (X) wiederum macht durchgehend eine sehr gute Figur, die 4GB Grafikkspeicher sind aber zu knapp bemessen
- Nur Tonga (R9 380X) erlaubt sich keine dieser Schwächen, jedoch fällt die Rohleistung der GPU selbst recht niedrig aus.

Überall gibt es einen Haken. Wenn jetzt unbedingt einen neue Karte gebraucht wird, wäre eine R9 aber noch die vernünftigste Lösung, insbesondere wenn man keine >600€ ausgeben möchte.

Die Neuerungen von Polaris/Pascal sind bitter nötig.
 
Naja, ich hatte über die Jahre sehr viele AMD/ATi Grafikkarten wie auch Nvidia (angefangen mit der Riva 128 :D ) und muss insgesamt sagen, dass Nvidia oft einfach das rundere Gesamtpaket hatte/hat.

Ein wesentliches Kriterium mich für eine GTX 960 statt einer AMD Karte zu entscheiden war die Effizienz.

Ich schaue sehr viele Serien/Filme über den PC, da kommt der H265 fixed function Decoder gerade recht. Außerdem spielt Abwärme eine große Rolle in einem ITX System. Die meiste Zeit läuft sowohl mein i5 6600 wie auch die Nvidia Karte komplett passiv(ein einzelner 120mm Lüfter befördert die Abwärme nach draußen).. beim Betrachten von x265 braucht der Player weniger als 1% CPU Power und die GPU langweilt sich ebenso. Dann noch Stromverbrauch im Mehrbildschirmbetrieb etc.

Muss meine Stromrechnung selbst zahlen also rechnet sich das alles jedes Jahr zu einem netten Sümmchen zusammen, weil der PC dann doch jeden Tag viele Stunden läuft.

Klar, wenn Mutti die Stromrechnung zahlt, kann man sich AMD Hitzkopfhardware verbauen. Ich hoffe, Polaris wird n Wendepunkt in Sachen Effizienz für AMD.
 
Rewt_TRE schrieb:
Ich schaue sehr viele Serien/Filme über den PC, da kommt der H265 fixed function Decoder gerade recht. Außerdem spielt Abwärme eine große Rolle in einem ITX System. Die meiste Zeit läuft sowohl mein i5 6600 wie auch die Nvidia Karte komplett passiv(ein einzelner 120mm Lüfter befördert die Abwärme nach draußen).. beim Betrachten von x265 braucht der Player weniger als 1% CPU Power und die GPU langweilt sich ebenso. Dann noch Stromverbrauch im Mehrbildschirmbetrieb etc.

Für diese Zwecke ist die GTX 960 sicherlich eine gute Karte, wer aber bloß eine möglichst starke Karte zum Spielen sucht, ist mit der R9 380 wesentlich besser bedient. Die 50W Mehrverbrauch sind nicht schlimm, da das Niveau an sich mit ihren ca. 150W beim Zocken immernoch sehr niedrig liegt.

Rewt_TRE schrieb:
Klar, wenn Mutti die Stromrechnung zahlt, kann man sich AMD Hitzkopfhardware verbauen. Ich hoffe, Polaris wird n Wendepunkt in Sachen Effizienz für AMD.

Das widerspricht sich.

Genau wenn man nicht 24/7 im Keller hockt und zockt (bei Mutti wohnt), sind diese Verbrauchsunterschiede unter Last eher unbedeutend. Es braucht Jahre, bis man beispielsweise den Aufpreis der GTX 980 gegenüber der R9 390X über den Stromverbrauch amortisieren kann. Wichtig ist nur, ob sich die Karte in einem normalen Gehäuse ohne großen Aufwand kühlen lässt. Das ist bei der R9 390 definitiv der Fall, eine GTX 580 ist da weit schlimmer.

Auch lächerlich ist der Umstand, dass viele die GTX 680/770 einer HD 7970/R9 280X aufgrund ihres Stromverbrauchs bevorzugt haben. Dumm nur, dass die Karten, zu denen die meisten letztendlich gegriffen haben, mit einer saftigen Werksübertaktung ausgestattet waren. Welche wiederum den Effizienzvorteil zuverlässig pulverisiert.

Ich weiß das genau, weil ich beide im Rechner hatte. So eine werksübertaktete GTX 770 heizt das Gehäuse deutlich stärker als eine R9 280X mit moderatem OC auf - wohlgemerkt ist das bei letzterer auch nicht mehr nötig, weil sie defacto leistungsfähiger ist. Der zusätzliche Grafikspeicher hat sich bekanntlich auch bezahlt gemacht.

Bei der GTX 480/580 (den größten SGPU-Stromfressern aller Zeiten) hat das ironischerweise niemanden gestört, weil die GTX 580 ein klein wenig stärker als die HD 6970 war. Jetzt plötzlich ist der Verbrauch super wichtig...

Ist er auch, aber ich find's lustig, wie diejenigen, die einen bestimmten Hersteller pauschal bevorzugen, ihre Prioritäten hin- und her verschieben. ;)
 
Zuletzt bearbeitet:
Luxmanl525 schrieb:
@ EchoeZ

Es gibt praktisch noch kein DX 12 Spiel. Du willst allen Ernstes als Vergleichsmaßstab Nehmen, daß die 390 X unter genau einem Benchmark eines Beta-Spiels ähnlich Leistungsfähig wie die GTX 980 Ti ist? Und nochmals, nur unter DX 12? Ich empfehle dir im übrigen dringendst das Schlußstatement des besagten Tests.

Zu deinen nur "110" Watt Unterschied zwischen GTX 980 Ti u. 390 X. Genau dies kann zwischen Sein und nicht Sein Entscheiden. Wie schon bemerkt, ich kann nicht Verstehen, daß ein solch eklatanter Unterschied nicht in dem Beitrag von CB seinen Niederschlag findet.

So long.....


Du verstehst es immernoch nicht. Du nimmtst den Verbrauch unter die Lupe, ich zeig dir die Mehrleistung und die Verhältnismäßigkeiten. Kein Vergleichsmaßstab für irgendwas. Es ist vollkommen egal wieviele DX12 Spiele es gibt. Hier zieht die 390X verhältnismäßig mehr Strom als alle anderen getesteten Karten. Ist das viel? Erstmal ja, aber im Verhältnis zum mehr an (Gratis-)Leistung - natürlich bezogen auf das eine Spiel und ist keine Prognose, allenfalls ein Fingerzeig für die Zukunft - nein.

Ganz allgemein und unabhängig und von AoS, ACE und DX12
: Wenn Du ein x-beliebiges Spiel und eine unbekannten 425€-Graka hast, wo Du in den Setting ein Häkchen setzt, hast 25% mehr Leistung und erreicht damit den Level einer ebenso unbekannten 692€ Grafikkarte, dann dürften dir die 110W höchster Spitzenwert ziemlich egal sein. Dann machst Du das Häkchen.

Das ist hier passiert, und da kann sich jeder 390X-Besitzer + AoS-Spieler einfach nur freuen. Da kann man die Bedeutung der maximalen Leistungsaufnahme noch so übertrieben pushen. An diesem Fakt ist nicht mehr zu rütteln.
Für den nächsten offiziellen DX12 Titel kann sich das alles ja ändern, nichts ist unmöglich. vielleicht hat nVidia den nächsten Wundertreiber mit Turbo-Software-ACE raus, und die Maxwells produzieren Strom. Wer weiss..
Das können wir dann gern besprechen, wenn es soweit ist.



PS:Und zu diesem Fakt hat komischwerweise niemand was gesagt:
Die 980Ti erkämpft sich das Plus (ohne ACE) von sage und schreibe knapp 3.5fps mit gut 55W ggü DX11 mehr. Getestetes Modell kostet 692,64€
Das ist, genau genommen, exorbitanter als bei der 390X. Bei diesem Spiel.


Jetzt bin ich aber endgültig raus..BILDet ruhig eure Meinung.
 

Anhänge

  • Bildschirmfoto_2016-03-06_21-58-58.png
    Bildschirmfoto_2016-03-06_21-58-58.png
    91,1 KB · Aufrufe: 658
  • Bildschirmfoto_2016-03-06_22-04-23.png
    Bildschirmfoto_2016-03-06_22-04-23.png
    98,7 KB · Aufrufe: 657
Zurück
Oben