Mein AMD-Erlebnis (eine Art "Tagebuch")

t3chn0

Fleet Admiral
Registriert
Okt. 2003
Beiträge
10.280
Vorwort:

Sodele zusammen,

meine beiden GTX980 sind verkauft, der glückliche Käufer hat ein extremes Schnäppchen gemacht.

Nochmal zum "WARUM MACHT MAN SOWAS?!". Ganz einfach, ich bin ein Technik-Nerd und experimentiere gerne. Ich versuche eine Lösung zu finden, für ein Problem, welches ich persönlich habe.

Das Problem:

Ich spiele fast nur Battlefield 4. Meißtens auf 64 Spieler-Servern , Conquest Large. Dank der Hilfe von HisN und vielen Anderen hier im Forum, konnte ich in den letzten Monaten viele Setups testen. Mein Ziel sind konstante 144FPS auf Ultra Settings in 1080P, evtl. auch mal 1440P(eine Illusion).

Getestet/besessen habe ich schon viele Karten in den letzten 14 Monaten.

GTX 780
R290
GTX 780 SLI
R290X 8GB
GTX 780 Ti
GTX 970
GTX 970 SLI
GTX 980
GTX 980 SLI

...das sind die Karten aus den letzten 14 Monaten. Am Rechner selbst schraube ich seit nunmehr 21 Jahren. In der Zeit gab es sehr viel Hardware. AMD/ATI Intel/Nvidia , gekauft habe ich immer was ich interessant gefunden habe.

Keine der oben genannten Kombinationen konnte mir die konstanten 144FPS ermöglichen(leider). Dies liegt primär an der heftigen CPU-Limitierung auf Seiten der Frostbite Engine.

Ich bin von einem 4770K mit Z87 Board und 1866er RAM auf einen 4790K mit Z97 Board und 2400er RAM umgestiegen, in der Hoffnung den "Flaschenhals" umgehen zu können. Der 4770K lief mit 4.2Ghz, der 4790K mit 4.9Ghz.

Das ist noch immer nicht genug, um beide 980er, oder auch 970er mit Saft zu versorgen. Bei den von mir genannten Settings, dümpeln die beiden 980er je nach Map bei 60-70% Auslastung rum, während sich die CPU die Birne heißkochen lässt.

Eine einzelne 980er wird in der Regel zu 90-99% ausgelastet, was eigentlich deutlich mehr Sinn macht. Währen da nicht so Karten wie Pearl Market, die sowohl GPU, als auch CPU bis ans äußerste treiben. Bei Pearl Market existiert zunächst mit einer 980er ein GPU Limit. Mit einem 980er SLI Verbund, wird daraus dann schnell wieder ein CPU-Limit, wobei beide Karte bei 95% Auslastung liegen. Sehr viel für 1080P.

Was also tun, um dem CPU-Limit aus dem Weg zu gehen? Wieder umrüsten auf Haswell-E? Vielleicht einen 5930K auf 4.5Ghz takten? Dann müßte man wieder in ein neues Board, neue CPU, neuer RAM investieren und die ganze Arbeit mit der Wasserkühlung. Nein, da muß es einen anderen Weg geben.

Genau in solchen Szenarien soll eine neue API-greifen. Der Name...Mantle. Dank Mantle soll die CPU Last drastisch verringert werden. Der viele Overhead durch die Physik-Berechnungen der Frostbite Engine können somit auf die GPU übertragen werden. Somit sollte das CPU Limit deutlich weniger stark ausgeprägt sein, als mit DirectX 11.X.

Ich hatte im März 2014 bereits eine 290X mit 8GB. Die VaporX Tri-X OC war auf 250 Karten damals limitiert und mit 720€ auch dementsprechend teuer. Mein Eindruck damals war hervorragend. Zumindest die Verarbeitung und die Kühlung waren extraklasse! Leider war die Karte unter Direct3D in etwa so schnell wie eine normale GTX 780.

Aus diesem Grund habe ich die Karte wieder zurückgeschickt und mir meinen Traum von einer 780Ti Classified KingPin Edition für satte 800€ erfüllt. Die Karte war der 290X in eigentlich allen Belangen überlegen, solange kein Mantle zum Einsatz kam. Unter Mantle waren die Karten in etwa gleich stark. Also Mantle 290X vs Direct3D 780Ti.

Ich habe die lausige D3D Performance auf den damaligen Treiber von AMD geschoben. Ob das stimmt, möchte ich nachfolgend beschreiben.

"Vorwort Ende"

Heute ist dann wieder eine 290X bei mir angekommen (ich habe erstmal eine Karte bestellt, um zu gucken, was sich alles an der AMD Front so getan hat).

Die 290X ist mit 8GB Speicher derzeit äußerst attraktiv bepreist. Für 384€ erhalte ich ein Speicher-Monster. Das ist der für mich absolut faire Preis.

Für ein etwaiges Crossfire Gespann habe ich mich direkt für eine Dual-Slot Karte entschieden. Meine Wahl viel auf die XFX R290X Double Dissipation Edition mit 8GB Speicher.

Der Chiptakt beträgt 1000 Mhz, der Speicher taktet mit 5500Mhz. Der verwendetet Speicher stammt von Hynix und bietet in Kombination mit dem 512 bit Speicher Interface, massive 352GB Bandbreite. Die 290X hat 2816 Shader.

Besonderheit der DD Edition: Der Speicher taktet mit 5500Mhz statt 5000Mhz und die Karte besitzt eine Unlocked Voltage all VRM 6-Phasen Spannungsversorgung.

Der qualitative Eindruck der Karte ist sehr gut. Die Karte ist locker 3-4cm länger als die 980 im Referenz-Design. Der Kühler besteht leider aus Kunststoff und nicht wie bei der 980, oder der TriX VaporX aus Alu. Dennoch wirkt alles sauber verarbeitet und schön. Für den BlingBling Faktor, sorgt das weiß erleuchtete XFX Logo auf der "Oberseite" der Karte.

http://xfxforce.com/de/products/amd...-290x-double-dissipation-edition-r9-290x-8dfd


-

Ich habe die Karte also eingebaut (8Pin+6Pin) und den Rechner angeschmissen.

Als kleine Anmerkung soll gesagt sein. Ich habe den Nvidia Treiber vorher sauber deinstalliert und das System nochmals zusätzlich mit DDU "gereinigt".

-

Die Karte ist im Idle unhörbar. Das gefällt mir sehr gut. ++

Ich habe anschließend den neuen Omega Catalyst installiert (14.12). Ich benutze Windows 8.1 Prof 64Bit.

Die Treiberinstallation ging ohne Probleme, genau wie bei Nvidia auch. Anschließend wurde noch die Gaming Evolved App installiert (ähnlich GeForce Experience). ++

Der Aufbau von GeForce Experience muß als deutlich einfacher und klarer bezeichnet werden. Die Gaming Evolved App wirkt im Vergleich etwas chaotischer und altbacken. Ist aber nicht weiter schlimm. Der Funktionsumfang ähnelt dem vom Nvidia , es gibt aber auch noch weitere nette Features.

Man bekommt fürs Spielen "Coins" gutgeschrieben. Diese kann man später verwenden um Dinge aus dem Shop zu erwerben. Dies können ältere Grafikkarten sein, Spiele, Items für Spiele, oder auch die Teilnahme an einer Verlosung für das Never Settle Programm, oder eine aktuelle Grafikkarte. Insgesamt herrscht hier ein Gleichstand zwischen AMD und Nvidia.

Kommen wir zur Leistung und zur Kühlung der Karte.

Nunja, hmmm, ich spiele ja primär Battlefield 4, alles andere ist derzeit total irrelevant für mich. Die ganze Aktion wurde ja nur durch BF4 initiiert.

Unterm Strich muß ich sagen, dass ich doch enttäuscht bin. Die Karte liegt auch mit Mantle weit hinter der GTX980 zurück. Die Karte wird permanent zu 99% ausgelastet, das ist eigentlich ein gutes Zeichen. Vermutlich funktioniert die CPU Entlastung auch, aber die 290X ist einfach nur zu schwach. Die Karte ist auch mit Mantle maximal so schnell wie eine 970 und ist deshalb auch in diesem Bereich preislich angesiedelt.

Während die 980 immer so 100-120FPS mit meinen Settings geliefert hat, bekomme ich mit der 290X mit Mantle in etwa 80-80FPS. Leider sind es auch manchmal um die 70FPS. Sowas kannte ich von der 980 gar nicht. Die GPU Auslastung konnte ich mit GPU-Z überprüfen und in der Tat, 99% GPU Last...IMMER! Eine Drosselung findet auch nicht statt, die Karte taktet komplett durch mit 1000 Mhz, Vram Bedarf liegt bei 3.2GB(bei der 980 waren es 2.8GB). Speicher taktet korrekt.

Die Temperatur der Karte liegt bei maximalen 72°C was ein sehr guter Wert ist für eine Dual-Slot 290X. Leider wird dies mit einer nicht unerheblichen Lautstärke "erkauft". Die Karte ist lauter als eine 980GTX im Referenz-Design. Das Gehäuse erwärmt sich deutlich stärker, als mit den beiden 980er Referenz-Lüftern. Nachdem ich jetzt die 980er so lange hatte und ich die Karte auch mit der 970 vergleichen kann, muß ich hier leider ganz klar sagen, das AMD doch deutlich hinter Nvidia zurück liegt.

Da helfen mir auch keine 2094908472983457GB an Speicher mehr weiter.

Eine zweite Karte kommt für mich eigentlich nicht mehr in Frage, da eine Karte schon so viel Wärme und Lautstärke erzeugt, dass ich gar nicht wissen will, wie es mit 2 solcher Karten ist. Lösung wäre hier eine Wasserkühlung. Aber, dann müßte ich wieder investieren und schneller wirds dadurch auch nicht. Außerdem geht die Garantie flöten und das bei einer Karte/n die ich eh wieder verkaufen werde.

Somit bleibt die Karte jetzt erstmal im System, bis die 390X auf den Markt kommt. Eventuell lasse ich die Karte dennoch zurückgehen und hole mir stattdessen wieder eine VaporX oder die PCS+.

Was mich jedoch am meißten aufregt, sind diese Kleinigkeiten, die Nvidia leider um Welten besser macht als AMD. Mir ist es vollkommen egal, ob ich jetzt von den AMD Fanboys eins über die Mütze bekomme, oder nicht. Das sind einfach Dinge, die gar nicht gehen.

Speicher-Bug:

Bereits beim Kauf der R290 MSI Gaming OC ist mir dieser Fehler aufgefallen! Ich habe das Problem bereits mehrfach (3x) an AMD kommuniziert. Als Antwort kam immer nur "Vielen Dank, wie leiten Ihre Nachricht weiter".

Wenn man einen 144Hz Monitor hat und dieser auf dem Desktop im Idle läuft, dann taktet sich der Speicher nicht korrekt runter, sondern arbeitet permanent mit vollen 5.5Ghz. Das verbraucht erheblich mehr Strom und es kommt zu deutlich mehr Abwärme.

Stellt man den Desktop auf 120Hz, schwupps, taktet der Speicher auf 150Mhz runter und alles ist perfekt. Meine lieben Herren bei AMD, ist es so schwer diese Funktion für 144Hz anzubieten?! Warum muß ich jedes Mal auf 120Hz wechseln, dann wieder 144Hz und wieder 120Hz...und dann auch noch immer durch das CCC durchhangeln...nee.....6 setzen, so gibt das keinen!

Vor allem, dass der Fehler schon seit dem R290 Release mit Beta-Treiber vorhanden war und nichts daran verändert wurde in so langer Zeit, ist einfach nur peinlich, sorry.

Dann VSR. Bitte was macht AMD denn da? Wenn man DSR kennt, dann ist man wirklicht verwöhnt von der Perfektion. DSR ist einfach perfekt. Einfach die DSR-Ratios auswählen und schon gehts los. Vielleicht noch vorher schön den Schärfegrad anpassen...perfekt. Direkt perfekt von Tag 1 an.... ich hatte damals NIEMALS auch nur ein Problem.

Also, gleiches Spiel, diesmal AMD VSR.

Man setzt einen Haken und kann somit direkt alle Auflösungen wählen. Das Maximum liegt jedoch nicht bei 4K, wie bei DSR , sondern bei 3200x1800 Pixeln. Ok, höher als 1440P bin ich eh nie gegangen. Also, Schärfegrad auswählen....oh...wait...das ist gar nicht möglich. Ich muß die Einstellung nehmen, die mir AMD vorsetzt. Nun gut....vielleicht ist die Einstellung ja ganz ok.

In der Tat, die Einstellung ist im Spiel wirklich ganz passabel. Vielleicht könnte es einen Ticken schärfer sein, aber ok.

Doch....was ist das? Was um Himmelswillen ist mit den FPS passiert?! Eine lausige Erhöhung der Auflösung von 1080P auf 1440P hat der 980er nahezu nichts ausgemacht. Sind die FPS halt von 100-120FPS, auf 95-110 gesunken.

Bei der 290X sinken die FPS aber mal eben auf satte 52-60FPS. Das sind gut 30-40% Performanceverlust. Was ist denn hier passiert? Ich gehe davon aus, das Nvidia einen deutlich besseren Filter Algorithmus verwendet als AMD. Der von AMD kostet scheinbar mächtig Leistung und ist daher für mich unbrauchbar.

Aber auch hier endet die Chaos-Fahrt AMD nicht. Bei DSR kann ich bis 4K Auflösung immer mit 144Hz spielen....das ist ein Traum.

Was macht AMD...1080P mit 144Hz, 1200P mit 120Hz, 1440P mit 100Hz und 1800P mit 60Hz. Das ist doch wohl nicht deren Ernst oO. Die Jungs sollten echt mal eine Tasse grünen Tee trinken, um mal wieder klarzukommen.

Genau diese Perfektion sorgt dafür, dass Nvidia , AMD den Rang total abläuft. Für mich ist sowas eine Zumutung. Gottseidank bin ich leidensfähig und stehe auf diesen Kram. Wenn ich jetzt alles zusammengekratzt hätte und mich absolut auf diese Karte freuen würde, dann wäre ich sehr sehr enttäuscht.

So nehme ich diese Sache mit einem lachenden und einem weinenden Auge.

Wie sich das alles noch entwickeln wird und warum AMD nicht auf mich hört ^^, erfahrt ihr hier zu anderer Zeit.

Ich danke erstmal für Eure Aufmerksamkeit =).
 
Soll ja jeder sein Geld auf seine Art und Weise unters Volk bringen, aber wieso der ganze Aufwand? Ich mein es gibt ne menge Benchmarks da draußen im World Wide Web, insb. zu BF4.

Du verkaufst 2 GTX980 und schwenkst um auf ne R9 290X und bist verwundert, dass du nun ne schlechtere Performance hast?

Nen schwenk auf zwei R9 hätte ich ja noch nachvollziehen können, um SLI/Crossfire insb. unter Mantle zu testen, aber aus dem Tagebucheintrag werd ich grad gar nicht schlau :freak:
 
ein simpler tipp: es ist seit bekannt dass AMD schlechter ist. verkauf nächstes mal deine karten erst, wenn du die neue karte ausreichend getestet hast.
 
Kann nicht verstehen warum du soviel Geld und Zeit ausgibst nur damit BF4 144 FPS konstant läuft.
Es ist technisch momentan kaum möglich diese Performance zu erreichen, das hättest du aber im Internet herausfinden können.
Auch der wechsel von Nvidia auf AMD hättest du dir sparen können.

Warum nicht damit Leben das man die 144 FPS nicht erreicht?
 
Ganz großes Kino! Musst ja nicht die AMD Karten kaufen, bleibe bei Nvidia und werde glücklich. Für mich ist der Artikel ein reines AMD Bashing.
 
@t3chn0: Danke für den Bericht :) War zwar viel Text, aber ich hab mir trotzdem alles gut durchlesen können.


Es ist ja jedem selber überlassen für was er sein Geld ausgibt und wenn es ihm eine Freude macht ist das doch auch was Gutes.
Und wenn man so oft die Grafikkarte wechselt, macht man sich mit Sicherheit Gedanken darüber, ob man die Neue erst testet und dann wechselt.
 
Was mir auch noch dazu einfällt, wenn du nicht komplett neu installieren willst, setze Win8.1 einfach komplett zurück, diese Treiberentferner gehören in die Schlangenöl-Kategorie. BF4 ist schnell neuinstalliert, einfach Origin installieren, beenden, alten, vorhergesicherten Origin Ordner drüber kopieren -> Fertig
 
Das was er macht ist genau das was mich auch reizt, nur fehlt mir dazu das Geld. Das sollte auch jeder akzeptieren.
Von AMD bin ich auch sehr entäuscht was die Treiber für Linux angeht.
 
Haha vergleicht eine 980gtx gegen eine 290x das sind zwei verschiedene Generationen. Was hast du erwartet, außerdem ist das ja bekannt, wenn man sich auch nur mal einen Test anschaut.
 
Speicher-Bug:

Bereits beim Kauf der R290 MSI Gaming OC ist mir dieser Fehler aufgefallen! Ich habe das Problem bereits mehrfach (3x) an AMD kommuniziert. Als Antwort kam immer nur "Vielen Dank, wie leiten Ihre Nachricht weiter".

Wenn man einen 144Hz Monitor hat und dieser auf dem Desktop im Idle läuft, dann taktet sich der Speicher nicht korrekt runter, sondern arbeitet permanent mit vollen 5.5Ghz.

Das ist kein Bug, es ist gewollt bei 144Hz:

In many cases, the speed of the vblank is faster than GDDR5 memory could feasibly respond to any changes in clockspeed that might be required to avoid display corruption. Such a clockspeed change could occur when you switch from one power state to another, with a commensurate change in mClk.

To avoid display corruption in all scenarios, the only one-size-fits-all fix is to run the VRAM at max clock.
 
Ich verstehe nicht, warum hier einige es negativ sehen, wenn man einfach seine Meinung schreibt und das im Verhältnis zum Rest dieses Forums recht niveauvoll! Ich freue mich über solch Texte.

Dass es Menschen gibt, die so viel Geld in ihr Hobby investieren, ist doch klar und gut so. Andere kaufen sich einen minimal größeren Turbolader für ihr Auto und haben darauf statt 450 vielleicht 500 PS. Das ist auch nicht recht sinnig!

Leider spiegelt der Text auch meine Erfahrungen wieder. Meine Hoffnung liegt auch in der 380X, da ich eigentlich immer zufrieden mit AMD/ATI war. Noch leistet mir meine GTX 670 treue Dienste. Hoffentlich auch noch bei GTA5. :)
 
Leute, es geht ja nicht nur darum, dass er 2x GTX 980 gegen 1x R9 290X 8GB vergleicht. Im letzten Drittel geht er auch auf generelle Unterschiede zwischen Nvidia und AMD ein. Und das was er da sagt glaube ich ihm sogar. Warum auch nicht. Er ist, wie er selbst sagt, ein Technik-Nerd und möchte halt die beste Lösung haben. Dafür ist er auch bereit, eine ganze Stange Geld hinzulegen. Wieso auch nicht, jedem das seine.

Ich bedanke mich jedenfalls an der Stelle für den Beitrag. War interessant zu lesen. In Zukunft gerne mehr davon.

Nvidia scheint wohl wirklich mehr "Perfektion" an den Tag zu legen als AMD. Leider ist mir diese Firma mit der Zeit aber auch irgendwo immer unsympatischer geworden. Stichwort proprietäres G-Sync, Gameworks und PhysX.
 
und hast du denn jetzt einen 5820K@4,5 und 290X CF @Mantle ausprobiert oder nicht?
 
Das geschilderte Problem des TE zielt doch eindeutig auf Performance, dass er mit Treibern etc. bei AMD nicht zufrieden ist spielt da für mich ne untergeordnete Rolle.

Wenn ich den Thread damit starte zu erwähnen dass ich vor einem Performance Problem stehe und gerade 2 GTX980 gegen eine R9 290X getauscht habe, dann ist das einfach fragwürdig. Zudem muss ich als Technik-Nerd nicht auch zeitgleich eine Geldverbrennungsmaschine sein. Ich denke jeder hier im Forum hat einen Hang zur Technik, aber bei der GPU-Historie setze ich doch schon ein wenig Kenntnis über die aktuellen GPU-Leistungen voraus.
 
Zuletzt bearbeitet:
Kurzfassung: Du hast eine der schnellsten CPUs für Spieler bis ans Limit übertaktet (4,9 GHz!!) und beschwerst dich, dass du mit einem viel älteren und 180 € (320 zu 500) billigerem Modell nicht mehr FPS hast. Das klingt schon wie der Beginn eines schlechten Trollbeitrags.

Nahezu alle Dinge,die du bemängelst, hättest du mit simpler Recherche auf Computerbase herausfinden können:

- Die Leistungsfähigkeit hat CB ausführlich beleuchtet. Es ist doch glasklar, dass Mantle nicht viel bringt, wenn man eine solche CPU hat (wie auch).

- Die sinnlosen Tools Geforce Experience und Gaming Evolved hat CB auch ausführlich beleuchtet.

- Lautstärke und Temperatur hättest du durch den CB-Test auch locker vergleichen können.

- Dass die Leistung bei Downsampling einbricht, ist auch mehr als einleuchtend. Die GTX 980 hängt (zumindest ein klein wenig) im CPU-Limit, dass sie bei Downsampling also prozentual weniger verliert liegt auf der Hand, da sie mit steigender GPU-Last besser ihre Stärken ausspielen kann. Und so lumpig ist die Auflösung 2.560 × 1.440 gar nicht, ergeben sich doch hierbei 3.686.400 Bildpunkte. 1920x1080 ergibt nur 2.073.600 Bildpunkte. Das entspricht einer Vergrößerung um etwa 78%, also alles, aber keine "lausige" Erhöhung!

- Deine Erfahrungen mit 120 / 144 Hz kann ich bestätigen, sehe das aber nicht ganz so dramatisch. Ich spiele BF4 nicht, aber in nahezu jedem aktuellen Spiel kann ich die Bildwiederholfrequenz einstellen. Starte ich bspw. CS GO, so läuft dieses automatisch mit 144 Hz, sobald ich das Spiel verlasse, wechselt die GPU wieder zu 120 Hz. Zur Not gibt es auch immer noch Tools wie RadeonPro, ist dir das auf deinen GPU-Reisen noch nicht begegnet?
Bei dem von dir vorgetragenen Sachverhalt muss es sich ja btw. nicht mal um einen Bug handeln, könnte sich um eine architekturbedingte Eigenart handeln. Schließlich lässt sich der VRAM-Takt bei Hardwarebeschleunigung von Filmen auch nicht beliebig senken und das ist ebenfalls kein "Bug" (edit: Siehe Matzegr).

- Die Unterschiede zwischen den Downsampling-Varianten hat CB auch erst kürzlich getestest, man hätte dort alles nachlesen können. Insgesamt wird die Bildqualität bei AMDs Lösung sogar als leicht besser eingestuft, anhand eines Spiels und einer subjektiven Meinung kann man eben kein gutes Urteil treffen.


Und zu welchen unqualifizierten Antworten dein Thread führt, sieht man ja sehr gut an tnoays Post...
 
Zuletzt bearbeitet:
Für mich hört sich das nicht nach einem Hobby an sondern mehr wie der klägliche versuche Dinge zu erreichen die nicht erreichbar sind bzw. nur mit extremen Mitteln. Besonders viel Begeisterung beim ständigen wechseln der Grafikkarten lese ich auch nicht aus dem Text.
 
Dieser schmale Grad zwischen Genie und Wahnsinn... wurde hier in meinen Augen schon vollkommen niedergetreten.
Nahezu alles was du durch teures kaufen und ausprobieren erfahren hast, hätte man recherchieren können. Das mag zwar dein Hobby sein, aber so wie dich das zu wurmen scheint, macht es wohl kaum großen Spaß.

Ich erlaube mir kein subjektives Urteil, jeder kann mit seiner Freizeit und seinem Geld anstellen was er will. Objektiv betrachtet, klingt das nach Fanatismus...

Wer steigt denn von 2x GTX980 auf aktuelle AMDs runter? ... warum denn!?
 
Zurück
Oben