t3chn0
Fleet Admiral
- Registriert
- Okt. 2003
- Beiträge
- 10.190
Vorwort:
Sodele zusammen,
meine beiden GTX980 sind verkauft, der glückliche Käufer hat ein extremes Schnäppchen gemacht.
Nochmal zum "WARUM MACHT MAN SOWAS?!". Ganz einfach, ich bin ein Technik-Nerd und experimentiere gerne. Ich versuche eine Lösung zu finden, für ein Problem, welches ich persönlich habe.
Das Problem:
Ich spiele fast nur Battlefield 4. Meißtens auf 64 Spieler-Servern , Conquest Large. Dank der Hilfe von HisN und vielen Anderen hier im Forum, konnte ich in den letzten Monaten viele Setups testen. Mein Ziel sind konstante 144FPS auf Ultra Settings in 1080P, evtl. auch mal 1440P(eine Illusion).
Getestet/besessen habe ich schon viele Karten in den letzten 14 Monaten.
GTX 780
R290
GTX 780 SLI
R290X 8GB
GTX 780 Ti
GTX 970
GTX 970 SLI
GTX 980
GTX 980 SLI
...das sind die Karten aus den letzten 14 Monaten. Am Rechner selbst schraube ich seit nunmehr 21 Jahren. In der Zeit gab es sehr viel Hardware. AMD/ATI Intel/Nvidia , gekauft habe ich immer was ich interessant gefunden habe.
Keine der oben genannten Kombinationen konnte mir die konstanten 144FPS ermöglichen(leider). Dies liegt primär an der heftigen CPU-Limitierung auf Seiten der Frostbite Engine.
Ich bin von einem 4770K mit Z87 Board und 1866er RAM auf einen 4790K mit Z97 Board und 2400er RAM umgestiegen, in der Hoffnung den "Flaschenhals" umgehen zu können. Der 4770K lief mit 4.2Ghz, der 4790K mit 4.9Ghz.
Das ist noch immer nicht genug, um beide 980er, oder auch 970er mit Saft zu versorgen. Bei den von mir genannten Settings, dümpeln die beiden 980er je nach Map bei 60-70% Auslastung rum, während sich die CPU die Birne heißkochen lässt.
Eine einzelne 980er wird in der Regel zu 90-99% ausgelastet, was eigentlich deutlich mehr Sinn macht. Währen da nicht so Karten wie Pearl Market, die sowohl GPU, als auch CPU bis ans äußerste treiben. Bei Pearl Market existiert zunächst mit einer 980er ein GPU Limit. Mit einem 980er SLI Verbund, wird daraus dann schnell wieder ein CPU-Limit, wobei beide Karte bei 95% Auslastung liegen. Sehr viel für 1080P.
Was also tun, um dem CPU-Limit aus dem Weg zu gehen? Wieder umrüsten auf Haswell-E? Vielleicht einen 5930K auf 4.5Ghz takten? Dann müßte man wieder in ein neues Board, neue CPU, neuer RAM investieren und die ganze Arbeit mit der Wasserkühlung. Nein, da muß es einen anderen Weg geben.
Genau in solchen Szenarien soll eine neue API-greifen. Der Name...Mantle. Dank Mantle soll die CPU Last drastisch verringert werden. Der viele Overhead durch die Physik-Berechnungen der Frostbite Engine können somit auf die GPU übertragen werden. Somit sollte das CPU Limit deutlich weniger stark ausgeprägt sein, als mit DirectX 11.X.
Ich hatte im März 2014 bereits eine 290X mit 8GB. Die VaporX Tri-X OC war auf 250 Karten damals limitiert und mit 720€ auch dementsprechend teuer. Mein Eindruck damals war hervorragend. Zumindest die Verarbeitung und die Kühlung waren extraklasse! Leider war die Karte unter Direct3D in etwa so schnell wie eine normale GTX 780.
Aus diesem Grund habe ich die Karte wieder zurückgeschickt und mir meinen Traum von einer 780Ti Classified KingPin Edition für satte 800€ erfüllt. Die Karte war der 290X in eigentlich allen Belangen überlegen, solange kein Mantle zum Einsatz kam. Unter Mantle waren die Karten in etwa gleich stark. Also Mantle 290X vs Direct3D 780Ti.
Ich habe die lausige D3D Performance auf den damaligen Treiber von AMD geschoben. Ob das stimmt, möchte ich nachfolgend beschreiben.
"Vorwort Ende"
Heute ist dann wieder eine 290X bei mir angekommen (ich habe erstmal eine Karte bestellt, um zu gucken, was sich alles an der AMD Front so getan hat).
Die 290X ist mit 8GB Speicher derzeit äußerst attraktiv bepreist. Für 384€ erhalte ich ein Speicher-Monster. Das ist der für mich absolut faire Preis.
Für ein etwaiges Crossfire Gespann habe ich mich direkt für eine Dual-Slot Karte entschieden. Meine Wahl viel auf die XFX R290X Double Dissipation Edition mit 8GB Speicher.
Der Chiptakt beträgt 1000 Mhz, der Speicher taktet mit 5500Mhz. Der verwendetet Speicher stammt von Hynix und bietet in Kombination mit dem 512 bit Speicher Interface, massive 352GB Bandbreite. Die 290X hat 2816 Shader.
Besonderheit der DD Edition: Der Speicher taktet mit 5500Mhz statt 5000Mhz und die Karte besitzt eine Unlocked Voltage all VRM 6-Phasen Spannungsversorgung.
Der qualitative Eindruck der Karte ist sehr gut. Die Karte ist locker 3-4cm länger als die 980 im Referenz-Design. Der Kühler besteht leider aus Kunststoff und nicht wie bei der 980, oder der TriX VaporX aus Alu. Dennoch wirkt alles sauber verarbeitet und schön. Für den BlingBling Faktor, sorgt das weiß erleuchtete XFX Logo auf der "Oberseite" der Karte.
http://xfxforce.com/de/products/amd...-290x-double-dissipation-edition-r9-290x-8dfd
-
Ich habe die Karte also eingebaut (8Pin+6Pin) und den Rechner angeschmissen.
Als kleine Anmerkung soll gesagt sein. Ich habe den Nvidia Treiber vorher sauber deinstalliert und das System nochmals zusätzlich mit DDU "gereinigt".
-
Die Karte ist im Idle unhörbar. Das gefällt mir sehr gut. ++
Ich habe anschließend den neuen Omega Catalyst installiert (14.12). Ich benutze Windows 8.1 Prof 64Bit.
Die Treiberinstallation ging ohne Probleme, genau wie bei Nvidia auch. Anschließend wurde noch die Gaming Evolved App installiert (ähnlich GeForce Experience). ++
Der Aufbau von GeForce Experience muß als deutlich einfacher und klarer bezeichnet werden. Die Gaming Evolved App wirkt im Vergleich etwas chaotischer und altbacken. Ist aber nicht weiter schlimm. Der Funktionsumfang ähnelt dem vom Nvidia , es gibt aber auch noch weitere nette Features.
Man bekommt fürs Spielen "Coins" gutgeschrieben. Diese kann man später verwenden um Dinge aus dem Shop zu erwerben. Dies können ältere Grafikkarten sein, Spiele, Items für Spiele, oder auch die Teilnahme an einer Verlosung für das Never Settle Programm, oder eine aktuelle Grafikkarte. Insgesamt herrscht hier ein Gleichstand zwischen AMD und Nvidia.
Kommen wir zur Leistung und zur Kühlung der Karte.
Nunja, hmmm, ich spiele ja primär Battlefield 4, alles andere ist derzeit total irrelevant für mich. Die ganze Aktion wurde ja nur durch BF4 initiiert.
Unterm Strich muß ich sagen, dass ich doch enttäuscht bin. Die Karte liegt auch mit Mantle weit hinter der GTX980 zurück. Die Karte wird permanent zu 99% ausgelastet, das ist eigentlich ein gutes Zeichen. Vermutlich funktioniert die CPU Entlastung auch, aber die 290X ist einfach nur zu schwach. Die Karte ist auch mit Mantle maximal so schnell wie eine 970 und ist deshalb auch in diesem Bereich preislich angesiedelt.
Während die 980 immer so 100-120FPS mit meinen Settings geliefert hat, bekomme ich mit der 290X mit Mantle in etwa 80-80FPS. Leider sind es auch manchmal um die 70FPS. Sowas kannte ich von der 980 gar nicht. Die GPU Auslastung konnte ich mit GPU-Z überprüfen und in der Tat, 99% GPU Last...IMMER! Eine Drosselung findet auch nicht statt, die Karte taktet komplett durch mit 1000 Mhz, Vram Bedarf liegt bei 3.2GB(bei der 980 waren es 2.8GB). Speicher taktet korrekt.
Die Temperatur der Karte liegt bei maximalen 72°C was ein sehr guter Wert ist für eine Dual-Slot 290X. Leider wird dies mit einer nicht unerheblichen Lautstärke "erkauft". Die Karte ist lauter als eine 980GTX im Referenz-Design. Das Gehäuse erwärmt sich deutlich stärker, als mit den beiden 980er Referenz-Lüftern. Nachdem ich jetzt die 980er so lange hatte und ich die Karte auch mit der 970 vergleichen kann, muß ich hier leider ganz klar sagen, das AMD doch deutlich hinter Nvidia zurück liegt.
Da helfen mir auch keine 2094908472983457GB an Speicher mehr weiter.
Eine zweite Karte kommt für mich eigentlich nicht mehr in Frage, da eine Karte schon so viel Wärme und Lautstärke erzeugt, dass ich gar nicht wissen will, wie es mit 2 solcher Karten ist. Lösung wäre hier eine Wasserkühlung. Aber, dann müßte ich wieder investieren und schneller wirds dadurch auch nicht. Außerdem geht die Garantie flöten und das bei einer Karte/n die ich eh wieder verkaufen werde.
Somit bleibt die Karte jetzt erstmal im System, bis die 390X auf den Markt kommt. Eventuell lasse ich die Karte dennoch zurückgehen und hole mir stattdessen wieder eine VaporX oder die PCS+.
Was mich jedoch am meißten aufregt, sind diese Kleinigkeiten, die Nvidia leider um Welten besser macht als AMD. Mir ist es vollkommen egal, ob ich jetzt von den AMD Fanboys eins über die Mütze bekomme, oder nicht. Das sind einfach Dinge, die gar nicht gehen.
Speicher-Bug:
Bereits beim Kauf der R290 MSI Gaming OC ist mir dieser Fehler aufgefallen! Ich habe das Problem bereits mehrfach (3x) an AMD kommuniziert. Als Antwort kam immer nur "Vielen Dank, wie leiten Ihre Nachricht weiter".
Wenn man einen 144Hz Monitor hat und dieser auf dem Desktop im Idle läuft, dann taktet sich der Speicher nicht korrekt runter, sondern arbeitet permanent mit vollen 5.5Ghz. Das verbraucht erheblich mehr Strom und es kommt zu deutlich mehr Abwärme.
Stellt man den Desktop auf 120Hz, schwupps, taktet der Speicher auf 150Mhz runter und alles ist perfekt. Meine lieben Herren bei AMD, ist es so schwer diese Funktion für 144Hz anzubieten?! Warum muß ich jedes Mal auf 120Hz wechseln, dann wieder 144Hz und wieder 120Hz...und dann auch noch immer durch das CCC durchhangeln...nee.....6 setzen, so gibt das keinen!
Vor allem, dass der Fehler schon seit dem R290 Release mit Beta-Treiber vorhanden war und nichts daran verändert wurde in so langer Zeit, ist einfach nur peinlich, sorry.
Dann VSR. Bitte was macht AMD denn da? Wenn man DSR kennt, dann ist man wirklicht verwöhnt von der Perfektion. DSR ist einfach perfekt. Einfach die DSR-Ratios auswählen und schon gehts los. Vielleicht noch vorher schön den Schärfegrad anpassen...perfekt. Direkt perfekt von Tag 1 an.... ich hatte damals NIEMALS auch nur ein Problem.
Also, gleiches Spiel, diesmal AMD VSR.
Man setzt einen Haken und kann somit direkt alle Auflösungen wählen. Das Maximum liegt jedoch nicht bei 4K, wie bei DSR , sondern bei 3200x1800 Pixeln. Ok, höher als 1440P bin ich eh nie gegangen. Also, Schärfegrad auswählen....oh...wait...das ist gar nicht möglich. Ich muß die Einstellung nehmen, die mir AMD vorsetzt. Nun gut....vielleicht ist die Einstellung ja ganz ok.
In der Tat, die Einstellung ist im Spiel wirklich ganz passabel. Vielleicht könnte es einen Ticken schärfer sein, aber ok.
Doch....was ist das? Was um Himmelswillen ist mit den FPS passiert?! Eine lausige Erhöhung der Auflösung von 1080P auf 1440P hat der 980er nahezu nichts ausgemacht. Sind die FPS halt von 100-120FPS, auf 95-110 gesunken.
Bei der 290X sinken die FPS aber mal eben auf satte 52-60FPS. Das sind gut 30-40% Performanceverlust. Was ist denn hier passiert? Ich gehe davon aus, das Nvidia einen deutlich besseren Filter Algorithmus verwendet als AMD. Der von AMD kostet scheinbar mächtig Leistung und ist daher für mich unbrauchbar.
Aber auch hier endet die Chaos-Fahrt AMD nicht. Bei DSR kann ich bis 4K Auflösung immer mit 144Hz spielen....das ist ein Traum.
Was macht AMD...1080P mit 144Hz, 1200P mit 120Hz, 1440P mit 100Hz und 1800P mit 60Hz. Das ist doch wohl nicht deren Ernst oO. Die Jungs sollten echt mal eine Tasse grünen Tee trinken, um mal wieder klarzukommen.
Genau diese Perfektion sorgt dafür, dass Nvidia , AMD den Rang total abläuft. Für mich ist sowas eine Zumutung. Gottseidank bin ich leidensfähig und stehe auf diesen Kram. Wenn ich jetzt alles zusammengekratzt hätte und mich absolut auf diese Karte freuen würde, dann wäre ich sehr sehr enttäuscht.
So nehme ich diese Sache mit einem lachenden und einem weinenden Auge.
Wie sich das alles noch entwickeln wird und warum AMD nicht auf mich hört ^^, erfahrt ihr hier zu anderer Zeit.
Ich danke erstmal für Eure Aufmerksamkeit =).
Sodele zusammen,
meine beiden GTX980 sind verkauft, der glückliche Käufer hat ein extremes Schnäppchen gemacht.
Nochmal zum "WARUM MACHT MAN SOWAS?!". Ganz einfach, ich bin ein Technik-Nerd und experimentiere gerne. Ich versuche eine Lösung zu finden, für ein Problem, welches ich persönlich habe.
Das Problem:
Ich spiele fast nur Battlefield 4. Meißtens auf 64 Spieler-Servern , Conquest Large. Dank der Hilfe von HisN und vielen Anderen hier im Forum, konnte ich in den letzten Monaten viele Setups testen. Mein Ziel sind konstante 144FPS auf Ultra Settings in 1080P, evtl. auch mal 1440P(eine Illusion).
Getestet/besessen habe ich schon viele Karten in den letzten 14 Monaten.
GTX 780
R290
GTX 780 SLI
R290X 8GB
GTX 780 Ti
GTX 970
GTX 970 SLI
GTX 980
GTX 980 SLI
...das sind die Karten aus den letzten 14 Monaten. Am Rechner selbst schraube ich seit nunmehr 21 Jahren. In der Zeit gab es sehr viel Hardware. AMD/ATI Intel/Nvidia , gekauft habe ich immer was ich interessant gefunden habe.
Keine der oben genannten Kombinationen konnte mir die konstanten 144FPS ermöglichen(leider). Dies liegt primär an der heftigen CPU-Limitierung auf Seiten der Frostbite Engine.
Ich bin von einem 4770K mit Z87 Board und 1866er RAM auf einen 4790K mit Z97 Board und 2400er RAM umgestiegen, in der Hoffnung den "Flaschenhals" umgehen zu können. Der 4770K lief mit 4.2Ghz, der 4790K mit 4.9Ghz.
Das ist noch immer nicht genug, um beide 980er, oder auch 970er mit Saft zu versorgen. Bei den von mir genannten Settings, dümpeln die beiden 980er je nach Map bei 60-70% Auslastung rum, während sich die CPU die Birne heißkochen lässt.
Eine einzelne 980er wird in der Regel zu 90-99% ausgelastet, was eigentlich deutlich mehr Sinn macht. Währen da nicht so Karten wie Pearl Market, die sowohl GPU, als auch CPU bis ans äußerste treiben. Bei Pearl Market existiert zunächst mit einer 980er ein GPU Limit. Mit einem 980er SLI Verbund, wird daraus dann schnell wieder ein CPU-Limit, wobei beide Karte bei 95% Auslastung liegen. Sehr viel für 1080P.
Was also tun, um dem CPU-Limit aus dem Weg zu gehen? Wieder umrüsten auf Haswell-E? Vielleicht einen 5930K auf 4.5Ghz takten? Dann müßte man wieder in ein neues Board, neue CPU, neuer RAM investieren und die ganze Arbeit mit der Wasserkühlung. Nein, da muß es einen anderen Weg geben.
Genau in solchen Szenarien soll eine neue API-greifen. Der Name...Mantle. Dank Mantle soll die CPU Last drastisch verringert werden. Der viele Overhead durch die Physik-Berechnungen der Frostbite Engine können somit auf die GPU übertragen werden. Somit sollte das CPU Limit deutlich weniger stark ausgeprägt sein, als mit DirectX 11.X.
Ich hatte im März 2014 bereits eine 290X mit 8GB. Die VaporX Tri-X OC war auf 250 Karten damals limitiert und mit 720€ auch dementsprechend teuer. Mein Eindruck damals war hervorragend. Zumindest die Verarbeitung und die Kühlung waren extraklasse! Leider war die Karte unter Direct3D in etwa so schnell wie eine normale GTX 780.
Aus diesem Grund habe ich die Karte wieder zurückgeschickt und mir meinen Traum von einer 780Ti Classified KingPin Edition für satte 800€ erfüllt. Die Karte war der 290X in eigentlich allen Belangen überlegen, solange kein Mantle zum Einsatz kam. Unter Mantle waren die Karten in etwa gleich stark. Also Mantle 290X vs Direct3D 780Ti.
Ich habe die lausige D3D Performance auf den damaligen Treiber von AMD geschoben. Ob das stimmt, möchte ich nachfolgend beschreiben.
"Vorwort Ende"
Heute ist dann wieder eine 290X bei mir angekommen (ich habe erstmal eine Karte bestellt, um zu gucken, was sich alles an der AMD Front so getan hat).
Die 290X ist mit 8GB Speicher derzeit äußerst attraktiv bepreist. Für 384€ erhalte ich ein Speicher-Monster. Das ist der für mich absolut faire Preis.
Für ein etwaiges Crossfire Gespann habe ich mich direkt für eine Dual-Slot Karte entschieden. Meine Wahl viel auf die XFX R290X Double Dissipation Edition mit 8GB Speicher.
Der Chiptakt beträgt 1000 Mhz, der Speicher taktet mit 5500Mhz. Der verwendetet Speicher stammt von Hynix und bietet in Kombination mit dem 512 bit Speicher Interface, massive 352GB Bandbreite. Die 290X hat 2816 Shader.
Besonderheit der DD Edition: Der Speicher taktet mit 5500Mhz statt 5000Mhz und die Karte besitzt eine Unlocked Voltage all VRM 6-Phasen Spannungsversorgung.
Der qualitative Eindruck der Karte ist sehr gut. Die Karte ist locker 3-4cm länger als die 980 im Referenz-Design. Der Kühler besteht leider aus Kunststoff und nicht wie bei der 980, oder der TriX VaporX aus Alu. Dennoch wirkt alles sauber verarbeitet und schön. Für den BlingBling Faktor, sorgt das weiß erleuchtete XFX Logo auf der "Oberseite" der Karte.
http://xfxforce.com/de/products/amd...-290x-double-dissipation-edition-r9-290x-8dfd
-
Ich habe die Karte also eingebaut (8Pin+6Pin) und den Rechner angeschmissen.
Als kleine Anmerkung soll gesagt sein. Ich habe den Nvidia Treiber vorher sauber deinstalliert und das System nochmals zusätzlich mit DDU "gereinigt".
-
Die Karte ist im Idle unhörbar. Das gefällt mir sehr gut. ++
Ich habe anschließend den neuen Omega Catalyst installiert (14.12). Ich benutze Windows 8.1 Prof 64Bit.
Die Treiberinstallation ging ohne Probleme, genau wie bei Nvidia auch. Anschließend wurde noch die Gaming Evolved App installiert (ähnlich GeForce Experience). ++
Der Aufbau von GeForce Experience muß als deutlich einfacher und klarer bezeichnet werden. Die Gaming Evolved App wirkt im Vergleich etwas chaotischer und altbacken. Ist aber nicht weiter schlimm. Der Funktionsumfang ähnelt dem vom Nvidia , es gibt aber auch noch weitere nette Features.
Man bekommt fürs Spielen "Coins" gutgeschrieben. Diese kann man später verwenden um Dinge aus dem Shop zu erwerben. Dies können ältere Grafikkarten sein, Spiele, Items für Spiele, oder auch die Teilnahme an einer Verlosung für das Never Settle Programm, oder eine aktuelle Grafikkarte. Insgesamt herrscht hier ein Gleichstand zwischen AMD und Nvidia.
Kommen wir zur Leistung und zur Kühlung der Karte.
Nunja, hmmm, ich spiele ja primär Battlefield 4, alles andere ist derzeit total irrelevant für mich. Die ganze Aktion wurde ja nur durch BF4 initiiert.
Unterm Strich muß ich sagen, dass ich doch enttäuscht bin. Die Karte liegt auch mit Mantle weit hinter der GTX980 zurück. Die Karte wird permanent zu 99% ausgelastet, das ist eigentlich ein gutes Zeichen. Vermutlich funktioniert die CPU Entlastung auch, aber die 290X ist einfach nur zu schwach. Die Karte ist auch mit Mantle maximal so schnell wie eine 970 und ist deshalb auch in diesem Bereich preislich angesiedelt.
Während die 980 immer so 100-120FPS mit meinen Settings geliefert hat, bekomme ich mit der 290X mit Mantle in etwa 80-80FPS. Leider sind es auch manchmal um die 70FPS. Sowas kannte ich von der 980 gar nicht. Die GPU Auslastung konnte ich mit GPU-Z überprüfen und in der Tat, 99% GPU Last...IMMER! Eine Drosselung findet auch nicht statt, die Karte taktet komplett durch mit 1000 Mhz, Vram Bedarf liegt bei 3.2GB(bei der 980 waren es 2.8GB). Speicher taktet korrekt.
Die Temperatur der Karte liegt bei maximalen 72°C was ein sehr guter Wert ist für eine Dual-Slot 290X. Leider wird dies mit einer nicht unerheblichen Lautstärke "erkauft". Die Karte ist lauter als eine 980GTX im Referenz-Design. Das Gehäuse erwärmt sich deutlich stärker, als mit den beiden 980er Referenz-Lüftern. Nachdem ich jetzt die 980er so lange hatte und ich die Karte auch mit der 970 vergleichen kann, muß ich hier leider ganz klar sagen, das AMD doch deutlich hinter Nvidia zurück liegt.
Da helfen mir auch keine 2094908472983457GB an Speicher mehr weiter.
Eine zweite Karte kommt für mich eigentlich nicht mehr in Frage, da eine Karte schon so viel Wärme und Lautstärke erzeugt, dass ich gar nicht wissen will, wie es mit 2 solcher Karten ist. Lösung wäre hier eine Wasserkühlung. Aber, dann müßte ich wieder investieren und schneller wirds dadurch auch nicht. Außerdem geht die Garantie flöten und das bei einer Karte/n die ich eh wieder verkaufen werde.
Somit bleibt die Karte jetzt erstmal im System, bis die 390X auf den Markt kommt. Eventuell lasse ich die Karte dennoch zurückgehen und hole mir stattdessen wieder eine VaporX oder die PCS+.
Was mich jedoch am meißten aufregt, sind diese Kleinigkeiten, die Nvidia leider um Welten besser macht als AMD. Mir ist es vollkommen egal, ob ich jetzt von den AMD Fanboys eins über die Mütze bekomme, oder nicht. Das sind einfach Dinge, die gar nicht gehen.
Speicher-Bug:
Bereits beim Kauf der R290 MSI Gaming OC ist mir dieser Fehler aufgefallen! Ich habe das Problem bereits mehrfach (3x) an AMD kommuniziert. Als Antwort kam immer nur "Vielen Dank, wie leiten Ihre Nachricht weiter".
Wenn man einen 144Hz Monitor hat und dieser auf dem Desktop im Idle läuft, dann taktet sich der Speicher nicht korrekt runter, sondern arbeitet permanent mit vollen 5.5Ghz. Das verbraucht erheblich mehr Strom und es kommt zu deutlich mehr Abwärme.
Stellt man den Desktop auf 120Hz, schwupps, taktet der Speicher auf 150Mhz runter und alles ist perfekt. Meine lieben Herren bei AMD, ist es so schwer diese Funktion für 144Hz anzubieten?! Warum muß ich jedes Mal auf 120Hz wechseln, dann wieder 144Hz und wieder 120Hz...und dann auch noch immer durch das CCC durchhangeln...nee.....6 setzen, so gibt das keinen!
Vor allem, dass der Fehler schon seit dem R290 Release mit Beta-Treiber vorhanden war und nichts daran verändert wurde in so langer Zeit, ist einfach nur peinlich, sorry.
Dann VSR. Bitte was macht AMD denn da? Wenn man DSR kennt, dann ist man wirklicht verwöhnt von der Perfektion. DSR ist einfach perfekt. Einfach die DSR-Ratios auswählen und schon gehts los. Vielleicht noch vorher schön den Schärfegrad anpassen...perfekt. Direkt perfekt von Tag 1 an.... ich hatte damals NIEMALS auch nur ein Problem.
Also, gleiches Spiel, diesmal AMD VSR.
Man setzt einen Haken und kann somit direkt alle Auflösungen wählen. Das Maximum liegt jedoch nicht bei 4K, wie bei DSR , sondern bei 3200x1800 Pixeln. Ok, höher als 1440P bin ich eh nie gegangen. Also, Schärfegrad auswählen....oh...wait...das ist gar nicht möglich. Ich muß die Einstellung nehmen, die mir AMD vorsetzt. Nun gut....vielleicht ist die Einstellung ja ganz ok.
In der Tat, die Einstellung ist im Spiel wirklich ganz passabel. Vielleicht könnte es einen Ticken schärfer sein, aber ok.
Doch....was ist das? Was um Himmelswillen ist mit den FPS passiert?! Eine lausige Erhöhung der Auflösung von 1080P auf 1440P hat der 980er nahezu nichts ausgemacht. Sind die FPS halt von 100-120FPS, auf 95-110 gesunken.
Bei der 290X sinken die FPS aber mal eben auf satte 52-60FPS. Das sind gut 30-40% Performanceverlust. Was ist denn hier passiert? Ich gehe davon aus, das Nvidia einen deutlich besseren Filter Algorithmus verwendet als AMD. Der von AMD kostet scheinbar mächtig Leistung und ist daher für mich unbrauchbar.
Aber auch hier endet die Chaos-Fahrt AMD nicht. Bei DSR kann ich bis 4K Auflösung immer mit 144Hz spielen....das ist ein Traum.
Was macht AMD...1080P mit 144Hz, 1200P mit 120Hz, 1440P mit 100Hz und 1800P mit 60Hz. Das ist doch wohl nicht deren Ernst oO. Die Jungs sollten echt mal eine Tasse grünen Tee trinken, um mal wieder klarzukommen.
Genau diese Perfektion sorgt dafür, dass Nvidia , AMD den Rang total abläuft. Für mich ist sowas eine Zumutung. Gottseidank bin ich leidensfähig und stehe auf diesen Kram. Wenn ich jetzt alles zusammengekratzt hätte und mich absolut auf diese Karte freuen würde, dann wäre ich sehr sehr enttäuscht.
So nehme ich diese Sache mit einem lachenden und einem weinenden Auge.
Wie sich das alles noch entwickeln wird und warum AMD nicht auf mich hört ^^, erfahrt ihr hier zu anderer Zeit.
Ich danke erstmal für Eure Aufmerksamkeit =).