Mein AMD-Erlebnis (eine Art "Tagebuch")

Nein, ich habe keinen Freesync-Monitor. Nur Crossfire (2 x R9 290) und Eyefinity (3 x 24" FullHD). Ich hatte mir schon überlegt, den mittleren Monitor gegen ein Freesync-Modell zu tauschen, aber zum einen habe ich nicht soviel Zeit zum Spielen und zum anderen will ich erstmal abwarten, wie sich die HDR-Monitore schlagen, die in den nächsten Monaten auf den Markt kommen.

Der Crimson-Treiber ist übrigens eine feine Sache: Endlich kann man individuell in jedem Spielprofil hinterlegen, ob es automatisch Eyefinity & Crossfire nutzen soll (oder eben nicht).

Mein Problem, dass sich die zweite Karte nicht mehr hochtaktet, habe ich gerade im Griff (seit ich das Asus-Tool GPU-Tweak nebenher mitlaufen lasse - seltsam).
 
So, meine Karte ist tatsächlich angekommen und ich möchte mal meine Eindrücke schildern. Ich lasse jetzt einfach mal die ganzen Benchmarkwerte weg, denn letztendlich sind die Karten je nach Takt absolut gleich schnell.

Ich habe den Timespy durchlaufen lassen, Valley etc. und komme quasi auf die normalen Werte, die jeder mit seinen Karten dann letztendlich bekommt.

Mir geht es aber um die Karte selbst.

Mein Erster Eindruck der Karte ist einfach nur hervorragend. Ich hatte wohl noch nie so eine hochwertige Karte im Rechner wie diese. Selbst die 780Ti Kingpin war weniger wertig.

Der gesamte Kühler besteht quasi aus echtem Aluminium mit Lasercut für die Beschriftung. Viele kleine Details werten die Karte extrem auf. Auch die Beleuchtung sieht toll aus. Für die Qualität kann ich wirklich nur die Schulnote 1 vergeben. Hätte ich so nicht ganz erwartet.

Für jemanden wie mich, dem so ein Kram wichtig ist, passt das einfach perfekt. Da war die Palit GameRockPremium doch eine andere Liga mit dem vielen Plastik.

Ich weiß selbst, dass es letztendlich egal ist, da die Karte im Gehäuse sitzt. Ich habe das Case aber auf dem Tisch stehen und habe auch ein Fenster, so dass ich immer direkt auf die Karte gucken kann.

auch die Verpackung ist deutlich schöner gemacht als bei Palit und man hat einfach das Gefühl, etwas wirklich besonderes erworben zu haben. Die Verpackung ist auch nochmal anders zur 1080 Superclocked.

-

Nun zum Teil der wirklich wichtig ist: Temperaturen und Lautstärke.

Die Karte ist eine 2-Slot Karte und nicht wie die GameRock Premium eine 2.5-Slot Karte. Von daher wusste ich direkt, dass die Kühlung deutlich weniger massiv ausfällt als bei der Palit Karte und genau so ist es.

Die Palit Karte lag unter Last bei ca. 68°C und 1400 RP/M und war nahezu unhörbar. Die 1080 GTX FTW liegt bei ca. 77°C unter Last und ist....komplett unhörbar. Die Lüfter (2x100mm) drehen mit wunderbaren 1300 RP/M komplett silent, ja...wirklich silent. Selbst im Dauerbenchmark bleibt die Karte komplett unhörbar, nichtmals ein Rauschen...gar nichts!

Absolut beeindruckend für den kleinen Kühler und tolle Arbeit von EVGA. Im Desktop-Betrieb liegt die Karte dank ZeroFan (bis 60°C) bei ca. 45°C. Das ist mir etwas zu hoch, liegt aber leider an meinem Case. Da ich vorne den fetten 360mm Radiator habe+3x 120mm Bequiet PureWings kommt kaum Luft durch die Lamellen ins Case.

Falls hier jemand eine Idee hat, bitte melden =).

Die Karte boosted ohne irgendwelche Einstellung mit 2012 Mhz out of the Box und pendelt sich nach 30 Minuten Dauerlast bei 1949Mhz ein, dazu 77°C bei 50% Lüftern (1300RPM).

Da ich eh nicht großartig übertakten werde (die Performancegewinne > 1.9Ghz sind dafür in den Spielen einfach zu gering), bin ich restlos zufrieden. Die Leistung stimmt, unhörbar und keine Bugs in der Lüftersteuerung oder sonstwas.

Hinzu kommt noch ein riesiger Vorteil: Die Karte hat keinerlei Spulenfiepen! Oh ja...keine Ahnung ob das an der 10+2 Phasen Versorgung liegt, die Karte macht keinerlei elektr. Störgeräusche, endlich! Nur wenn man aus dem Valley Benchmark rausgeht und dann irgendwas um die 3000FPS generiert, kommt ein leises Fiepen von der Karte. Auch hier bin ich super begeistert.

Für mich steht fest, dass ich die Karte auf jeden Fall behalten werde. Zumal EVGA auch noch 3 Jahre Garantie anbietet (auf Wunsch mit Verlängerung auf 5 oder 10 Jahre) , ich ohne Verlust der Garantie den Lüfter, oder Paste tauschen kann und ein 90-Tage Stepup habe, so dass ich quasi auch noch auf die Classified hochgehen könnte.

Die Lohnt sich aber nur für LN2 oder O2 Übertakter, denn Kühler und Taktraten sind bei der FTW und Classified komplett gleich. Die Classified hat natürlich eine nochmals bessere Spannungsversorgung, aber die FTW ist da schon mehr als gut aufgestellt.

Was bleibt mir also derzeit übrig, außer der Karte selbst eine glatte 1 zu geben. Bezahlt habe ich 769€ und die Karte war bei Alternate innerhalb von 2h wieder komplett vergriffen. Jetzt muss man quasi mind. 9 Wochen warten, oder massiv Glück haben, um noch eine zu ergattern.

Kritik...(hat nichts mit der Karte zu tun). Auf der Nvidia Seite ist der aktuellste Treiber, der DPC-Problem-Treiber...diesen habe ich natürlich installiert und prompt bin ich mit dem DPC-Müll konfrontiert. So merke ich beim Spielen nichts davon, aber die Tatsache dass ich es habe, reicht schon, damit ich mich doch irgendwo über sowas ärgere. Ich habe den Hotfix Treiber noch nicht installiert, da ich gerade alles erst neu und sauber installiert hatte =/. Ich hoffe es kommt bald ein WHQL Update mit allen Fixes.

P.S. GeForce Experience Beta gefällt mir sehr gut, sieht endlich mal richtig modern und übersichtlich aus. Wenn Nvidia da jetzt noch ein Monitoring-Toll wie Wattman intetegriert, ist alles gut.

Anbei noch ein paar Bilder.


































:alien_alt:
 
Zuletzt bearbeitet:
t3chn0 schrieb:
Die 1080 GTX FTW liegt bei ca. 77°C unter Last und ist....komplett unhörbar. Die Lüfter (2x100mm) drehen mit wunderbaren 1300 RP/M komplett silent, ja...wirklich silent. Selbst im Dauerbenchmark bleibt die Karte komplett unhörbar, nichtmals ein Rauschen...gar nichts!

Danke für den ausführlichen Test, bei mir wird's dann wahrscheinlich die 1070 FTW.

Ich war zwar mit den MSI-Gaming-Kühlern bisher absolut zufrieden, aber dass die als einziger (?) bekannter Hersteller beim Caseking-Soforttauschprogramm fehlen, macht mich misstrauisch.
 
<3 <3 <3
:love: :love: :love:
Bitte auch zu den Grafikkarten-Ultras kommen.

Du kannst ja mit Stepup auf die neue X gehen. *wegduck*

Wenn ich meine 1080 habe, werde ich mal kurz berichten. Möglicherweise ist die etwas schlechter als die FTW, aber dafür ist die auch über 100€ billiger. Es handelt sich da um die Zotac AMP, aber nicht um die Extreme.
 
Die ist mit Sicherheit nicht schlechter. Die Karten performen ja alle quasi identisch!Es kommt immer nur auf den persönlichen Geschmack an. Ich bin absoluter EVGA-Fan und habe nur beste Erfahrungen mit denen gesammelt.

Habe eben auch für 25€ die Anschlussgarantie auf 5 Jahre abgeschlossen. Das ist vor allem beim Wiederverkauf schon sehr wichtig.

Was ich nicht ganz verstehe...ich kann PrecisionX nicht öffnen. Wenn ich einen Doppelclick darauf mache, passiert gar nichts. Es öffnet sich einfach nicht, als wenn ich nie darauf geclickt hätte.

Ich wollte doch mal mit den RGB Farben etwas rumspielen =/.
Ergänzung ()

https://youtu.be/a6_r9-qXQK8


Ich habe das Problem mal aufgenommen...
 
Ich lasse mir die Zotac-Garantie auch mit abtreten. Zumindest steht bei Zotac auf der Seite nichts von Ablehnung. Und im Grunde hatte ich als Anforderung ~1700MHz Standardtakt und Boardpartner-Design. Die Zotac müsste aber schon ähnlich sein. Die steht an der Flanke auch über und hat ebenfalls eine erweiterte Spannungsversorgung. Und sie müsste dann auch einen ähnlichen Kühler haben. Allerdings scheint die Abdeckung um den beiden Lüftern aus Plastik zu sein
 
Der DPC-Treiber 368.95 hat die Latency bei mir wirklich gesenkt. Von 4.000-8000ns runter auf 500-1000ns in den normalen Bereich wieder.

PrecisionX kann ich dennoch nicht öffnen...
 
Man bin ich neidisch, die hätte ich auch gerne! Bin ja auch ein EVGA Fan Boy!
 
Hallo,

Ich bin noch immer total begeistert von der Karte, habe aber wieder ein großes ABER =). Das hat rein gar nichts mit der Karte, sondern mit einer Technologie zu tun, mit der ich eh auf Kriegsfuß stehe, da sich mir der Sinn dahinter rein gar nicht erschließt.

Es geht um Gsync. Viele schreiben ja : "nie mehr ohne!", ich würde am liebsten schreiben :"nie mehr mit!" =p. Ich finde Gsync grausam.

Wahrscheinlich bin ich einfach nur dumm um es korrekt zu benutzen. Also, Battlefield 4 wird dadurch meiner Meinung nach fast unspielbar. Ich habe das mal aufgenommen, mit und ohne. Mit, benötigt man durchgehend 3-4 Treffer mehr pro Waffe um einen Gegner zu fraggen. Das ist absolut reproduzierbar. Auch wenn das Spiel offensichtlich flüssiger läuft, es spielt sich exakt wie Vsync, bei Shootern unbrauchbar.

Dann habe ich vorhin mal Diablo 3 aufgenommen. Angeblich kann das ja jeder easy spielen. Glaube ich nicht .... Die GPU wird zwar nur zu 63% ausgelastet, aber das Spiel rennt in Max Settings brutal ins CPU Limit. Mit 4 Leuten ein 80er GR und man sieht auf einem 4790K mit 4.6Ghz , Drops auf 50 FPS... es ruckelt wie die Hölle. Ich will gar nicht wissen, wie es dann auf kleineren CPUs läuft.

Nun habe ich mir gedacht...wow...gegen diese ruckelnden Framedrops hilft doch sicher Gsync, dafür ist es doch da.

Doch was ist? Pustekuchen....gleiche Drops, gleiches Geruckel und tendenziell sogar eher noch weniger FPS als ohne Gsync. Mit FastSync hat es sich deutlich besser gespielt. Aber auch da Framedrops ohne Ende. Gleiches hatte ich auch mit Freesync. Keine Ahnung warum jeder auf diesen Shit so abfährt.

Vielleicht mag das ganz nett sein bei 60 FPS und Anno, aber nicht bei schnellen Spielen und genau da brauche ich sowas aber. Gerade in schnellen Spielen will ich ein smoothes Bild haben und kein Geruckel, oder indirektes Gameplay.

Ich habe das wunderbar mit Shadowplay und 1440p 60Hz aufgenommen. Lade ich morgen mal hoch. Da sieht man die massiven Framedrops.

Und mir braucht auch keiner zu erzählen er habe sowas nicht. Ich hatte das schon vor Jahren mit meinem 4770K Windows Vista und 2x780ern im SLI...da hat sich gar nichts geändert. Wenn eine IPC starke OC CPU schon auf 53 FPS fällt, was machen dann welche mit einer AMD CPU? Diablo 3 mit 25 FPS? Oo.

Wenn jetzt jemand sagt, er habe das nicht, dann möchte ich ein Video mit Max Settings im GR mit 4 Leuten, Level egal...vorher glaube ich das nicht ^^.

Den 144Hz DisplayPort Bug hat NVIDIA noch immer. Es wird nicht korrekt runtergetaktet, erst bei 120Hz. Mit 144Hz auf dem Desktop zieht die Karte mal eben 25W mehr als bei 120Hz, deshalb schneiden die Karten bei CB mit 144Hz auch so ähnlich ab ..NVIDIA vs AMD. Würde man mit 120Hz testen, wären die NVIDIA Karten deutlich sparsamer. Hat auch zur Folge dass die Karte im Idle mit 59 Grad,statt 45 Grad dahin siecht...

Hier klare Kritik an NVIDIA.
 
Die Probleme mit G-Sync und Co habe ich gar nicht. Meine Monitore sind 60Hz-Kisten und ich mache V-Sync aus und habe dann trotzdem weniger Mauslag. Bei Minecraft merkt man das sehr gut, wenn man 60 oder 120FPS hat. GTA5 kommt hingegen nicht in 120FPS-Regionen. Mit der 1080 will ich auf 60 Mindest-FPS bei GTA5 bei meinen Einstellungen, die bei der 980TI 46 Mindest-FPS hatten.

Edit: Ich spiele aber auch kein BF und COD.
 
@t3chn0

Ich weiss ja nicht wie gut du BF4 zockst (ich würde dich eher als Durchschnitt bezeichnen), aber ich merke zum vorherigen 120Hz Monitor inkl. 100-140fps ohne Vsync keinen Unterschied. Tendenziell läuft es sogar besser, eben ohne hässliches Tearing. Ich musste nur ein FPS Limit bei 140 bzw. 160 FPS setzen, damit mein Monitor nicht ins Vsync rennt. Das Gsync in tiefen FPS Regionen nichts bringt musste ich leider auch selbst erfahren. Erst ab 50 FPS sind RPG, Spiele normal spielbar. FPS Drops wie in deinem Fall man aber immer noch. Vor allem, wenn man im CPU Limit hängt.

Meine neue GTX 1070 taktet selbst bei 165Hz Perfekt runter, was man von der 970 nicht behaupten konnte. Bei 144Hz hatte ich schon zu Maxwell Zeiten keine Probleme^^

(4770K und Windows Vista! der war gut :D)
 
Das ist wirklich sehr komisch, denn bei mir ist es genau umgekehrt. Mit den 970ern hatte ich bei 144Hz gar keine Probleme mit dem Runtertakten, dass hatte ich nur bei den AMD Karten.

Kannst du mal ein Bild davon machen mit 144Hz und GPU-Z?

Ich füge mal meine als Anhang hinzu.

PrecisionX OC funktioniert jetzt übrigens seit Version 6.0.4 perfekt. Was total interessant ist, seit dieser Version taktet die Karte im Idle mit 144Hz zumindest auf 1200Mhz runter, vorher lief sie mit 1760Mhz durchgehend auf dem Desktop. Mit 120Hz sind es dann die korrekten 250Mhz und auch der Speicher taktet runter.
 

Anhänge

  • 120Hz.JPG
    120Hz.JPG
    159,8 KB · Aufrufe: 505
  • 144Hz.JPG
    144Hz.JPG
    157,1 KB · Aufrufe: 516
Bei der 970 gingen die Taktraten teilweise runter, doch die Spannung blieb bei unnötigen 0.9v anstelle von 0.83v. (vage Erinnerung)

Wie du siehst: sieht man nichts. Ausser dem rumgetakte im Chrome Browser kann ich keine Ungewöhnlichkeiten ausmachen. Doch mir scheint es als hätte EVGA bei deiner Karte die Boos-Tables verändert. (So wie bei fast allen Karten)

2560*1440p @ 120 / 144 / 165 Hz
1440p@120Hz.PNG 1440p@144Hz.PNG 1440p@165Hz.PNG
 
Das ist unfassbar....es haben so viele das Problem mit den Taktraten bei 144Hz. Was hast du sonst eingestellt und welchen Treiber benutzt du?

Ich hatte das Problem auch mit der 1080FE, der Palit und jetzt auch wieder. Hast du einen Treiber für den Monitor installiert?
 
Ich nutze seit ein Paar Tagen den 368.95 Hotfix. Treiber ist Default, bis auf Gsync (Fenster-/Vollbildmodus) & Video Farbeinstellungen.

Ich kann mir nicht erklären warum die Karten sich so verschieden verhalten... :confused_alt:

Obwohl ich den Treiber installiert habe, zeigt mir die Nvidia Systemsteuerung was anderes an. Die Display Fertigung bei Asus übernimmt wohl ein anderer Betrieb. (vielleicht Tochterfirma)
GM_1070_ROG_Swift.PNG NV_1070_ROG_Swift.PNG
 
Das Problem scheint komplett random zu sein. Keiner weiß woher es kommt und was die Ursache ist.

Mittlerweile vermute ich aber irgendeinen Fehler bei der Monitorerkennnung, denn, auch in diesem Test wurde wohl dein Monitor verwendet und auch dort taktet die 1080 mit 165Hz korrekt runter.

Mit einem anderen Monitor und 144Hz auf einmal nicht mehr.

http://techreport.com/news/30304/nvidia-pascal-cards-still-exhibit-high-refresh-rate-power-bug

Ich habe eben auch mal wieder Gsync aktiviert und das macht keinen Unterschied.

Ein wirkliches super Ergebnis bei BF4 habe ich mit FastSync erreicht. Da scheint der Bug mit dem Stottern nun behoben zu sein und es läuft wirklich gut.
 
So, nochmal ein kurzes Update:

Nach 3 Wochen mit der 1080 FTW bin ich noch immer absolut begeistert von der Karte. Kein Spulenfiepen und die Karte ist unter Last absolut unhörbar. Temperaturen noch immer bei 76°C bei 1100 RPM und 1960Mhz Boosttakt out of the Box. So verbraucht die Karte auch wirklich wenig Strom!

Nun komme ich aber doch noch zu einer kleinen "großen" Veränderung an meinem System.

Mein Kumpel, der mir die GameRock Premium abgekauft hat, hatte auch Interesse an meiner CPU. Also hab ich ihm CPU,Board und den RAM verkauft.

Mein neues Board ist schon da und der Rest sollte morgen kommen. Ich verlinke unten ein Youtube Video welches mir meine Entscheidung für den 6700K deutlich einfacher gemacht hat. Die reinen Benchmark-Average-Werte sagen in der Tat nicht viel aus. Gerade bei den MinFPS ist der 6700K nochmals deutlich stärker als der 4790K, teilweise liegen da 20-30FPS zwischen @ Stock.

https://www.youtube.com/watch?v=VDo-j00vUtw

Außerdem muß ich eh dass Fluid meiner WaKü tauschen, da bietet sich das an.

Des weiteren werde ich auf eine neue WLP umsteigen (Thermal Grizzly Kryonaut). Sowohl CPU, als auch GPU werde ich damit ausrüsten.

Als Mainboard habe ich mich für das Maximus VIII Formula entschieden, da dieses quasi ein HighEnd Board von Asus ist. Ich habe da so eine Art Fetish. Ohne ordentliches Board geht bei mir nichts. Außerdem soll die CPU ordentlich was auf den Kopf bekommen ^^.

Beim RAM bleibe ich bei GSKill mit dem ich immer sehr zufrieden war. Auch hier gibt es den Top of the Line Trident Z Speicher , 32GB DDR4-3600 Mhz CL17. Das sollte einen ordentlichen Boost in der Bandbreite geben. Über 3600Mhz gab es keine 32GB Kits mehr und der Preis wurde mir dann auch irgendwann zu krass. Für 3733er muß man schon 100€ mehr bezahlen.
Mit den 3600Mhz dürfte ich ganz gut unterwegs sein.

Hinzu kommt noch eine neue SSD, da mir der Platz auf den beiden Crucials augegangen ist. Ich habe mich für eine 256GB Samsung NVMe entschieden. Es ist eine M2 SSD, die ich auf meinem neuen Board einfach "verstecken" kann, deshalb ist die Farbe auch egal ^^.

Die SSD kommuniziert über PCIx 4x und erreicht wirklich hervorragende Lese und Schreibraten. Das Board unterstützt diese SSD vollends und somit sollten die 2150MB lesen und 1550MB schreiben durchaus real sein.

https://geizhals.de/samsung-ssd-sm951-nvme-512gb-mzvpv512hdgl-00000-a1257071.html

Insgesamt dürfte mein System durch die Upgrades nochmal einen ordentlichen Sprung nach oben machen.

Ich war kurz davor einen 6800K zu nehmen, aber bei dieser CPU MUSS ich ein OC auf 4Ghz+druchführen um nicht vollends in der IPC abzustinken. Wenn der 6700K seine 4.6Ghz+ macht, dann bin ich absolut zufrieden.

Ich hatte einfach auch gesehen, dass der 6700K im Physics Score beim Firestrike deutlich stärker ist, als der 4790K und dass der 6700K ohne OC bereits 30FPS mehr zustande bringt, als der 4790K@4.6Ghz bei Ashes of the Singularity.

Dort kommt mein 4790K auf ca. 96FPS, wo der 6700K satte 124FPS schafft.

Auch wenn die CPU immer unbedeutender wird, so ist die CPU,Mainboard und RAM für mich noch immer das Fundament für ein optimales Rig.

Ich hätte das Geld sicherlich auch in eine 2. 1080 , oder eine TitanXP investieren können, aber ich habe mich für die CPU-Power entschieden, auch wenn das vielleicht etwas "oldschool" Denken ist.

Falls Interesse besteht, kann ich gerne mal meine Eindrücke schildern, ob man einen Unterschied spürt zwischen Z97 und Z170, 4790K vs 6700K, DDR3 vs DDR4.

ZEN steht vor der Tür, aber ich traue dem Braten nicht so wirklich. Bei Intel weiß ich, dass ich pure IPC Performance bekomme, auf sowas stehe ich =).

http://www.asus.com/de/Motherboards/ROG-MAXIMUS-VIII-FORMULA/

http://gskill.com/en/product/f4-3600c17q-32gtz
 

Anhänge

  • IMG_20160810_122522.jpg
    IMG_20160810_122522.jpg
    927,5 KB · Aufrufe: 518
  • IMG_20160810_122553.jpg
    IMG_20160810_122553.jpg
    778,7 KB · Aufrufe: 506
t3chn0 schrieb:
Falls Interesse besteht, kann ich gerne mal meine Eindrücke schildern, ob man einen Unterschied spürt zwischen Z97 und Z170, 4790K vs 6700K, DDR3 vs DDR4.

Mich würde das interessieren. Rein Performance technisch, konnte ich meinen alten 4970K nicht mit dem aktuellen 6700K vergleichen, weil ich gleichzeitig ein Grafik-Downgrade (980->970) gemacht hatte.

Außerdem habe ich den Fehler gemacht nur mit 2133MHz RAM einzusteigen. Daher wäre es hilfreich, wenn du Cinebench R15 Werte mit 4,5GHz posten könntest. So könnte ich mir ein Bild machen ob sich die zuästliche IPC im CPU Limit lohnen könnte.

Und bootet dein System auch so langsam? Laut Task Manager dauert mein Boot im Schnitt 24 Sekunden. Das war ich mir vom 4790K + Z97-Pro Wifi anders gewohnt. :)

Cinebench_4.5_2133.PNG
 
@t3chn0
Kannst Du Deine Bilder in einen Spoiler stecken? Das hat jetzt ewig gedauert bis alle Deine Bilder geladen waren und ich lesen konnte, was Du da schreibst.
 
Habe ich sofort gemacht, ging mir auch auf den Zeiger ^^.
 
Zurück
Oben