hrafnagaldr schrieb:
Also Fehler in der Firmware und Lüftersteuerung sind Probleme des Boardpartners, nicht von AMD.
Hatte übrigens letztens eine GTX960 von Gigabyte verbaut, da drehte bis zum Firmware Update der Lüfter immer kurz auf 100% und wieder runter. Deiner Meinung nach also auch Nvidias Schuld? Oder vllt. doch eher Gigabytes?
Ich habe nicht gesagt, dass es AMDs schuld war, sondern dass ich bei AMD Karten immer auf die Schnauze gefallen bin und mir das bei nVidia noch nie passiert ist. Ist natürlich keine statistische Auswertung sondern eine rein persönliche Erfahrung von der ich hier berichte.
R9 280 laut und heiß? Also redest Du vom Referenzmodell, dass es so eh selten zu kaufen gibt. Warum also nicht Tests der Modelle von Sapphire und Co. abwarten?
Beim Release der Karte war aber lange Zeit nicht bekannt, ob und wann man das Problem in den Griff bekommen wird und selbst wenn, dann spricht das auch nicht gerade für die Karte, wenn die selbst mit guter Kühllösung immer nur gerade so am Limit läuft. Die 780 GTX war deutlich sparsamer und leiser sodass die selbst bei starker Übertaktung kaum lauter wurde.
Von CUDA hätteich noch nie profitiert (wo genau hast Du profitiert?) und inzwischen zieht Freesync mit G-Sync locker gleich, G-Sync hat halt etwas mehr Marktreife. OB Du es mal live testen konntest lässt Du offen, schließlich hast Du ja nur Gsync-Hardware.
Hardware Texture Transcoding in Rage oder Wolfenstein zum Beispiel. Verschiedenste Videoediting Software wird teilweise deutlich beschleunigt. Photoshop zum Beispiel auch, aber das nutze ich persönlich nicht. Kam auch schon vor, dass ich einen CUDA beschleunigten Passwort-Knacker verwendet habe.
Dann habe ich mich natürlich auch immer wieder gefreut, wenn Physix in Spielen unterstützt und ich von netten Effekten verwöhnt wurde. Es ist natürlich kein Killer-Feature, aber doch immer wieder schön, wenn man es vorfindet.
G-Sync und FreeSync brauche ich nicht selbst testen.
Freesync kann nicht über das volle Spektrum adaptiv synchen. Ist doch Kacke, wenn ich mich vorher entscheiden muss, ob ich zwischen 30 - 56 Hz oder 56 - 144 Hz synchen möchte. G-Sync kann problemlos von 10 bis 165 Hz übergangslos synchen. Da muss ich mich nicht festlegen.
Adaptives Overdrive kommt als nächstes wichtiges Feature hinzu. Freesync kann keine perfekten Overdrivespannungen anlegen, da der Monitor nicht weiß wie groß die zeitlichen Abstände zwischen den einzelnen Frames sein werden. G-Sync hingegen schon. Ergebnis. Weniger Schlieren bei G-Sync als bei Freesync. AMD will das eventuell irgendwann mal versuchen durch Postprocessnig Effekte zu kompensieren, aber wer weiß wann das kommen wird und selbst wenn, dann wird das niemals so gut funktionieren wie eine nativ implementierte hardwarebasierte Overdrivelösung.
Solche Sachen sind es, warum ich lieber etwas mehr für G-Sync bezahle als eine günstige Alternative zu verwenden, die das Problem nur halbherzig löst. Genau das ist auch der Grund, warum nVidia G-Sync in der jetzigen Form auch noch für nötig hält, denn ohne zusätzliche Hardware im Display ist ein optimales Ergebnis wie das bei G-Sync nämlich anders nicht möglich. Jedenfalls nicht solange es kein DP 1.3 gibt.
Sobald es DP 1.3 Monitore und Grakas gibt, dann wird auch nVidia keine Hardwaremodule einsetzen. Tun sie ja jetzt schon in den Notebooks nicht.
Microruckler hatte ich bei Single-GPUs noch nie, egal welcher Hersteller. Klingt eher nach falschen Treibereinstellungen bzgl. Vsync und Co.
Wirkt irgendwie recht konstruiert dein Beitrag.
Wenn der ganze Clan unter dem selben Problem leidet und Battlefield nicht ruckelfrei an's Laufen kriegt, dann liegt das nicht an falschen Einstellungen, sondern am Treiber der Karte. Es hat ewig gedauert bis AMD das in den Griff gekriegt hat. Bis dahin hatten wir längst alle unsere Karten wieder umgetauscht und uns nVidia Karten gekauft.