Gothic47 schrieb:
Diese grünen sind nur was für FPS Fetischisten die alle behaupten man könnte mehr als 120 FPS sehen...
Vermutlich. Ich hatte weiter vorne schon die Sinnhaftigkeit der kommenden Nvidia-Modelle in Frage gestellt und dazu im Vergleich auf AMD's Verzicht erhöhter Leistung und deren Priorität auf Effizienzsteigerung verwiesen, was komischerweise von einigen Usern mißverstanden wurde, warum auch immer. Denn genau das ist es ja, was AMD i.M. realisiert. Nämlich ihre aktuellen Grafikkarten auf Effizienz trimmen(mehr Leistung + akzeptables Raytracing bei identischem Stromverbrauch, also das Gegenteil von Nvidia). Oder ich interpretiere den Begriff
"Effizienz" vollkommen falsch. Stattdessen konfrontiert man mich mit einem Game als Beispiel, was sehr CPU-lastig ist und ein entsprechender Vergleich zur Effizienz-Steigerung einer Grafikkarte folglich unsinnig erscheint. Ansich ok. Aber wäre schön, wenn derjenige dann auch Zugeständnisse macht und jene Deppen, die ursprünglich meinten, mir da schon zwanghaft widersprechen zu müssen und ihm zustimmen, das genauso raffen.
Outward ist ein Kuriosum beim Energieverbrauch. Denn deren Grafikengine scheint ein wenig fehlerhaft zu sein. Wenn man da nicht manuell die Bildwiederholrate auf z.B. 60 fps begrenzt, beansprucht es die maximale Leistungsfähigkeit der Grafikkarte bis auf OC-Niveau und unabhängig vom Grafikkarten-Modell. Dieses Spiel zeigt wunderbar den Stromverbrauch in Abhängigkeit der FPS-Rate und Qualitätseinstellungen(für den Fall, daß es jemanden interessiert und zum testen reizt). Ich habe es auf 1200 Mhz Taktung begrenzt mit einem Stromverbrauch von ca. 120W(für ein derart altes Game schon fragwürdig). Ohne diese manuelle Begrenzung waren es vorher weit über 300W bei nur 1900Mhz, bis ich es wahrnahm. Es überreizte nämlich sogar die von mir voreingestellte Lüfterkurve.
Sollte sich jedoch die 5090'er als Effizienzwunder mausern, wie wohl schon bei der 4090'er von einigen Usern bestätigt, werde ich die vielleicht mal antesten. Auch interessiert mich das neue DLSS4 zum Vergleich.
AMD scheint dagegen noch ein Problem mit DirectX12 Games zu haben, was z.B. bei der 6950'er regelmäßige Freezes provoziert. Dank neuem Netzteil AX1600i kann ich es nun gut kompensieren, was aber letztendlich keine Lösung ist(Spannungsspitzen als Ursache?). Mein Verdacht ist nun, daß wohl deren Adrenalin-Software das Problem zu sein scheint? Aber Nvidia ist da wohl auch nicht so der Hit?
Am Ende wird man trotzdem gezwungen sein, die Grafikkarte zurück zu senden, weil die Chip-Hersteller solche Probleme ignorieren, obwohl die Grafikkarte selber keinen Defekt hat(zu diesem Thema existieren viele Threads, auch hier bei CB).
Und die Game-Entwickler sind auch nicht besser. Wegen deren Bequemlichkeit(oder besser gesagt Faulheit) mutieren ihre Spiele zu regelrechten Performance-Fressern, weil unoptimierter Code oder gar schlampig programmiert. Auf der anderen Seite sind sie wohl die eigentliche Ursache für eine fortschreitende Grafikarten-Entwicklung, selbst wenn Hersteller auf entsprechende Einnahmen gar nicht mehr angewiesen wären und nur aus reiner Gefälligkeit und Gewohnheit für die Gamer brav mit entwickeln(stattdessen Favorisierung von Konsolen). Trotzdem stünde noch immer die Frage im Raum: Wer braucht denn dieses Mehr an Geschwindigkeitszuwachs? Und vielleicht ist das auch der Grund, warum AMD sich i.M. nicht auf ein Performance-Duell mit Nvidia einläßt und stattdessen ein effizienteres Design entwickeln, bis es vielleicht in einigen Jahren Früchte trägt und dann sowieso die Performance zunehmend an Bedeutung verliert? Denn eine virtuelle Realität à la META ist noch in weiter Ferne gerückt und dürfte dann wohl eher CPU-lastig sein.