Powl_0 schrieb:
Nö, aber als die 1080Ti rauskam, ging das.
Ebenso wird eine 3080 auch nicht ewig die 4K Ultra stemmen. Warte 1-2 Jahre, dann gibts wieder die ersten Spiele, wo man mit ner 3080 in 4K die Settings reduzieren muss.
Dass die 320W der 3080 gar nicht nötig sind, wissen wir doch bereits! Undervolting/PL Limiter Tests gibts nun zu genüge. Bei 270W TDP wie bei der 2080Ti verliert die 3080 keine 5% Leistung.
Also nein, "es ist nötig für 4K" zieht da einfach nicht. Die Ampere Karten sind einfach ineffizient konfiguriert.
Man kann es ineffiziente Fertigung oder einfach Physik nennen ;-)
Jahr für Jahr werden die Karten schneller. Es gibt mehr Mhz und auch mehr schnelleren Speicher.
Dazu andere Lüftertechniken, Spannungswandler und Chipgrößen mit sehr vielen Transistoren.
Die Entwicklung ist da in den letzten 2 Jahren sehr schnell voran gegangen, da auch die neuen Konsolen in den Startlöchern standen und man hier auf das "Next Gen Level" möchte.
Dabei wird alles daran gesetzt möglichst viele Grafikspieleien (mehr Shader, Raytracing, etc.) zu nutzen.
Inzwischen gehen die Anforderungen der Engines und der Entwicklung aber schneller, als dies im Fertigungsprozess abzubilden um gleichzeitig Strom zu sparen.
Mit einer 1080TI konntest du damals zu diesem Zeitpunkt die Top Titel mit hohen Details spielen können. Korrekt. Vermutlich auch schon irgendwie in 4K.
Aber heute sind, wie eben beschrieben, andere Anforderungen an Grafikkarten.
Alleine der Sprung auf Raytracing muss erst mal gestemmt werden.
Die ersten "richtigen" beworbenen 4K Grafikkarten waren für mich die 2000er Grafikkarten von Nvidia.
Alles andere konnte irgendwie damit umgehen, aber man musste immer Kompromisse eingehen.
Man muss sich doch nur Spieletests der letzten 2 Jahre anschauen, wo es um 4K Auflösung geht und wie die Grafikkarten abschneiden. -> da wurde oft nur high details oder medium verwendet, damit die FPS nicht in die Knie gingen. Selten gab es da Tests wo die Details auf Maximum waren um dies mit WQHD oder FHD 1:1 zu vergleichen.
Vermutlich hätte Nvidia besser fertigen können, vielleicht auch AMD, was den Verbrauch angeht - das wird sicherlich auch noch kommen, aber aktuell kann man nicht alle Wünsche der Enthusiasten bedienen und gleichzeitig Strom sparen. Für alle anderen gibt es ja die "kommenden" Mittelklasse Grafikkarten, welche auch weniger Strom brauchen um das darzustellen, was eine 1080TI oder eine 2080 vorher schon gemacht haben.