v_ossi schrieb:
Und wo steht geschrieben, dass Steigerungen bei Takt- und Transistorzahl die ebenfalls gesteigerte Effizienz 'auffressen' müssen?
Das steht in den gesetzen der Physik geschrieben, dass die fortschreitende Miniaturisierung derlei Effekte aufzeigt.
Die Elektrik verhält sich bis zu einem gewissen Grad des Shrinks fast linear, aber irgendwann gibt es Nebeneffekte, die immer heftiger werden und auf die Signalintegrität gehen und Leakage fördern.
Die Spannung, die für maßgeblich die Schaltungsgeschwindigkeit zuständig ist, tut dann ihr Übriges dazu, einhergehend mit entsprechenden Problematiken in Sachen Hotspot- Bildung.
Das hat schon seinen Grund, warum man auf die nm Angaben moderner Fertigungsprozesse inzwischen pfeifen kann. Da gibt es physikalisch bedingt x- unterschiedliche Strukturgrößen auf den Chips, weil die je nach Zweck einer Miniaturisierung bereits jetzt nicht mehr standhalten.
Eine CPU ist physikalisch nunmal eine Ladungsumschauflungs- Heizmaschine. Und je mehr Ladungen ich in kürzerer Zeit umschaufle, also je mehr Rechenleistung ich erhalte, umso mehr verbraucht das ganze System.
Das sind zwanghafte Abhängigkeiten.
Der Ampere Test -und das sprichst du ja selber an- zeigt doch, dass die neue Generation an und für sich effizienter arbeitet, als Turing. Gerade mit leicht gesenktem, bzw. bei gleichem Power Target (
270 Watt) wird das recht eindeutig.
Eben- Und auch in der Praxis verbraucht meine 3090 hier im Schnitt deutlich weniger, als meine 2080TI, weil ich immer mit VSYNC oder Framecap spiele um die Uniformität der Frametimes zu verbessern, die mir wichtiger ist, als schwankende maximal- FPS.
Und so werden die Karten im überwiegendem Maße betrieben. 1440p in 60Hz / UHD in 60Hz mit Sync um Tearing zu vermeiden. Dort schieben die Karten an Stellen, an welchen es notwendig ist von unten genügend Leistung rein, sind im Schnitt aber deutlich länger im Sweetspot als z.B. eine 2080TI, die wie ich ja weiter vorher schon aufgezeigt habe mit Retailversionen mit 380Watt PT auch kein Kostverächter waren.
NVidia hat sich bei der 3080 bloß nicht mit (nicht exakt durchgerechnet) +20% (zur 2080 Ti) und 50% (zur normalen 2080) zufrieden gegeben, sondern wollte unbedingt +30/60% haben.
Klar, einen Tod muss man sterben; hätte man bei gleichem Stromverbrauch 'nur' die 20/50% Steigerung gehabt, hätte es auch wieder Kritik gegeben.
Da bin ich bei Dir- Die wollten rausholen was geht. Über die Gründe lässt sich aber erst spekulieren, wenn wir wissen, ob Navi die treibende Kraft dahinter war.
Wäre mMn trotzdem sinnvoller. Mit TSMCs 7nm wäre bestimmt noch mal mehr drin gewesen.
Wahrscheinlich schon. Die Frage ist nur wieviel mehr und zu welchem Preis....
Bei CPUs sieht man auch, dass die absolute Leistungsaufnahme nicht 'explodieren' muss.
Vergleich mal den
2011er Sandy Bridge Test mit dem
2017er Kaby Lake und dem
2019er Ryzen 3000 Test.
Du musst das globaler sehen und nicht nur Punktuell zwischen Generationen:
Das hier dazu lesen:
https://www.realworldtech.com/shrinking-cpu/3/
Gerade in Anbetracht der kommenden Konsolen mit 350 Watt PSUs wirkt eine 450 Watt Gaming Grafikkarte mMn einfach aus der Zeit gefallen.
Dann darf man keine leistungsfähigeren Grafikkarten mehr bauen. So einfach ist das. Bzw. muss man sich damit arrangieren, dass wir dann halt von Generation zu Generation nur noch 5-10% Sprünge zu verzeichnen haben. Von nichts kommt nichts.
Andererseits schlagen die Hersteller gerade eben einen Weg ein, der zukünftig wieder große Leistungssprünge mit weniger Verbrauch verspricht. Viele halten das aber für unnütz und sinnlos.
Bei Realtime Raytracing kann man, wenn man in Richtung Path Tracing wie bei Quake 2 oder Minecraft gehen, sich wieder das Multichip- Prinzip zu nutze machen.
Raytracing skaliert hervorragend mit den Kernen, womit man dann nicht mehr so auf den Takt angewiesen wäre, wie die Rasterkollegen, die mit steigender Kernzahlen immer schlechter skalieren und es gibt die Multiprozessor- Nachteile wie z.B. bei SLI nicht.
Du könntest also wieder mehrere GPUs auf die Karte packen, dicke Kernzahl aber im absoluten Sweetspot getaktet. Mit Yield- optimierten Die- Größen, um die Kosten zu drücken.
Aber wie gesagt- Den Leuten ist ja Raytracing oder sowas wie DLSS oft schnurz (was will ich denn mit blöden Spieglelungen hör ich hier immer wieder und- ich will nur "native" Auflösung) und überhaupt auch alles andere, wie ihr Bild auf den Bildschirmen generiert wird.
Natürlich können 3080 und 3090 absolut betrachtet mehr, aber 95% der Leistung bei 270 Watt TDP liest sich wesentlich humaner, als 110% Leistung mit 450 Watt TDP bei eine extreme OC 3080.
Ich erachte es auch nicht als sinnvoll, wenn es um ein par Prozent geht, hier eine Watt- Schlacht ins Feld zu führen.
Aber wie gesagt- Man hat die Möglichkeit die Chips nach seinem Bedarf einzubremsen und trotzdem noch ein sattes Leistungsplus zu erhalten.
Vielleicht ist die Idee eines für den User einfach schaltbaren Öko, Normal und Turbo- Modes gar nicht so schlecht.