News GeForce RTX 3080: EVGA lässt die FTW3 Ultra mit 450-Watt-BIOS von der Leine

Glyphus schrieb:
Auch wenn du natürlich Recht hast, aber man sollte das Gesamtsystem betrachten.
Wenn der PC, dank MoBo, CPU, HDD, AIO und RGB ohnhin schon 700W zieht, dann sind 10% erhöhter Verbrauch für 5% mehr Fps besser als die vorher suggerierte 18% mehr Verbrauch. Eine Grafikkarte arbeitet ja nicht im luftleeren Raum

Das gleiche gilt ja auch für Geld und PC Kauf.
Ein GPU Upgrade von 300 auf 400€ für 10% mehr FPS sieht auf dem Papier schlecht aus, aber beim Gesamtsystem von 1000 auf 1100€ entspricht das dann 10% mehr FPS bei 10% mehr Kosten.
Seit wann wird denn Strom in % bezahlt?
Außerdem steigt auch die Auslastung und damit der Verbrauch der CPU, denn der liefert ja die Vorberechnungen der GPU.
Dein Vergleich ist so sinnvoll wie: "Mein 100000€ Mercedes hatte nur einen Wertverlust von 25% im ersten Jahr, der Dacia für 15000€ aber 35%"

Energiesparer hassen diesen Trick!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn und Domyyy
xJAMESx schrieb:
Ich hab das Bios getestet, kommt nicht so viel bei rum. Evtl 2-3% mehr Leistung.
Amphere ist schon gut am Limit.
Was meiner Meinung aber eher für die 3000er Serie spricht, ich hab lieber nen Chip der von Werk aus fast die max Leistung bringt, als wenn ich da noch 20% durch OC bekommen kann!

Gerade für Leute die davon keine Ahnung haben ist es dann auch besser
 
v_ossi schrieb:
Und wo steht geschrieben, dass Steigerungen bei Takt- und Transistorzahl die ebenfalls gesteigerte Effizienz 'auffressen' müssen?
Das steht in den gesetzen der Physik geschrieben, dass die fortschreitende Miniaturisierung derlei Effekte aufzeigt.
Die Elektrik verhält sich bis zu einem gewissen Grad des Shrinks fast linear, aber irgendwann gibt es Nebeneffekte, die immer heftiger werden und auf die Signalintegrität gehen und Leakage fördern.
Die Spannung, die für maßgeblich die Schaltungsgeschwindigkeit zuständig ist, tut dann ihr Übriges dazu, einhergehend mit entsprechenden Problematiken in Sachen Hotspot- Bildung.

Das hat schon seinen Grund, warum man auf die nm Angaben moderner Fertigungsprozesse inzwischen pfeifen kann. Da gibt es physikalisch bedingt x- unterschiedliche Strukturgrößen auf den Chips, weil die je nach Zweck einer Miniaturisierung bereits jetzt nicht mehr standhalten.

Eine CPU ist physikalisch nunmal eine Ladungsumschauflungs- Heizmaschine. Und je mehr Ladungen ich in kürzerer Zeit umschaufle, also je mehr Rechenleistung ich erhalte, umso mehr verbraucht das ganze System.
Das sind zwanghafte Abhängigkeiten.

Der Ampere Test -und das sprichst du ja selber an- zeigt doch, dass die neue Generation an und für sich effizienter arbeitet, als Turing. Gerade mit leicht gesenktem, bzw. bei gleichem Power Target (270 Watt) wird das recht eindeutig.
Eben- Und auch in der Praxis verbraucht meine 3090 hier im Schnitt deutlich weniger, als meine 2080TI, weil ich immer mit VSYNC oder Framecap spiele um die Uniformität der Frametimes zu verbessern, die mir wichtiger ist, als schwankende maximal- FPS.

Und so werden die Karten im überwiegendem Maße betrieben. 1440p in 60Hz / UHD in 60Hz mit Sync um Tearing zu vermeiden. Dort schieben die Karten an Stellen, an welchen es notwendig ist von unten genügend Leistung rein, sind im Schnitt aber deutlich länger im Sweetspot als z.B. eine 2080TI, die wie ich ja weiter vorher schon aufgezeigt habe mit Retailversionen mit 380Watt PT auch kein Kostverächter waren.

NVidia hat sich bei der 3080 bloß nicht mit (nicht exakt durchgerechnet) +20% (zur 2080 Ti) und 50% (zur normalen 2080) zufrieden gegeben, sondern wollte unbedingt +30/60% haben.
Klar, einen Tod muss man sterben; hätte man bei gleichem Stromverbrauch 'nur' die 20/50% Steigerung gehabt, hätte es auch wieder Kritik gegeben.
Da bin ich bei Dir- Die wollten rausholen was geht. Über die Gründe lässt sich aber erst spekulieren, wenn wir wissen, ob Navi die treibende Kraft dahinter war.

Wäre mMn trotzdem sinnvoller. Mit TSMCs 7nm wäre bestimmt noch mal mehr drin gewesen.
Wahrscheinlich schon. Die Frage ist nur wieviel mehr und zu welchem Preis....

Bei CPUs sieht man auch, dass die absolute Leistungsaufnahme nicht 'explodieren' muss.
Vergleich mal den 2011er Sandy Bridge Test mit dem 2017er Kaby Lake und dem 2019er Ryzen 3000 Test.

Du musst das globaler sehen und nicht nur Punktuell zwischen Generationen:
1602842582237.png


Das hier dazu lesen:
https://www.realworldtech.com/shrinking-cpu/3/


Gerade in Anbetracht der kommenden Konsolen mit 350 Watt PSUs wirkt eine 450 Watt Gaming Grafikkarte mMn einfach aus der Zeit gefallen.
Dann darf man keine leistungsfähigeren Grafikkarten mehr bauen. So einfach ist das. Bzw. muss man sich damit arrangieren, dass wir dann halt von Generation zu Generation nur noch 5-10% Sprünge zu verzeichnen haben. Von nichts kommt nichts.

Andererseits schlagen die Hersteller gerade eben einen Weg ein, der zukünftig wieder große Leistungssprünge mit weniger Verbrauch verspricht. Viele halten das aber für unnütz und sinnlos.

Bei Realtime Raytracing kann man, wenn man in Richtung Path Tracing wie bei Quake 2 oder Minecraft gehen, sich wieder das Multichip- Prinzip zu nutze machen.

Raytracing skaliert hervorragend mit den Kernen, womit man dann nicht mehr so auf den Takt angewiesen wäre, wie die Rasterkollegen, die mit steigender Kernzahlen immer schlechter skalieren und es gibt die Multiprozessor- Nachteile wie z.B. bei SLI nicht.

Du könntest also wieder mehrere GPUs auf die Karte packen, dicke Kernzahl aber im absoluten Sweetspot getaktet. Mit Yield- optimierten Die- Größen, um die Kosten zu drücken.

Aber wie gesagt- Den Leuten ist ja Raytracing oder sowas wie DLSS oft schnurz (was will ich denn mit blöden Spieglelungen hör ich hier immer wieder und- ich will nur "native" Auflösung) und überhaupt auch alles andere, wie ihr Bild auf den Bildschirmen generiert wird.

Natürlich können 3080 und 3090 absolut betrachtet mehr, aber 95% der Leistung bei 270 Watt TDP liest sich wesentlich humaner, als 110% Leistung mit 450 Watt TDP bei eine extreme OC 3080.
Ich erachte es auch nicht als sinnvoll, wenn es um ein par Prozent geht, hier eine Watt- Schlacht ins Feld zu führen.
Aber wie gesagt- Man hat die Möglichkeit die Chips nach seinem Bedarf einzubremsen und trotzdem noch ein sattes Leistungsplus zu erhalten.

Vielleicht ist die Idee eines für den User einfach schaltbaren Öko, Normal und Turbo- Modes gar nicht so schlecht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn, Antaeus, v_ossi und 2 andere
.Sentinel. schrieb:
Eben- Und auch in der Praxis verbraucht meine 3090 hier im Schnitt deutlich weniger, als meine 2080TI, weil ich immer mit VSYNC oder Framecap spiele um die Uniformität der Frametimes zu verbessern, die mir wichtiger ist, als schwankende maximal- Refreshrates.

Und so werden die Karten im überwiegendem Maße betreiben werden. 1440p in 60Hz / UHD in 60Hz mit Sync um Tearing zu vermeiden. Dort schieben die Karten an Stellen, an welchen es notwendig ist von unten genügend Leistung rein, sind im Schnitt aber deutlich länger im Sweetspot als z.B. eine 2080TI, die wie ich ja weiter vorher schon aufgezeigt habe mit Retailversionen mit 380Watt PT auch kein Kostverächter waren.
1+
Zur Uniformität:
Praktisch sehen die Meisten net die Frametimes sondern nur die Differenz. Lags von >16ms fallen dann übel auf.
Spikes >16ms dito.--> ergo sehr hohe Max.Spitzen sind genauso Murks wie Dips.(deswegen Fps-Limit)
Wg.der Dips ist ein offenes hohes PT zur Erzielung der Gleichmäßigkeit, gerade bei Explosionen etc. sinnvoll.
(das war ja auch der Sinn hinter SLi, den nötigen Puffer zu gewinnen und net ohne Fps-Limit sinnlos W zu verbraten)

btw.
Vermutlich würde man 1440p@72fps@144Hz noch hinbekommen. (für RT?)
Das Schöne an Gsync ist ja die Verdopplung des Bildes auf 144Hz.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
downforze schrieb:
Seit wann wird denn Strom in % bezahlt?
Außerdem steigt auch die Auslastung und damit der Verbrauch der CPU, denn der liefert ja die Vorberechnungen der GPU.
Relativ gesehen schon. Wenn du 100€ im Jahr für den Strom deines PCs bezahlst und dann Übertaktest bekommst du 5% mehr FPS für 10% mehr Kosten oder eben 10€. Ich wollte lediglich darauf hinweisen, dass eine Erhöhung von 18% einer Komponente nicht einen Mehrverbrauch von 18% ALLER anderen Komponenten bedeutet.

Wenn der Prozessor vorher bei 50% Auslastung lief und dann bei 52,5%, wird er ja nicht derart an der Kotzgrenze betrieben, dass der Verbrauch um 18% steigt.

downforze schrieb:
Dein Vergleich ist so sinnvoll wie: "Mein 100000€ Mercedes hatte nur einen Wertverlust von 25% im ersten Jahr, der Dacia für 15000€ aber 35%"

Energiesparer hassen diesen Trick!
Da deine Analogie überhaupt nichts mit dem zu tun hat was ich geschrieben habe, vermute ich einfach, dass du nicht verstanden hast, worauf ich hinaus will. Ich würde dich bitten, mein Statement nochmals durchzulesen.

Mein Vergleich mit dem Preis der PC-Komponenten sollte nur veranschaulichen, dass es bei Metriken wie Effizient oder Preis/ Leistung eben immer auf das Bezugssystem ankommen.

Macht es Sinn den Mehrverbrauch einer PC Komponente zum Verbrauch meines Wasserkochers zu setzen? Wohl kaum. Macht es Sinn der Mehrverbrauch auf das Gesamtsystem zu beziehen? Durchaus.

Dies ändert natürlich an der technischen Einschätzung einer Einzelkomponente nichts, aber kann für den ein oder anderen Nutzer Sinn machen.
 
@Glyphus
Nee, nee. Ich verstehe ganz genau, was du geschrieben hast. Du hast etwas anderes beschrieben (als du offensichtlich wolltest), aber jetzt eben ja doch korrigiert.

Du unterstelltest, dass mit AiO, dicker CPU, viel RAM, etc.. ja bereits ein so hoher Verbrauch existiert, dass 50 Watt mehr in der Summe aller Komponenten prozentual nicht ins Gewicht fallen.
" Wenn der PC, dank MoBo, CPU, HDD, AIO und RGB ohnhin schon 700W zieht, dann sind 10% erhöhter Verbrauch für 5% mehr Fps besser als die vorher suggerierte 18% mehr Verbrauch."
Anscheinend hast du mein Mercedes-Dacia-Beispiel nicht verstanden, denn es drückt genau das gleiche aus.

Was du aber eigentlich meinst: eine Komponente mit Übertaktung führt nicht zwangsläufig zur gleich höheren Leistungsaufnahme der anderen Komponenten. Und das ist korrekt, denn bspw. die CPU kann mehr Daten bereitstellen, wenn die GPU schneller verarbeiten kann (durch Übertaktung), wird aber kaum 50W mehr verbrauchen.
Das hast du ja auch im letzten Post verständlicher ausgedrückt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel.
Deswegen gibt's keine 3080, die hat man alle von der Leine gelassen. Ob ein "Vermisst"-Poster hilft?

Es ist nicht mal was gelistet weil man noch soviel an Bestellungen abzuarbeiten hat, einfach nur traurig.
 
iamyvo schrieb:
also geh weg mit deinen Relativierungen.
Das ist keine Relativierung, es geht um Verhältnismäßigkeit. Das sollte der Grundsatz allen rationalen Handelns sein, da dies die maximale Vernunft ist.
Wenn ich also nun das x-fache an Energie in Produktion und nicht-OC-Vebrauch gesteckt habe, macht der Mehrverbrauch von 70W in vielleicht 5% der Spielzeit (da so eine GPU ja nicht immer voll ausgelastet ist) also 0,5-1% der Lebenszeit (da es wohl kaum einer der Nutzer schafft, wirklich jeden Tag mehrere Stunden zu spielen) des Artikels 000 Unterschied. Hier nun also mit Klimakeule zu kommen, anstelle das Zocken oder den Konsum generell zu verurteilen...

iamyvo schrieb:
Warum raffen hier so viele nicht, dass es gerade in der aktuellen Zeit um Effizienz geht?
Dann darfst du nicht am PC spielen (eher Konsole), geschweige mit high end Equipment. Dann tut es auch ein anderes Hobby.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@downforze
Richtig dein Beispiel habe ich nicht verstanden, da ich den Zusammenhang zwischen Wertverfall und Energiesparer nicht sehe.
Bezüglich Wertverfall hätte ich jetzt eher gesagt, dass 10.000€ Wertverlust bei einem Mercedes prozentual nicht so sehr ins Gewicht fallen wie bei einem Dacia - aber auch hier hinkt der Vergleich, da der Bezug zur Komponente fehlt. Zum Beispiel wäre der Wertverlust des Motors oder Radios im Vergleich zum Gesamtauto ein treffenderer Vergleich.
 
scooter010 schrieb:
Dann darfst du nicht am PC spielen (eher Konsole), geschweige mit high end Equipment. Dann tut es auch ein anderes Hobby.
Wat, begreifst du ernsthaft nicht, was in diesem Zusammenhang mit Effizienz gemeint ist? Hast du überhaupt auch nur ein Wort von dem verstanden, was ich geschrieben hab? Sorry, aber diesen Text kannst du doch nicht ernst meinen oder hast du es einfach nicht gelesen?

Und natürlich ist das was du machst eine Relativierung, in dem du das Ganze auf eine Grundsatzdiskission Richtung des ganzen Hobbies hin verlagerst, nur um den einzelnen Verbrauch ins Nichts zu relativieren. Das kann man unendlich weiterspinnen und das führt doch nur am Thema vorbei.

Es wird gespielt, da braucht man nicht drüber diskutieren, aber trotzdem kann man doch eine gute Effizienz in jeglichen Punkten anstreben? Ich mein ich hab doch sogar ein Schlagwort dazu gepackt, um es zu verdeutlichen. Und wie du sagst Verhältnismäßigkeit, der Verbrauch wird ab einem gewissen Punkt bei Ampere nun mal unverhältnismäßig zur minimal gewonnenen Leistung.
 
Zuletzt bearbeitet:
iamyvo schrieb:
Und wie du sagst Verhältnismäßigkeit, der Verbrauch wird ab einem gewissen Punkt bei Ampere nun mal unverhältnismäßig zur minimal gewonnenen Leistung.
Genau deshalb kann ja jeder auch wählen, wie er die Karte nutzen möchte. Die Hersteller liefern entsprechende Tools mit.
Du kannst die Ampere- Karte auch auf die Geschwindigkeit einer 2080TI drosseln. Da kriegst Du dann eine Dicke Energieersparnis raus.
Da kannst Du dann auch sehen, wie es um die Effizienz bestellt ist.

Oder Du machst es so, also eine Mischung aus Performance- Plus und mehr Leistung:
https://wccftech.com/wp-content/uploads/2020/09/vs-2080-Ti-Overall.png

Dann liegst Du bei 230 Watt und bist trotzdem noch schneller als die 2080TI.
 
.Sentinel. schrieb:
Das steht in den gesetzen der Physik geschrieben,
xexex schrieb:
Das hängt mit der aktuellen Miniaturisierung zusammen, die längst den Punkt überschritten hat.

Ähm... Danke. Die physikalischen Hintergründe sind mir durchaus bewusst.

In dem Fall haben wir wohl schlicht aneinander vorbei geredet.

Wollte eher darauf hinaus, dass man den nächstbesten, neusten Prozess nicht immer bis an seine Grenze ausreizen muss, sondern sich im Sweetspot bewegen kann und somit bei gleichem absoluten Verbrauch die Effizienz steigert. Die von @xexex gepostete Tabelle verdeutlicht das ja eigentlich und z.B. Smartphone SoCs werden auch jedes Jahr schneller und effizienter, können aber bauartbedingt den absoluten Verbrauch nicht steigern*.

Dazu architektonische Verbesserungen und man kann generationsübergreifend durchaus die absolute TDP beibehalten oder senken und die Leistung steigern. Die neue Ryzen Generation wird das hoffentlich zeigen und auch die RTX 3070 sollte das zeigen.
Logischerweise werden die Sprünge dann kleiner, aber ein Rxzen 5000 der bei gleicher TDP ~20% schneller ist (Aussage aus der AMD Präsentation), könnte bei 5% gesenkter TDP ja immer noch ~15% schneller sein. Ist einfach ne Frage der Prioritäten. Im darauffolgenden Jahr in N5 könnte man noch mal ~10% Leistung oben drauf legen ohne die TDP zu erhöhen (ganz grob über den Daumen gepeilt aus der Tabelle).

*extrem kurze Lastspitzen mal ausgenommen, aber ihr versteht den Punkt den ich machen will. Das Teil muss passiv kühlbar sein, darf keinen dicken Kupferblock haben und darf den Akku nicht binnen weniger Sekunden leer saugen.

.Sentinel. schrieb:
Genau deshalb kann ja jeder auch wählen, wie er die Karte nutzen möchte.

Ist aber illusorisch, anzunehmen, dass viele User das machen werden. Ein Großteil der Karten wird in OEM Kisten verbaut und nie angerührt und selbst bei den DIY Käufern sind die PT Nutzer und Undervolter wohl in der Minderheit.
Manchmal muss man die Leute einfach zu ihrem 'Glück' zwingen.

Dafür gibt es ja auch Abgasreglungen für Autos. Wäre halt illusorisch zu sagen, die Leute können ja bei Bedarf sparsamer fahren.
 
Czerni schrieb:
Diese Wattzahlen sind eifach nur noch krank.
Die Mehrleistung steht in keinem Vergleich zum Verbrauch und das zu unseren Zeiten, in denen das Energieverbrauchsbewusstsein ja langsam etwas mehr vorhanden ist.
3080 mit mit 270 Watt. Spende die 4 Prozent Mehrleistung der Umwelt.


Kann man nicht besser ausdrücken.
Ich seh persönlich den Sinn nicht mehr gegeben. 1200/1600W PSUs für ein paar FPS mehr.

Ich machs dann wie Microsoft und versenke den PC im Erlensee.

🌻

🌻
 
  • Gefällt mir
Reaktionen: Czerni
v_ossi schrieb:
Die von @xexex gepostete Tabelle verdeutlicht das ja eigentlich und z.B. Smartphone SoCs werden auch jedes Jahr schneller und effizienter, können aber bauartbedingt den absoluten Verbrauch nicht steigern*.

Die werden schlichtweg nicht größer oder komplexer. Die SOCs in Smartphones haben schon einige Jahre 8 Kerne, da wird der Step auf kleinere Fertigung zur Miniaturisierung und Senkung der Energieaufnahme genutzt. Bei der Grafikkarten will man mit jeder Generation hingegen möglichst viel Leistung sehen und Leistung kostet an dieser Stelle eben Energie.
1602859516688.png


Wenn ich 40% mehr Transistoren auf dem Chip unterbringe und den Chip womöglich noch höher Takte, habe ich am Ende 50% mehr Mehrverbrauch und 30% Ersparnis durch Fertigung, übrig bleibt also 20% mehr Energiebedarf.

Natürlich könnte man rein auf Effizienz gehen, aber niemand will eine neue GPU Generation die nur 10-20% Mehrleistung bietet, wie es bei den CPUs oft der Fall ist und mehr kommt durch neue Prozesse kaum mehr zustande. Das war früher mal ganz anders.
 
schkai schrieb:
800 Euro in 2 Jahren ? Selbst wenn du den Rechner nicht anmachst, wirst du nie diese 800 Euro über die Stromersparnis rausholen. Rechne mal selber nach und dann wirst auch du merken das es unmöglich ist. Nicht zu vergessen das man die 3080 auch undervolten kann.

Die 3080 Kosten hat man in der Schweiz nach 10 Monaten Mining wieder raus 😁
 
xexex schrieb:
Die werden schlichtweg nicht größer oder komplexer. Die SOCs in Smartphones haben schon einige Jahre 8 Kerne, da wird der Step auf kleinere Fertigung zur Miniaturisierung und Senkung der Energieaufnahme genutzt.

Stimmt so doch gar nicht. Selbstverständlich sind die komplexer (Anzahl der Transistoren) geworden, wo soll auch sonst der Leistungszuwachs herkommen?

Die Größe hängt ja auch immer am Fertigungsprozess. Auf einen Shrink folgt ein leicht größerer Nachfolger im gleichen Verfahren. Ist ja auch logisch, der Prozess hat nach einem Jahr ne höhere Yield Rate, ist aber nicht signifikant Dichter geworden, also nehmen die zusätzlichen Transistoren mehr physischen Platz ein.

Die Anzahl der Kerne ist dabei irrelevant. Die können mit Cache und anderen Funktionen schnell an Fläche und Leistung gewinnen, zudem gibt es inzwischen auch einen ganzen Haufen an (u.a. AI) Funktionen in den SoCs, von denen vor 5 Jahren noch keine Rede war.

JahrFertigungDie SizeTransistoren
SD 820201514nm114mm²2
SD 835201610nm72mm²3,5
SD 845201710nm94mm²5,3
SD 85520187nm73mm²6,7
SD 86520197nm84mm²

Bei Appels A Serie sieht es nicht anders aus.
 
Zurück
Oben