News Gerüchte zu GeForce RTX 50: RTX 5090 mit 600 Watt und RTX 5080 50 Prozent schneller

Spawn182 schrieb:
Ach, und wie lange braucht eine 1080 für ein Rendering in 4K? Gehen wir mal von 2 Stunden aus, die 4090 berechnet das gleiche Bild in 16 Minuten oder dank den Tensorcores in nur 6 Minuten. Rasteresation ist nicht alles und eh schon am Limit.

Die 1080 hat auch noch messbar mehr Strom gezogen, wenn man ein Video geschaut hat. Ich verstehe deine Argumentation, aber mit Architekturen ist es nicht ganz so einfach und wenn, dann sollte man alle Features vergleichen.

So oder so ist die 40xx Generation eben bei Energieverbrauch pro Frame im optimalen Lastbereich unschlagbar. Da hilft auch kein niedrigeres TDP einer 1080
Das ist normaler Fortschritt. Wenn du 2 Jahre wartest, kriegst du die Leistung auch ohne erhöhten Stromverbrauch.

Was NVidia da macht ist schlicht und ergreifend für den Umsatz und für die Börse. Die brauchen halt diese Hype-Nachrichten, also "50% Mehrleistung" etc., sonst würde die hohe Welle abflauen, auf der NVidia gerade reitet, auch wenn sie auch super im KI Geschäft etc. hängen.
 
Spawn182 schrieb:
Die Diskussion gab es zu oft, die meisten wollen nur ihre gefestigte Meinung wiedergeben und das war es dann. Jede "billig" Karte ist heute schneller als das Topmodell vor einigen Generation und um Welten sparsamer und preiswerter, aber nee Flaggschiff flamen ist eben ein Sport.

Das stimmt definitiv nicht. Es gab nur in der x060 Linie von NVidia einen Leistungsschub im Vergleich zu den Top Modellen. Auch da gab es jedoch bei der 2060 einen Rückschritt. Bei den x070 und x080 war die Leistungssteigerung vergleichbar schlecht - eventuell in Generationen verschoben. (Quelle: https://technical.city/)

Ergo ist dieser Verbrauchswahn nicht auf die Flagschiffe bergrenzt, sondern zieht sich auch bei den kleineren Modellen durch. Wenn man die 9xx als Nulllinie nimmt. haben wir bei der x080 in ein Watt normalisierte Leistungssteigerung von 33%, bei der x070 Leistungssteigerung von 50% und bei x060 sind immerhin es gute 116%.

Hält man die Auflösungssteigerung mit in Betracht, haben wir insgesamt einen Rückschritt, sogar bei den x060. 2017 hatten noch 50% der CB Nutzer einen FHD Monitor und in der Umfrage 2023 nur noch 16%.

Unterm Strich kann man sagen, dass die GPUs mehr Verbrauchen für weniger Leistung im Vergleich zu sonstigen Entwicklungen. Nur in der x060 Linie hält sich das Verhältnis im akzeptablen Bereich, auch wenn es da noch zu wenig ist. RT habe ich bei der Betrachtung weggelassen, sonst wäre der Rückschritt gegenüber der sonstigen Entwicklung total schlecht.

Karte​
Stromverbrauch​
Stromverbrauchsteigerung​
Leistungssteigerung​
Normalisiert​
980​
165 Watt​
1080​
180 Watt​
109,09 %​
140,00 %​
128,33 %​
2080​
215 Watt​
119,44 %​
121,00 %​
101,30 %​
3080​
320 Watt​
148,84 %​
134,00 %​
90,03 %​
4080​
320 Watt​
100,00 %​
135,60 %​
135,60 %​
5080​
400 Watt​
125,00 %​
147,00 %​
117,60 %​



Karte​
Stromverbrauch​
Stromverbrauchsteigerung​
Leistungssteigerung​
Normalisiert​
970​
145 Watt​
1070​
150 Watt​
103,45 %​
140,00 %​
135,33 %​
2070​
175 Watt​
116,67 %​
117,00 %​
100,29 %​
3070​
220 Watt​
125,71 %​
138,40 %​
110,09 %​
4070​
200 Watt​
90,91 %​
120,50 %​
132,55 %​



Karte​
Stromverbrauch​
Stromverbrauchsteigerung​
Leistungssteigerung​
Normalisiert​
960​
120 Watt​
1060​
120 Watt​
100,00 %​
168,70 %​
168,70 %​
2060​
175 Watt​
145,83 %​
138,00 %​
94,63 %​
3060​
170 Watt​
97,14 %​
120,80 %​
124,35 %​
3060​
115 Watt​
67,65 %​
115,60 %​
170,89 %​
 
  • Gefällt mir
Reaktionen: Matthias80
Ich will viel Leistung für max 250 W haben. Aber solange GTA6 noch nicht für den PC erschienen ist, kann ich warten.
 
Ich werde diese festen Stromverbrauch Tabellen vergleiche nie verstehen.

Die neuen Karten ab 3xxx bei AMD 6xxx reagieren sehr gut auf ein fps oder Verbrauchs Limit.
Das TGP ist doch nur für die NT Auswahl und Hersteller der Kühllösung interessant.

Ich stell mir diese ernste Diskussion 2er Personen auf einem mittleren Sportboot mit Mercury Verado Außenborder vor :).
 
  • Gefällt mir
Reaktionen: Spawn182
Also können alle Boardpartner jetzt das Kühlerdesign der 4090 OG wieder rauskramen?
Ich hab mir ja extra anfang Jahr die 4090 mit dem überdimensionierten 600W kühler geholt damit die schön leise läuft (ein traum sag ich euch sogar unter vollast :D ), es gibt ja die reduzierten Kühlerversionen nun mit dem... 3090 Kühler iirc.

Ich spiele momentan 1440p was ich persöndlich als sweetspot für performance / auflösung empfinde, den "bedarf" an 4k hatte ich bis jetzt noch nicht. Testweise hab ich mal Cyberpunk auf meinem 4k Fernseher laufen lassen und das lief ganz ok, ich zieh aber den performance sprung am 1440p Monitor der höheren auflösung vor, zudem ist M&K am TV etwas arg unbequem :D (und shooter spielt man mit M&K, den Hügel hab ich in anspruch genommen :P ) Aber abgesehen von wirklichen grafik monstern... mal gucken. Da ich keine Absicht hab auf 4k zu wechseln dürfte die 4090 noch einige Jahre guten dienst leisten, zumal ich auch nur äusserst selten aktuelle Spiele spiele. Mein Spieledurchschnittsalter dümpelt irgendwo bei 2018 rum, und oft kommen dann auch noch Indie Titel zum zuge die eh grafisch nicht so anspruchsvoll sind.
 
estros schrieb:
Ich sag’s bei jeder Gen: Zum Glück ist NVIDIA nicht Intel und bremst sich wegen der schwachen Konkurrenz künstlich aus. :cool_alt:
Wooot?

Es verhält sich genau umgekehrt.

Diggi, nVidia paast die Performance ihrer Karten in jeder Gen an die Leistung on AMD bzw Mitbewerber an.

Zb sollte die 4090 zuerst mit 600W auf den Markt kommen. Als Nviida geblickt haben das die 7900XTX doch nicht der ganz krasse überflieger wird, haben sie kurzfristig die Leistung auf 450W begrenzt.

Das Gleiche bei der 4080, die bei allen Modellen einen Kühler für 450W besitzt, aber ganz kurz vor Release auf 320W begrenzt wurde.

Es gibt noch diverse weitere Beispiele aus der Vergangenheit.
 
pacifico schrieb:
Zb sollte die 4090 zuerst mit 600W auf den Markt kommen. Als Nviida geblickt haben das die 7900XTX doch nicht der ganz krasse überflieger wird, haben sie kurzfristig die Leistung auf 450W begrenzt.

Das Gleiche bei der 4080, die bei allen Modellen einen Kühler für 450W besitzt, aber ganz kurz vor Release auf 320W begrenzt würde.

Natürlich. Es lag an der zu erwartenden Leistung der RX7000, daß nVidia die Stromaufnahme ihrer GPUs gedrosselt hat - und das Monate, bevor die RX7000 überhaupt auf den Markt gekommen ist.

Nicht etwa an der effizienteren Fertigung bei TSMC anstelle Samsung.

Wenn du das so sagst, dann hat das bestimmt seine Richtigkeit.
 
Ayo34 schrieb:
So einen Sprung (Leistung + Effizienz) wie von 3000er (Samsung) zur 4000er Serie (TSMC) werden wir aber lange nicht mehr sehen.
Die 3080 hat die gleiche TDP wie die 4080.

Wie soll hier etwas effizienter sein?
 
pacifico schrieb:
Die 3080 hat die gleiche TDP wie die 4080.

Bei welcher Grafikleistung doch gleich, verglichen mit der 4080?

pacifico schrieb:
Wie soll hier etwas effizienter sein?

Effizienz ist Grafikleistung pro Stromaufnahme - einfache Divisionen beherrschst du?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Simonte, Cohen, Oudenstekelig und eine weitere Person
@pacifico Demgegenüber steht der aktuelle Vorstoß des US Justizministeriums gegen Nvidia vorzugehen wegen marktbeherrschender Stellung.
Deren Marktmacht im KI-Bereich ist, wie jeder weiß, enorm. Deiner Aussage nach müssten sie ja auch in dem Bereich lediglich knapp vor der Konkurrenz sein.

(Nachtrag: Wobei ich gerade nicht weiß, inwiefern CUDA Gegenstand des Vorwurfes ist.)
 
pacifico schrieb:
Die 3080 hat die gleiche TDP wie die 4080.

Wie soll hier etwas effizienter sein?

1. 4080 ist 60% schneller bei gleicher TDP, also 60% effizienter!
2. Die 4080 nutzt die TDP fast nie aus und braucht bei Spielen häufig nur 250-300 Watt. Die 3080 nutzt hingegen das 320 Watt Limit sehr häufig komplett aus. Dazu kann man die 4080 auch mit 200 - 250 Watt ohne großen Performanceverlust benutzen. Heißt die wirkliche Effizienz ist noch höher als 60%.

Insgesamt ist das ein gigantischer Schritt in der Effizienz und auch nur dank der Fertigung so möglich. Man hat ja quasi 2 große Fertigungsschritte gemacht zwischen 3080 und 4080. Zur 5080 kommt jetzt nur ein kleiner Fertigungsschritt. Heißt keine 60, 70 oder 80% mehr Effizienz, sondern eher 10-20%.
 
  • Gefällt mir
Reaktionen: Cohen, Spawn182 und Oudenstekelig
Araska schrieb:
Bei welcher Grafikleistung doch gleich, verglichen mit der 4080?
Das mit der angeblichen Effizienzsteigerung ist größtenteils Marketing.

Bei Compute Workloads stimme ich dir und nVidia zu, das die Effizienz gesteigert wurde.
Was ja logisch ist wenn zb eine AI Bilder um Faktor drei schneller generiert.

Bei Gaming sehe ich den Begriff Effizienzsteigerung äußerst kritisch. Gaming Leistung ist relativ.

---> Mit einer neuen GPU kann man alte Spiele mit höheren FPS spielen und aktuelle Games laufen mit spielbaren Frameraten

AAAABER

------->>>> Da neue Spiele bekanntlich die neue Hardware soweit ausnutzen das wiederum neue Spiele irgendwann nicht mehr mit spielbaren FPS auf der existierenden GPU laufen, ist eine relativer Leistungsverlust gegeben. Die GPU muss irgendwann ersetzt werden obwohl sie laut nVidia effizient ist.

Von daher sind die rechnerische Gewinne bei der Effizienz nur für Betrieber von Rechenzentren oder Workstations von Belang.

Logisch oder?

P. S. Das man die 4080 mit ohne Leistungsverlust bei 80Prozent TDP bzw 250 Watt laufen lassen kann, ist schon wieder vorbei. Aktuelle Spiele mit hohen Anforderungen ala Alan Wake 2 pushen die 4080 auf 300W. Wer hier die Leistung auf 250W begrenzt, muss mit weniger FPS spielen.
 
Zuletzt bearbeitet:
pacifico schrieb:
------->>>> Da neue Spiele bekanntlich die neue Hardware soweit ausnutzen das wiederum neue Spiele irgendwann nicht mehr mit spielbaren FPS auf alten GPU laufen, ist eine relativer Leistungsverlust gegeben. Die GPU muss irgendwann ersetzt werden.

Von daher sind die rechnerische Gewinne bei der Effizienz nur für Betrieber von Rechenzentren oder Workstations von Belang.

Logisch oder?

Bei der Logik komme ich nicht mit. Nur weil neue Spiele neue Technologien unterstützen, die wiederum nur von neuen GPUs unterstützt werden, habe ich doch keinen "relativen" Leistungsverlust.

Anders könnte man auch argumentieren, dass das Spielerlebnis je eingesetzter Leistung besser wird, weil ich ein schöneres Bild und eine flüssiger Darstellung je eingesetzten Watt erhalte.
 
Kommando schrieb:
4K ist überall einfach unglaublich schön. Zum Genießen. 🥰

Da gehe ich mit 😀 und ja ich hatte deine erste Aussage dann fehlinterpretiert. Sorry.

Pisaro schrieb:
Doch, das schon. Beispiel bei ARPGs wie Grim Dawn etc: In 4K hast du ein "weiteres" Sichtfeld und kannst auch weiter rausscrollen, eben weil das Bild "kleiner" ist.

Mir war schon klar, dass es Titel gibt, bei denen ich je nach Auflösung auch mehr "Screen Estate" habe, ursprünglich war jedoch ein "competitive" genannt und in diesen Bereichen sollte es nicht möglich sein, sich durch eine höhere Auflösung einen direkten Vorteil zu verschaffen.

Bei einem MOBA wird deine Sichtweite nicht besser oder sollte es zumindest nicht werden, nur weil du weiter raus zoomen kannst oder ein anderes Seitenverhältnis nutzt etc. pp.

Aber es war ja eh in erster Linie ein Missverständnis.
 
  • Gefällt mir
Reaktionen: Kommando und Pisaro
FTPFreezer schrieb:
Bei der Logik komme ich nicht mit. Nur weil neue Spiele neue Technologien unterstützen, die wiederum nur von neuen GPUs unterstützt werden, habe ich doch keinen "relativen" Leistungsverlust.
Was ich beschreibe nennt man auch technische Obsoleszenz. Siehe Wikipedia.

Durch die fortschreitende technische Obsoleszenz existiert keine absolute Leistungssteigerung bei Gaming. Bei Computern Workloads hingegen schon.

Gemäß deiner Denke und dem Marketing von nVidia müsste sich die absolute Leistung (Frameraten) mit der jeder Generation um die Leistung der neuen Generation erhöhen. Das ist aber nicht so.

->>>> Trotz der diversen Innovationen im bereich der Computergrafik spielen wir immer noch mit 60 bis 144fps. Das war bereits vor 10 Jahren so und vor 15-20 Jahren auch.

Nach deinem Verständnis müssten wir in jeder Generation 50 Prozent höhere Frameraten erhalten weil jede Generation 50 Prozent mehr Rechenleistung bringt. Das ist aber nicht so. Wir spielen immer noch mit 60 bis 144fps. Das ist so weil neue Games die zusätzliche Leistung nicht in FPS sondern in schickere Effekte umsetzen.

Das es seit den 2000ern einen gewissen Leistungssprung gegeben hat der die mittleren FPS erhöht hat, mag sein. Das ist aber nicht einer Effizienzsteigerung geschuldet, sondern ist das Resultat einer Technologie die mittlerweile good enough ist.

Bei Compute Workloads hat man tatsächlich den Effekt das die Mehrleistung quasi gestapelt wird. Vgl Encoding von Videos oder was früher mal ewig gedauert hat und heute mit vielen hundert FPS erledigt wird.

Gaming läuft weiterhin nur mit den üblichen 60fps+ obwohl die *Effizienz * angeblich mit jeder Generation gesteigert wird...
 
@pacifico
Ziemlich wirr was du da erzählst. Du hast dich selbst in eine Ecke argumentiert.
Vergleichst Äpfel mit Birnen.

Wenn du neue und alte Generation vergleichen willst, solltest du idealerweise beim gleichen Spiel bleiben.
Und dann kommt sowas wie
Spiel A läuft mit alter Gen. 80 FPS bei 300 Watt Verbrauch
Spiel A läuft mit neuer Gen. mit 90 FPS bei 250 Watt

Framerate ist gestiegen, Verbrauch gesunken, neue Gen. ist effizienter.

Was du machst ist Spiel A läuft mit alter Gen. mit 80 FPS bei 300 Watt und vergleichst es mit Spiel B mit aufwändigerer Grafik was auch 80 FPS bei 300 Watt hat.

Absolut gesehen verbrauchen wir mehr als früher, bekommen dafür aber auch deutlich mehr.
Mal ganz simpel gesagt, doppelter Verbrauch bei 5 mal so geiler Grafik.

pacifico schrieb:
Das es seit den 2000ern einen gewissen Leistungssprung gegeben hat der die mittleren FPS erhöht hat, mag sein. Das ist aber nicht einer Effizienzsteigerung geschuldet, sondern ist das Resultat einer Technologie die mittlerweile good enough ist.
Natürlich ist es effizienter geworden.
Nur braucht niemand CS 1.6 mit 3000 FPS zocken. Also nimmt man das Plus an Leistung und steckt es in hübscher, statt sinnlos die Framerate zu steigern.

Was du früher mit einem PC der 300 Watt für Spiel X brauchte, schaffst du heute mit 100 Watt, weil die Grafikkarten heute sowas viel schneller bei weniger Energie berechnen kann.
 
  • Gefällt mir
Reaktionen: Cohen, Spawn182 und Oudenstekelig
pacifico schrieb:
Mit einer neuen GPU kann man alte Spiele mit höheren FPS spielen und aktuelle Games laufen mit spielbaren Frameraten

pacifico schrieb:
Gaming läuft weiterhin nur mit den üblichen 60fps+ obwohl die *Effizienz * angeblich mit jeder Generation gesteigert wird...

Du wirfst da ziemlich viel in einen Topf, rührst kräftig um und kommst zu einem Ergebnis, dem ich nicht folgen kann.

Technik, die neuer ist, bessere Prozesse nutzt etc. pp kann also nicht effizienter sein, weil das nur der neuen Technik geschuldet ist? Dann ist also mein LED-Leuchtmittel bei gleicher Leuchtleistung nicht effizienter als eine Lichtbogenlampe von 1870? Steile These.

Das wir bei 60FPS/144FPS festhängen ist zum großen Teil der Displaytechnik geschuldet (intern rendern die Games schon schneller, sonst gäbe es ja keine schönen Benchmark Balken). <- bei vielen sind die 60FPS+- auch der Vernunft geschuldet.

Ferner wird, wie du korrekt feststellst, die Darstellung eben immer komplexer. Hatte z.B. Battelzone 1980 noch so 20 (das war viel) Tris (Polygone mit 3 Punkten) für komplexe Objekte, so sind wir heute bei 20.000 und mehr voll texturiert, beleuchtet und verspiegelt. <- bei höherer Auflösung und mehr FPS.

Filme in 4K haben nicht den Zweck oben die Leuchten, unten die Dolly-Schienen, links die Maske und rechts den Kabelträger im Bild zu zeigen, sondern den gleichen Film in besser Qualität zu liefern.

Du kannst alte Spiele bei gleicher Framerate mit weniger Verbrauch spielen, dass nenne ich Effizienz. Insbesondere, wenn die von dir zitierten 60FPS oder 144FPS als Limit gesetzt werden.

Nimmt man einen Titel, der fast nur die „Rasteretation“ Leistung nutzt, dann wären wir auch bei einer ziemlich linieren Leistungssteigerung der Gaming Performance. Schau die z.B. mal Benchmarks von CS:GO bei FullHD an. Bei gleicher FPS sinkt entsprechend der Verbrauch. (Aber das ist nur der neuen Technik geschuldet.)

Um noch auf die GPGPU Leistung einzugehen, hier mal als Beispiel die Renderleistung von VrayNext. Ich habe nur die TDP genommen, der tatsächliche Verbrauch ist durchaus niedriger.

KarteMpathsTDP (Watt)Mpaths/Watt
980 Ti1852500,74
1080 Ti2352500,94
2080 Ti3372501,35
3090 Ti8154501,81
409016554503,68
 
Zuletzt bearbeitet:
@pacifico

Das ist doch eine völlig absurde Betrachtungsweise. Natürlich spielen wir heute auch "nur" mit 60fps oder etwas mehr, erhalten dafür aber eine deutlich bessere grafische Darstellung.

Unsere Autos fahren heute auch nur so schnell, wie vor 30 Jahren (von Sportwagen vielleicht abgesehen), dafür haben wir deutlich mehr Komfort und Sicherheit.

Solche Vergleiche sind doch abstrus.
 
  • Gefällt mir
Reaktionen: Cohen und Spawn182
D3xo schrieb:
Eine Möglichkeit wäre die 5090 im Sommer auf 200 Watt zu begrenzen, aber wer macht das schon.
Die meisten werden wohl nicht nur Spiele auf ihrer "To-Do-Liste" haben, die ihre Grafikkarte komplett auslasten.

Ich zocke zwar sehr gerne Spiele mit Raytracng und Pathtracing, aber auch sehr gerne äußerst genügsame Point&Click-Adventures und Indie-Spiele. Im Hochsommer werden dann eben letztere gezockt.

Derzeit z. B. "Sam & Max: The Devils Playhouse Remastered" in nativem UHD und Maximal-Einstellungen mit unter 100 Watt oder das frisch erschienene 2D-Adventure "3 Minutes to Midnight" in nativem UHD und Maximal-Einstellungen mit unter 50 Watt.
 
Sas87 schrieb:
Stell der aktuellen Entwicklung mal z.B. den Fortschritt von einer GTX 980 zu einer GTX 1080 gegenüber. 40% Mehrleistung bei 9% mehr TDP und beim Strom quasi ohne realen Mehrverbrauch.
Ermöglicht durch einen Sprung von 28 nm auf 16 nm.

Wenn TSMC und Samsung einen solchen Sprung nicht mehr schaffen, können die GPU-Hersteller da auch nicht viel machen.
Ergänzung ()

SSD960 schrieb:
Für den der, warum auch immer, keine Solarzellen aufstellen kann sinken dies Energiekosten nicht!
Je mehr Solarstrom ins Netz eingespeist wird, um so mehr wird sich das auch auf die dynamischen Stromtarife auswirken. Wer keine Solarzellen aufstellen kann, kann also trotzdem etwas davon profitieren.
 
Zuletzt bearbeitet:
Zurück
Oben