News RTX 4080, 4080 Ti & 4090: Die Gerüchteküche spricht von einer TGP von bis zu 850 Watt

calippo schrieb:
So in etwa kommt es bei der 1000er vs 3000er Generation hin. 1080 vs 3060, so ungefähr die gleiche Leistungsklasse, die 3060 ist etwas schneller, die 3060 hat 170 Watt, die 1080 hat 180 Watt.
Das hängt aber mit dem RT Schwachsinn zusammen, hätte man die Chipfläche für mehr Shader benutzt wäre sehr wohl mehr FPS drin gewesen.

Ich versteh den ganzen RT Shit btw auch nicht, soweit ich das verstanden habe war die Idee mal das man damit das gesamte Bild berechnet und daher gar keine klassische Texturberechnung braucht, und dann sogar effizienter z.B. auf höhere Auflösungen darstellen kann, da es besser skalieren kann.

Stattdessen benutzt man es nur zusätzlich und erhöht den Verbrauch statt zu senken... halt wieder mal mit der Brechstange ein paar Gimmicks dazu zaubern. Gabs ja schon mal bei diesen komischen Physikberechnungen die auch weitgehend nur Spielereien waren und niemand der das nicht hatte es großartig vermisst hat.

Letztlich geht das schon in Richtung von Atomkraft, man kann es für gute Technik Strom / Medizin benutzen oder für böse Atomraketen und Nvidia hat sich dazu entschlossen es für die bösen Ziele (das Monopol erreichen mit allen mitteln) zu benutzen. Statt zum Stromsparen wird es benutzt um möglichst viel Strom zu verbrennen.
 
  • Gefällt mir
Reaktionen: sidewinderpeter, Illithide und Grübelfisch
Ich frage mich, wie das dann gekühlt werden soll. Gibts die dann nur noch mit serienmäßiger Wasserkühlung? Mehr Leistung ist zwar immer schön, aber bei den heutigen Strompreisen in DE würde ich mir keinen solchen Stromfresser anschaffen.
 
blackiwid schrieb:
Ich versteh den ganzen RT Shit btw auch nicht,
Ja, ich sehe da zur Zeit auch noch keinen Mehrwert. Bestes Beispiel ist CP2077. Die RT Effekte mögen auf den ersten Blick interessant erscheinen, aber so lange Passanten und Objekte im Nahbereich aufploppen und verschwinden und die Welt so steril und künstlich aussieht, brauche ich auch keine superrealistische Spiegelung und Licht, insbesondere, wenn sich die Spielfigur selbst nicht spiegelt.

Bei The Ascent sieht es einigermaßen stimmig aus, aber da wird man ja dennoch blind nach 2h Spielzeit vor lauter Neonlicht und Stroboeffekten.
Metro Exodus sieht gut aus mit RT in den Videos, aber das hab ich schon durch. Stalker 2 könnte das erste für mich interessante Spiel sein, dass davon profitiert.
RT muss auf jeden Fall noch den Hypecycle durchlaufen und das richtige Maß finden.
 
  • Gefällt mir
Reaktionen: sidewinderpeter und Illithide
blackiwid schrieb:

Dabei sollte man auch beachten, dass neue Fahrzeuge durch die höheren Vorschriften bei den Abgasen ein Stück mehr verbrauchen bzw. bei der Leistung nicht das volle potential ausschöpfen können. Die aktuellen Verbrenner sind ziemlich zugestopft.
 
blackiwid schrieb:
Das hängt aber mit dem RT Schwachsinn zusammen, hätte man die Chipfläche für mehr Shader benutzt wäre sehr wohl mehr FPS drin gewesen.
Der größere Flächenbedarf der Shader seit Turing kommt nicht von RT oder den Tensor-Cores, sondern davon, das seit Turing 2 ALUs in jedem Shader sitzen. Das verbraucht am meisten Platz. RT+Tensor zusammen sind nur 10% der Shaderfläche.
 
Bitte was?
... für die kommenden Nvidia GeForce RTX 4080, 4080 Ti und 4090 eine TGP von bisher ab Werk nie dagewesenen 450 bis 850 Watt...
Kalender sagt nein, heute ist nicht der 1.April!
Wenn das wirklich so kommen sollte, dann dürfen sich alle daran beteiligten NV-Ingenieure/Entwickler ein Glas kaufen und einwecken lassen! :freak:
 
Shoryuken94 schrieb:
Die Energiekrise ist durch unsere Politik ein hausgemachtes Problem. Und nicht unbedingt ein globales. Angesichts der im Verhältnis sehr geringen Energiemengen die bei ein paar Stunden Zocken in der Woche anfallen ist das tatsächlich ziemlich zu vernachlässigen, zumal jeder ja hier selbst entscheiden kann, welchen Beitrag er leisten möchte oder halt auch nicht.
Schon klar, für jemand, der im Hamsterrad hängt, erschließt sich die Logik nicht. Ich fand es jedenfalls respektabler, dass AMD es seinerzeit z.B. bei R9 280X->RX380/480->RX580 geschafft hatte, die Leistung zu steigern und gleichzeitig den Verbrauch von 250 auf 180 Watt zu senken. Wenn ich jetzt paar Jahre später bei der Oberklasse aber bei 850 Watt angelangt bin, dann weiß ich nicht, ob das noch verhältnismäßig ist.
 
Shoryuken94 schrieb:
Dabei sollte man auch beachten, dass neue Fahrzeuge durch die höheren Vorschriften bei den Abgasen ein Stück mehr verbrauchen bzw. bei der Leistung nicht das volle potential ausschöpfen können. Die aktuellen Verbrenner sind ziemlich zugestopft.
Also willst du mir hier sagen das NVidia nach staatlicher Regulierung ruft? Abstromuntersuchungen fuer Grafikkarten? :D
 
blackiwid schrieb:
Dadurch das du 100mio Sätze schreibst wird nichts besser, das du mit ner 800Watt Grafikkarte beim Gesamtsystem mit 120w Zocken kannst kannst deiner Großmutter erzählen, auch in Teillast wird das Teil extrem ineffizient, du brauchst ja bei entsprechender CPU tendenziell nen 1200 Watt Netzteil, das läuft dann auf 10% Auslastung nicht besonders effizient. Und noch schlimmer im Idle. Dein System wird doch schon im Idle Richtung 120W dann schlucken. Laut dir 9h am Tag sagen wir 100 W statt 60-70W das kommt noch auf die Gamingverbraeuche dazu.
Du kritisierst meine Mathematik und redest von 100 Mio. Sätzen ? Genau mein Humor.

Warum redest du hier vom Gesamtsystem ? Wir hatten es doch von der GPU oder nicht ? Soviel zu deinem Verschieben des Goalposts. Damit wäre das ja auch geklärt.

blackiwid schrieb:
Ich muss mich moralisch nicht rechtfertigen für Fleisch essen, da ich dich nicht moralisch angegriffen habe, ich habe keine Mainstreamansichten zum Klimawandel, es geht mir mehr um die Zimmererwärmung als die Erderwärmung und um die Kosten.
Klar, rechtfertigen müssen sich nur die Anderen und zwar vor dir. Danke für die Einsicht euer Majestät.

Zimmererwärmung ist für mich in einem 60qm Wohnzimmer mit passiver Klimatisierung über Kaltwasser in den Wänden/Böden kein Thema, auch stelle ich meinen Radi gerne auf die schattige Loggia, die Hitze geht direkt raus und ist meiner Erfahrung nach eh vernachlässigbar bzw. nicht spürbar selbst bei längeren Sessions (im Winter getestet - heizt quasi nicht leider, sonst könnte ich da womöglich Kosten an der Heizung sparen).

Und wenn das für dich so ein akutes Problem ist mit der Hitzeentwicklung und den Kosten gibts hier einen gratis Tipp: kauf dir keine 4090 oder 7900.

blackiwid schrieb:
Bei deinem Beitrag war eben die Zahlen die du präsentiert hast weitgehend falsch, die Mathematik, und ja du musst dich nicht rechtfertigen, aber du hast es getan und mit absurder Mathematik und dann greif ich die an, selbst wenn wir jetzt von Indern reden die länger kochen, die werden dann irgendwas auf kleiner Flamme kochen und nicht wie ich in dem Beispiel auf Stufe 5 sondern 1-2, da sinkt dann der Verbrauch von den vorher angeführten 21% laut dem Handbuch auf 3-5% das heißt du kannst meine 800W die ich mal für 2 Herdplatten gerechnet habe nochmal / 4-7 Teilen. oder auch die Zeit.
Aha, und ein Herd hat 100% Effizienz bei einem Leistungsabruf von 20% ? Ein Backofen auch usw. ?

blackiwid schrieb:
Der Singlehaushalt der nur 1 Pizza nur für 1 Person in Ofen packt ist auch eher der Worst case und laut Google dauert das bei nem Umluftofen 13 Minuten, und wird man auch nicht jeden Tag machen, sicher kommt noch Vorheizen dazu dann bist vielleicht bei 20-25 Minuten.

Besseres Beispiel ist btw So nen Ofenkräuterfisch der braucht immerhin 40 Minuten + 10 Vorheizen bei 200 Grad Umluft. Und ja wenn das jeden Tag machen willst oder jeden 2. solltest mal auf die Stromrechnung schauen und überlegen ob es das wert ist, aber das wäre immer noch weniger als 2h pro Tag 1000Watt Stromverbrauch beim Gamen zu haben.
Es gibt ja auch kaum Single-Haushalte in der Welt. :freak:
Das sind eine ganze Menge Worst Case Szenarien dann.

Und wie gesagt, ich habe keine 1000W Stromverbrauch beim Gaming. Mir scheint eher du gehst hier permanent vom absoluten Worst Case aus.

blackiwid schrieb:
Das du jetzt fast nur Games spielst die nicht die Grafikkarte voll auslasten halte ich aus vielerlei Hinsicht für ein Copout, erstens schiebst du das argument jetzt nach, da deine 2h Kochen nimmer greifen, das war nicht dein Anfangsargument, du verschiebst damit also im englischen "den Goal post". Zum anderen sind die 120W die du dafür angiebst absurd. Ein ofen den man nicht alle 2 Minuten auf macht, heitzt btw auch nicht mit volle Power die ganze zeit durch.
Ich sage nicht fast nur. Ich gab Beispiele. Während du von 100% Maximallast ausgehst beim durchschnittlichen Gamer tue ich das halt nicht. Ist auch nicht realistisch. Oder fährst du dein Auto immer nur Digital mit 100% oder gar nicht ?

blackiwid schrieb:
Finde grad keinen richtigen Test nach Teillast aber das sich dann die 800W Grafikkarte nur 120W oder gar das gesamtsystem bei nem 4k Titel goennt halte ich für sehr optimistisch, tippe eher auf 200-400 Watt.
Ich gehe nach den Werten die mir HWInfo liefert. Und 400W bei einem grafisch humanen Titel sind einfach Humbug. Deiner Meinung nach kann man also weder eine schnelle GPU besitzen die man nicht voll auslastet noch gelegentlich mal was anderes zocken nebst CP2077.

Der Copout liegt klar bei dir und deinen doch sehr eigenartigen Vorstellungen davon was und wie Menschen zocken. Für dich gibts nur alles oder nix. Die Welt ist eine Grauzone und nicht nur Schwarz und Weiss. Schwer zu verstehen, ich weiss.

Letztendlich ist die Debatte eh müßig, ich kaufe was ich für richtig halte, du frisst was du für richtig hältst und wir alle sind zufrieden. Ausser dir natürlich, da Toleranz für andere Leute bei dir wohl an der Nasenspitze endet während du sie für dich offenbar ständig einforderst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: VoAlgdH und Shoryuken94
Je mehr es angeblich ums Klima geht, umso mehr wird geheuchelt. Ich kann euch genau sagen, wieviele Menschen auf den "Wohlstand" eine 850 Watt Karte zu kaufen, zugunsten einer 200 Watt Karte mit der Hälfte der Leistung, verzichten werden, obwohl sie genügend Geld haben: Niemand. Nicht ein Einziger. Nada. Njente. Null.
 
  • Gefällt mir
Reaktionen: Benni1990
als würde ich für die Umwelt auf die neue 4090 verzichten xDDD selten so gelacht

ich will UWQHD in ultra mit Ultra RT spielen im 3 stelligen fps bereich also wird meine 3090 durch eine 4090 ersetzt :)
 
Mit so einer perversen Karte im Rechner würde ich mir vorkommen wie Karl Arsch.
Will ich nicht, brauch ich nicht zum zocken.
 
ThirdLife schrieb:
Letztendlich ist die Debatte eh müßig, ich kaufe was ich für richtig halte, du frisst was du für richtig hältst und wir alle sind zufrieden. Ausser dir natürlich, da Toleranz für andere Leute bei dir wohl an der Nasenspitze endet während du sie für dich offenbar ständig einforderst.
Respekt das du maximal unfreundlich warst ohne mich irgend ein Wort zu nennen und dafuer gelöscht zu werden, aber ja du scheinst nicht zu begreifen kannst das ich dich und deine Entscheidung nicht kritisiere aber wenn deine Begründung du die (von mir nicht aufgefordert) lieferst die blödsinnig ist und faktisch schlechte Mathematik enthalten, dann kann ich deine falsche Mathematik angreifen ohne dich für deine Kaufentscheidung zu kritisieren.

Auch kann ich die Firmenpolitik von Nvidia kritisieren ohne das ich auch nur irgend 1 Person hier dafür angegriffen habe das sie solch ne GPU kaufen will.

Aber ein Angriff gegen Nvidia ist auch ein Angriff gegen dich, richtig?
 
sidewinderpeter schrieb:
Ich fand es jedenfalls respektabler, dass AMD es seinerzeit z.B. bei R9 280X->RX380/480->RX580 geschafft hatte, die Leistung zu steigern und gleichzeitig den Verbrauch von 250 auf 180 Watt zu senken.

Du beschreibst den Weg von einer High end Karte, (die 280x war zuvor als HD 7970 am markt) zur Mittelklassekarte. Und ja da wurden innerhalb von 5 Jahren Strom eingespart.

Ist heute aber auch noch immer so. Schau dir eine High end Karte von vor einigen Jahren an, die werden auch von heutigen Mittelklasse Karten geschlagen.

Eine RX6600 mit 132 Watt ist auch schneller als eine 295 Watt Vega 64. Eine 170 Watt 3060 ist in etwa so schnell wie eine 250 Watt 1080Ti, eine 200 Watt 3060Ti ist ein gutes Stück schneller.


sidewinderpeter schrieb:
Wenn ich jetzt paar Jahre später bei der Oberklasse aber bei 850 Watt angelangt bin, dann weiß ich nicht, ob das noch verhältnismäßig ist.
Und wenn die Karten bei 850 wären, dann wäre eine 220 Watt Karte wahrscheinlich so schnell wie eine 3080 oder 3090 mit 320 - 350 Watt. Davon ab, dass es eher nach 450 - 550 Watt aussieht bei den nächsten Karten (was auch eine Hausnummer ist), muss man selbst wissen, ob man das braucht oder nicht. 2012 haben sich die Leute zwei bis drei HD 7970s in den Rechner gepackt mit je 250 Watt, Ende 2022 ist es dann vielleicht eine 4090 mit 550 Watt oder eine 7900XT mit 450+. Wer die Leistung nicht braucht oder die Abwärme nicht will, kauft sich entweder eine kleinere Karte. Ich bin mir ziemlich sicher, dass es auch wieder eine 4060 oder 7600Xt geben wird. Alternatib steht jedem Frei seine Karte zu undervolten (Ampere ist da ein Traum) und auf das Maß zu drosseln, was er okay findet.
Ergänzung ()

blackiwid schrieb:
Also willst du mir hier sagen das NVidia nach staatlicher Regulierung ruft? Abstromuntersuchungen fuer Grafikkarten? :D
Nein... Da ein höherer Verbrauch zu Gunsten des Schadstoffausstoßes hingenommen wurde, wird die Abstromuntersuchung wohl nicht das gewünschte Ergebnis haben.

Aber wenn unsere Regierung mal langsam aus dem knick kommt und wir nicht mehr einen großen Teil des Stroms aus Kohle und Gas produzieren, dann ist auch der verbrauch weniger kritisch. Da müsste sich aber unsere Regierung an die eigene Nase fassen und mal wirklich Taten folgen lassen und nicht nur versuchen mit Verboten Symbolpolitik zu betreiben ;)
 
  • Gefällt mir
Reaktionen: ThirdLife
modena.ch schrieb:
Die Grünen sind ja irre und gar nicht grün.

Bei Navi 31 sollen es aber auch 450W werden.
Ganz ehrlich wo sind 450 Watt und wo sind 850 Watt ???

ich hatte vor 10 jahren einen 1000 Watt 80+ Bronze Netzteil gekauft gehabt für meine damaligen 2x HD3870 da hies es schon zu heftig. Aber dies bricht alle recorde ne lass mal da verzichte ich lieber auf 10% bis 20% leistung und bleibe bei 450 watt!
 
blackiwid schrieb:
Respekt das du maximal unfreundlich warst ohne mich irgend ein Wort zu nennen und dafuer gelöscht zu werden, aber ja du scheinst nicht zu begreifen kannst das ich dich und deine Entscheidung nicht kritisiere aber wenn deine Begründung du die (von mir nicht aufgefordert) lieferst die blödsinnig ist und faktisch schlechte Mathematik enthalten, dann kann ich deine falsche Mathematik angreifen ohne dich für deine Kaufentscheidung zu kritisieren.
Du wirfst doch hier random Zahlen in den Raum. Ich kann dir die Fakten nennen was aktuell meine 450W GPU frisst. Du bist auch derjenige der allen unterstellt eine Karte samt System ausschliesslich unter Volllast zu betreiben, nicht ich.

Ich weiss nicht worüber du dich hier beklagst. Es kommen ja nur Unterstellungen und Wunschwahrheiten. Es wird ein eher ineffizienter Herd mit einem eher effizienten modernen Netzteil eines PCs verglichen, behauptet der Verbrauch sei nichtig und dann ständig noch dein Gerede von "der Mathematik".

Liefer doch mal richtige Zahlen, kauf dir ne entsprechende GPU, und monitore das Verhalten deines PCs während du (ich weiss, das macht NIEMAND) mal ein normales 0815 Game zockst wie zB eben AOE4, oder Mass Effect, oder Grim Dawn, Battletech, Stellaris usw. Alles geile Spiele die eine Menge Leute zocken, auch solche mit einer fetten GPU.

Da kommst du niemals auf Verbrauchswerte wie du sie beschreibst, ausser du gehst all-in, drehst jede Option auf, kaufst dir einen 4K Monitor mit 120Hz+ und schaltest Vsync ab. Nur warum sollte ich das tun ? Du redest hier doch permanent von Heizung und Effizienz, wäre es dann nicht effizient seine 4K Glotze auf 60Hz zu beschränken die hervorragend spielbar sind und VSync zu nutzen wenn einem das so wichtig ist ?

Hab grad extra für dich mal Stellaris gestartet, 4K alles maximiert, Gesamtsystem zieht laut Netzteil (ROG Thor 1200) am Display 180W. Das ist die GPU, die CPU, zwei EK D5 Wasserpumpen, acht SSDs, eine HDD, Chipset, RAM und sieben Lüfter.

Allein die Wasserpumpen sind sicher schon für 40-50W gut, sind wir noch bei 130-40 für ein System mit Luftkühlung, wer jetzt keine x SSDs und HDDs und Lüfter hat wie ich, ein sparsameres Chipset und CPU kommt vermutlich grad mal so an die 100W ran.

Weit weg von deinen 400W. Aber klar, "meine Mathematik" ist hier das Problem und nicht dein Wunschdenken.

Grad Outriders mit allem auf Ultra in 4K60 gestartet, Gesamtsystem-Verbrauch 360W. Ohne Wakü und anderem Chipset/CPU, wären das noch knapp unter 300. Und da hab ich schon hoch gegriffen, die meisten Leute zocken in 1080p und 1440p, da wird der Verbrauch nochmals deutlich darunter liegen.

Ich sehs einfach nicht, was willst du überhaupt beweisen ? Dass man nicht effizient zocken kann ? Dass jede GPU und CPU bei jedem Gamer nur in den Highest-End Spielen läuft und nur MaxOC ?

Wie gesagt: was spricht dagegen sich eine Highend Karte zu holen und sie zu undervolten/powerlimiten oder gleich eine weniger stramme Karte zu kaufen ? Ich versteh nicht was das Problem ist. Ist wie zu behaupten wer ein Auto kauft, der kann ja nur einen Ferrari kaufen und den ausschliesslich mit Vollgas fahren und natürlich immer nur auf Rennstrecken.

blackiwid schrieb:
Auch kann ich die Firmenpolitik von Nvidia kritisieren ohne das ich auch nur irgend 1 Person hier dafür angegriffen habe das sie solch ne GPU kaufen will.

Aber ein Angriff gegen Nvidia ist auch ein Angriff gegen dich, richtig?
Da ich keine Aktienanteile habe ist das wohl kaum ein Angriff gegen mich. Auch wird AMD hier nicht besser wegkommen mit zwei fetten Chiplets a 6900XT, wurde ja auch schon gesagt. Physik und so. Willst du Performance, kostet das eben.

Und alle die das nicht wollen müssen es sich nicht kaufen. Das ganze Gemotze ist also völlig für den Popo.
 
Lazo53 schrieb:
Ganz ehrlich wo sind 450 Watt und wo sind 850 Watt ???

Und noch mal, weder die 450 Watt bei den nächsten Radons noch die 850 Watt bei den nächsten Nvidias sind auch nur ansatzweise bestätigt. Im Umkehrschluss spricht sogar einiges Gegen 850 Watt. Es sei denn, Nvidia schafft das Kunststück ineffizientere GPUs mit einer deutlich besseren Fertigung zu bauen. Warum sehen so viele diese Gerüchte (aus Zweifelhaften Quellen) gleich als Tatsache?
 
Ist doch egal wenn die 4090 so viel zieht solage sie eine 4060 ti oda so mit 3080/3090er Leistung rausbringen mit 200watt Vebrauch bin ich zufrieden.

Die 90er modelle sind doch sowieso nur prestige.....
 
Zurück
Oben