News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch

Fighter1993 schrieb:
Mal angenommen AMD wäre vor Nvidia und der 4090 (Ti) , würdest du die dann auch kaufen?
Inkl Raytracing Performance und FSR auf DLSS Niveau? Na logo, ohne eine Sekunde zu zögern.
 
XPS schrieb:
Wenn man sich das Leisten kann und will ist doch Super, alle anderen Kaufen eben in Ihrem Anwendungs und Preisbereich wo es am Besten passt, aber dieses immer gerede von Falscher Richtung und Klima bla bla...einfach Quatsch.
Nach mir die Sinnflut. Dank der Gnade der frühen Geburt könnte es mir auch völlig egal sein was mit dem Planeten passiert. Ist es aber nicht... wobei ich mich frage warum eigentlich? Bei solchen Aussagen seh ich ehrlich gesagt eh keine Zukunft für die aktuelle und zukünftige Generation. Geht dann wohl eher in Richtung Mad Max Szenario. Oder wenn Putin hohl dreht Richtung Fallout.
 
  • Gefällt mir
Reaktionen: Wan900, Tapion3388 und cbtestarossa
Laphonso schrieb:
Inkl Raytracing Performance und FSR auf DLSS Niveau? Na logo, ohne eine Sekunde zu zögern.
Wenn FSR 2.0 nicht ganz auf dem Niveau von DLSS performt, dann nimmst du halt XeSS. :D
 
  • Gefällt mir
Reaktionen: Fighter1993 und Laphonso
Ist bekannt, ob SLI noch mit der 4090 funktionieren wird?
Dann gönn ich mir direkt zwei von den Biestern.
 
owned139 schrieb:
Ist bekannt, ob SLI noch mit der 4090 funktionieren wird?
Dann gönn ich mir direkt zwei von den Biestern.
Würde darauf gerne mit einem Meme reagieren, aber das wird hier bei CB immer ins Aquarium verschoben, die Mods haben eine Meme-Allergie. :D

Zum Thema, selbst wenn RDNA 3 mit deutlich weniger Leistungsaufnahme sogar stärker ist und bei der Raytracing Performance überpropotional zulegt, muss ich überlegen, ob ich zu AMD greife.

Elden Ring Frametimes Analysen haben mir dir die Lust auf Grafikkarten von AMD ein wenig genommen. Gibt auch noch ein paar andere Beispiele. Klar, das sind nur Einzelfälle, aber ich merke, wie dann wieder Zweifel aufkommen.
 
  • Gefällt mir
Reaktionen: owned139
@Zer0Strat wenn AMD bei RT gleichzieht und FSR2 sich auf dem Niveau von DLSS2 bewegt, dann würde ich sogar wechseln, aber wenn das nicht der Fall sein wird, dann muss ich entscheiden, ob mir Rasterperformance oder DLSS+RT wichtig ist. :/

Schick mir das Meme halt privat ;)
 
Ob man sich in der nächsten Gen AMD oder Nvidia holt wird doch eh erstmal von Preisen und Verfügbarkeit abhängen.
Da ich aus privaten Gründen den Formfaktor Laptop bevorzuge wirds daher wohl auf Nvidia rauslaufen, da es dort zur Zeit viel bessere Auswahl an Modellen mit meist besserem Preis/Leistungsverhältnis gibt.
 
Schade, aber es wird immer uninteressanter. Ich habe einfach kein Interesse an so hohen Verbrauch und den daraus resultierenden Problemen.

Auch den extrem hohen Verbrauch bei leichten Tätigkeiten wie Videos (z.t. bei 40W+.....) oder Multimonitoring bin ich nicht mehr bereit zu akzeptieren.

Bei Nvidia/AMD tut sich da seit Jahren nichts, während andere bei wenigen Watt sind.
 
Kann man die Karte als Wärmepumpe anmelden und somit den Strom zu günstigen Wärmepumpentarifen bekommen? Wäre doch echt toll, jetzt wo wir ja alle aus Solidarität frieren wollen/sollen.

/S
 
nutzername schrieb:
Ja, gute Idee: für 100%(+) kaufen und dann 90% der Performance abrufen um die Leistungsaufnahme zu reduzieren. Deshalb fahre ich auch immer mit meinem Ferrari zum Einkaufen.
Weil Nvidia die Karte natürlich billiger angeboten hätte, wenn sie die niedriger getaktet auf den Markt geworfen hätten...
 
nutzername schrieb:
Daher in Zukunft gern derartige Aussagen mit Quellen belegen.
Gerne:
https://www.computerbase.de/2021-11...schnitt_leistungsaufnahme_temperaturen_und_oc

Alder Lake ist insgesamt genügsamer als die Vorgängergeneration und teilweise als der Vorvorgänger, bei deutlich gesteigerter Leistung. Es ging mir nur um die CPUs. Von 10 auf 11 war der Trend da noch andersherum. Der hybride Ansatz bei der 12er Generation unterstreicht diese Tatsache noch einmal zusätzlich. Ich ging davon aus, dass diese Tatsache aus reichlich Tests allgemein deutlich wurde, auch wenn es sich freilich nicht um den erwarteten Quantensprung in Sachen Effizienz handelt. Offenbar mein Fehler. Natürlich sieht Intel gegen AMD trotzdem kein Land, das ist absolut wahr.

Bei dir wären dann noch folgende Aussagen mit Quellen zu belegen:
nutzername schrieb:
Ich bin mir nicht sicher worauf du dich da bei Intel beziehst, deren GPUs sind im Moment schwächer als die neuen China clone GPUs inkl. CUDA support.
Wie gesagt, von Intel GPUs war eh nicht die Rede, aber wenn du schon Quellen einforderst, dann sei hier bitte auch selber vollständig.
nutzername schrieb:
Der "Trend" geht eher in die Richtung "As A Service" anzubieten. Wirklich effizient lässt sich Hardware zukünftig nur bei entsprechender Skalierung nutzen, also bspw. im Rechenzentrum und dann entsprechende Service-Layer auflegen die freie Ressourcen.
Oder ist das eine Vermutung von dir? Du formulierst es hier jedenfalls als Aussage.
 
Zuletzt bearbeitet:
Für AD102 rechnet Igor's Lab mit 450 Watt Leistungsaufnahme allein für die GPU. Das wäre knapp doppelt so viel wie für GA102 auf der GeForce RTX 3090, obwohl die TGP „nur“ um 71 Prozent steigt.

Einfach nur krank... Energie wird immer teurer, die Klimakrise erfordert einen cleveren und intelligenten Einsatz von Ressourcen aller Art und dann kommen die Chiphersteller und -designer mit der TDP Brechstange um die Ecke und schei*** auf alles. Unfassbar!
 
  • Gefällt mir
Reaktionen: prev
aid0nex schrieb:
Einfach nur krank... Energie wird immer teurer, die Klimakrise erfordert einen cleveren und intelligenten Einsatz von Ressourcen aller Art und dann kommen die Chiphersteller und -designer mit der TDP Brechstange um die Ecke und schei*** auf alles. Unfassbar!
Und wenn sich die Karten dann wie geschnitten Brot verkaufen (und das werden Sie, selbst bei 600W) scheint es ja nicht nur dem Chipdesigner Egal zu sein sondern auch inkl. mir sehr vielen anderen Kunden!

Würde jede andere Firma genau so machen wenn der Markt dafür vorhanden ist, wäre er es nicht gäbe es solche Karten und Preise erst gar nicht, also muss ja immer noch genug davon abgesetzt werden das es sich am Ende lohnt.
 
  • Gefällt mir
Reaktionen: aid0nex
XPS schrieb:
Und wenn sich die Karten dann wie geschnitten Brot verkaufen (und das werden Sie, selbst bei 600W) scheint es ja nicht nur dem Chipdesigner Egal zu sein sondern auch inkl. mir sehr vielen anderen Kunden!

Das stimmt - sehr schade. Ich bin sicherlich kein Grüner und kein Öko-Typ, aber ich habe einen gesunden Menschenverstand und achte darauf nicht unnötig Ressourcen zu verschwenden. Ich achte beim Kauf von Elektrogeräten auf den typischen Verbrauch, ich schaue auch wie viele L bzw. kWh ein Auto auf 100km braucht - nicht nur dem Geldbeutel zur Liebe. Es schockiert mich dass dies so vielen Menschen scheinbar komplett egal ist.
 
  • Gefällt mir
Reaktionen: Tornavida und Känguru
aid0nex schrieb:
Das stimmt - sehr schade. Ich bin sicherlich kein Grüner und kein Öko-Typ, aber ich habe einen gesunden Menschenverstand und achte darauf nicht unnötig Ressourcen zu verschwenden. Ich achte beim Kauf von Elektrogeräten auf den typischen Verbrauch, ich schaue auch wie viele L bzw. kWh ein Auto auf 100km braucht - nicht nur dem Geldbeutel zur Liebe. Es schockiert mich dass dies so vielen Menschen scheinbar komplett egal ist.
Es ist ein wenig "Zweischneidig" es geht nicht mal darum das es mir egal ist, sondern das es Leider nichts anderes gibt in dem Leistungsbereich.
Meine 3090 ist "MIR" jetzt schon zu langsam und die 4090 wird eventuell auch noch nicht Overall 4K / 165Hz Schaffen aber darum geht es auch nicht.

Dir bleibt als Endkunde wenn du in den Settings Spielen willst keine Andere Option, das man sowas nicht Braucht steht auf einem anderen Blatt, Zocken Brauchen wir Generell nicht und überhaupt ist vieles in Unserem Leben nur Luxus und Unterhaltungs Elektronik, jedoch liegt es am Ende am Entwickler / Forschern usw. am Verbrauch zu Arbeiten.

Sicher hätte ich nichts gegen eine 4090 die 4K und 165 Cap macht bei 200W, aber das ist nicht meine Aufgabe!
Ich schaue nur das ich in dem Bereich wo es meistens eh nur zwei bis drei Karten gibt, das schnellste Kaufe um o.g Scenario zu erreichen.

Vielleicht brauchen wir jetzt auch einfach mal ein bis zwei Generationen mit 600 - 800W das sich dann bei der 6000er oder 7000er Serie wieder um den Verbrauch gekümmert werden kann.

Früher gab es auch mal so ne Zeit da sind die Wattzahlen nach oben geschossen und ein paar Jahre später hat es sich wieder "Normalisiert" zwischen Leistungssteigerung und Watt Pro Neuer Generation.
 
@aid0nex
aid0nex schrieb:
Genießt du die Games auf der 3090 mehr? Sind sie deshalb besser? Machen sie mehr Spaß?

Garantiert sogar, wenn ich mit einer RTX 3090 speziell in 4K konstant zumindest 60-70 FPS bekomme statt nicht mal 25-30 mit einer GTX 1080 oder vergleichbarer aktueller GPU.
 
  • Gefällt mir
Reaktionen: XPS
PR3D4TOR schrieb:
Garantiert sogar, wenn ich mit einer RTX 3090 speziell in 4K konstant zumindest 60-70 FPS bekomme statt nicht mal 25-30 mit einer GTX 1080 oder vergleichbarer aktueller GPU.

Ach und du musst in 4K spielen? Ein Spiel lässt sich nicht in FHD genießen?
Mensch, wie konnte ich damals nur auf einem Gameboy mit 1,7 Zoll Display in einer Auflösung von 160x144 Pixeln stundenlang über Jahre hinweg Spaß haben??
 
aid0nex schrieb:
Ach und du musst in 4K spielen? Ein Spiel lässt sich nicht in FHD genießen?
Mensch, wie konnte ich damals nur auf einem Gameboy mit 1,7 Zoll Display in einer Auflösung von 160x144 Pixeln stundenlang über Jahre hinweg Spaß haben??
Hatte ich auch aber da kannten wir es noch nicht anders :D
Vergleiche das immer gerne mit OLED's, als ich noch keinen hatte und nur nen ollen LCD TV denkste dir jo passt, heute würde ich nie mehr was anderes als OLED nehmen und wenn das nicht geht dann lieber garnicht!

Der Mensch ist ein Gewohnheitstier, wenn du was kennst was "Besser, Schneller, Schöner" ist will man da ungern wieder zurück ^^
 
In Zeiten von Klimakrise, Kriegen und fehlenden/teuren Ressourcen muss man halt mal die Luxusprobleme wie "mein neuestes AAA Spiel läuft in 4K Ultra nur in 59FPS!!" halt mal hinten an stellen....
 
  • Gefällt mir
Reaktionen: Wan900 und ArrakisSand
Hm bei Ankündigungen von Preissteigerungen von 35% für Strom hat das ganze noch einen ganz anderen Beigeschmack.
 
Zurück
Oben