Inkl Raytracing Performance und FSR auf DLSS Niveau? Na logo, ohne eine Sekunde zu zögern.Fighter1993 schrieb:Mal angenommen AMD wäre vor Nvidia und der 4090 (Ti) , würdest du die dann auch kaufen?
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch
- Ersteller Jan
- Erstellt am
- Zur News: GeForce RTX 4090: 450 Watt allein für Nvidias AD102-GPU sind realistisch
ZeT
Vice Admiral
- Registriert
- März 2008
- Beiträge
- 7.060
Nach mir die Sinnflut. Dank der Gnade der frühen Geburt könnte es mir auch völlig egal sein was mit dem Planeten passiert. Ist es aber nicht... wobei ich mich frage warum eigentlich? Bei solchen Aussagen seh ich ehrlich gesagt eh keine Zukunft für die aktuelle und zukünftige Generation. Geht dann wohl eher in Richtung Mad Max Szenario. Oder wenn Putin hohl dreht Richtung Fallout.XPS schrieb:Wenn man sich das Leisten kann und will ist doch Super, alle anderen Kaufen eben in Ihrem Anwendungs und Preisbereich wo es am Besten passt, aber dieses immer gerede von Falscher Richtung und Klima bla bla...einfach Quatsch.
Z
Zer0Strat
Gast
Wenn FSR 2.0 nicht ganz auf dem Niveau von DLSS performt, dann nimmst du halt XeSS.Laphonso schrieb:Inkl Raytracing Performance und FSR auf DLSS Niveau? Na logo, ohne eine Sekunde zu zögern.
O
owned139
Gast
Ist bekannt, ob SLI noch mit der 4090 funktionieren wird?
Dann gönn ich mir direkt zwei von den Biestern.
Dann gönn ich mir direkt zwei von den Biestern.
Z
Zer0Strat
Gast
Würde darauf gerne mit einem Meme reagieren, aber das wird hier bei CB immer ins Aquarium verschoben, die Mods haben eine Meme-Allergie.owned139 schrieb:Ist bekannt, ob SLI noch mit der 4090 funktionieren wird?
Dann gönn ich mir direkt zwei von den Biestern.
Zum Thema, selbst wenn RDNA 3 mit deutlich weniger Leistungsaufnahme sogar stärker ist und bei der Raytracing Performance überpropotional zulegt, muss ich überlegen, ob ich zu AMD greife.
Elden Ring Frametimes Analysen haben mir dir die Lust auf Grafikkarten von AMD ein wenig genommen. Gibt auch noch ein paar andere Beispiele. Klar, das sind nur Einzelfälle, aber ich merke, wie dann wieder Zweifel aufkommen.
O
owned139
Gast
@Zer0Strat wenn AMD bei RT gleichzieht und FSR2 sich auf dem Niveau von DLSS2 bewegt, dann würde ich sogar wechseln, aber wenn das nicht der Fall sein wird, dann muss ich entscheiden, ob mir Rasterperformance oder DLSS+RT wichtig ist. :/
Schick mir das Meme halt privat
Schick mir das Meme halt privat
Humbertus
Lieutenant
- Registriert
- Okt. 2011
- Beiträge
- 585
Ob man sich in der nächsten Gen AMD oder Nvidia holt wird doch eh erstmal von Preisen und Verfügbarkeit abhängen.
Da ich aus privaten Gründen den Formfaktor Laptop bevorzuge wirds daher wohl auf Nvidia rauslaufen, da es dort zur Zeit viel bessere Auswahl an Modellen mit meist besserem Preis/Leistungsverhältnis gibt.
Da ich aus privaten Gründen den Formfaktor Laptop bevorzuge wirds daher wohl auf Nvidia rauslaufen, da es dort zur Zeit viel bessere Auswahl an Modellen mit meist besserem Preis/Leistungsverhältnis gibt.
Schade, aber es wird immer uninteressanter. Ich habe einfach kein Interesse an so hohen Verbrauch und den daraus resultierenden Problemen.
Auch den extrem hohen Verbrauch bei leichten Tätigkeiten wie Videos (z.t. bei 40W+.....) oder Multimonitoring bin ich nicht mehr bereit zu akzeptieren.
Bei Nvidia/AMD tut sich da seit Jahren nichts, während andere bei wenigen Watt sind.
Auch den extrem hohen Verbrauch bei leichten Tätigkeiten wie Videos (z.t. bei 40W+.....) oder Multimonitoring bin ich nicht mehr bereit zu akzeptieren.
Bei Nvidia/AMD tut sich da seit Jahren nichts, während andere bei wenigen Watt sind.
F
floh667
Gast
Kann man die Karte als Wärmepumpe anmelden und somit den Strom zu günstigen Wärmepumpentarifen bekommen? Wäre doch echt toll, jetzt wo wir ja alle aus Solidarität frieren wollen/sollen.
/S
/S
Weil Nvidia die Karte natürlich billiger angeboten hätte, wenn sie die niedriger getaktet auf den Markt geworfen hätten...nutzername schrieb:Ja, gute Idee: für 100%(+) kaufen und dann 90% der Performance abrufen um die Leistungsaufnahme zu reduzieren. Deshalb fahre ich auch immer mit meinem Ferrari zum Einkaufen.
Gerne:nutzername schrieb:Daher in Zukunft gern derartige Aussagen mit Quellen belegen.
https://www.computerbase.de/artikel...schnitt_leistungsaufnahme_temperaturen_und_oc
Alder Lake ist insgesamt genügsamer als die Vorgängergeneration und teilweise als der Vorvorgänger, bei deutlich gesteigerter Leistung. Es ging mir nur um die CPUs. Von 10 auf 11 war der Trend da noch andersherum. Der hybride Ansatz bei der 12er Generation unterstreicht diese Tatsache noch einmal zusätzlich. Ich ging davon aus, dass diese Tatsache aus reichlich Tests allgemein deutlich wurde, auch wenn es sich freilich nicht um den erwarteten Quantensprung in Sachen Effizienz handelt. Offenbar mein Fehler. Natürlich sieht Intel gegen AMD trotzdem kein Land, das ist absolut wahr.
Bei dir wären dann noch folgende Aussagen mit Quellen zu belegen:
Wie gesagt, von Intel GPUs war eh nicht die Rede, aber wenn du schon Quellen einforderst, dann sei hier bitte auch selber vollständig.nutzername schrieb:Ich bin mir nicht sicher worauf du dich da bei Intel beziehst, deren GPUs sind im Moment schwächer als die neuen China clone GPUs inkl. CUDA support.
Oder ist das eine Vermutung von dir? Du formulierst es hier jedenfalls als Aussage.nutzername schrieb:Der "Trend" geht eher in die Richtung "As A Service" anzubieten. Wirklich effizient lässt sich Hardware zukünftig nur bei entsprechender Skalierung nutzen, also bspw. im Rechenzentrum und dann entsprechende Service-Layer auflegen die freie Ressourcen.
Zuletzt bearbeitet:
Für AD102 rechnet Igor's Lab mit 450 Watt Leistungsaufnahme allein für die GPU. Das wäre knapp doppelt so viel wie für GA102 auf der GeForce RTX 3090, obwohl die TGP „nur“ um 71 Prozent steigt.
Einfach nur krank... Energie wird immer teurer, die Klimakrise erfordert einen cleveren und intelligenten Einsatz von Ressourcen aller Art und dann kommen die Chiphersteller und -designer mit der TDP Brechstange um die Ecke und schei*** auf alles. Unfassbar!
XPS
Banned
- Registriert
- Feb. 2022
- Beiträge
- 144
Und wenn sich die Karten dann wie geschnitten Brot verkaufen (und das werden Sie, selbst bei 600W) scheint es ja nicht nur dem Chipdesigner Egal zu sein sondern auch inkl. mir sehr vielen anderen Kunden!aid0nex schrieb:Einfach nur krank... Energie wird immer teurer, die Klimakrise erfordert einen cleveren und intelligenten Einsatz von Ressourcen aller Art und dann kommen die Chiphersteller und -designer mit der TDP Brechstange um die Ecke und schei*** auf alles. Unfassbar!
Würde jede andere Firma genau so machen wenn der Markt dafür vorhanden ist, wäre er es nicht gäbe es solche Karten und Preise erst gar nicht, also muss ja immer noch genug davon abgesetzt werden das es sich am Ende lohnt.
XPS schrieb:Und wenn sich die Karten dann wie geschnitten Brot verkaufen (und das werden Sie, selbst bei 600W) scheint es ja nicht nur dem Chipdesigner Egal zu sein sondern auch inkl. mir sehr vielen anderen Kunden!
Das stimmt - sehr schade. Ich bin sicherlich kein Grüner und kein Öko-Typ, aber ich habe einen gesunden Menschenverstand und achte darauf nicht unnötig Ressourcen zu verschwenden. Ich achte beim Kauf von Elektrogeräten auf den typischen Verbrauch, ich schaue auch wie viele L bzw. kWh ein Auto auf 100km braucht - nicht nur dem Geldbeutel zur Liebe. Es schockiert mich dass dies so vielen Menschen scheinbar komplett egal ist.
XPS
Banned
- Registriert
- Feb. 2022
- Beiträge
- 144
Es ist ein wenig "Zweischneidig" es geht nicht mal darum das es mir egal ist, sondern das es Leider nichts anderes gibt in dem Leistungsbereich.aid0nex schrieb:Das stimmt - sehr schade. Ich bin sicherlich kein Grüner und kein Öko-Typ, aber ich habe einen gesunden Menschenverstand und achte darauf nicht unnötig Ressourcen zu verschwenden. Ich achte beim Kauf von Elektrogeräten auf den typischen Verbrauch, ich schaue auch wie viele L bzw. kWh ein Auto auf 100km braucht - nicht nur dem Geldbeutel zur Liebe. Es schockiert mich dass dies so vielen Menschen scheinbar komplett egal ist.
Meine 3090 ist "MIR" jetzt schon zu langsam und die 4090 wird eventuell auch noch nicht Overall 4K / 165Hz Schaffen aber darum geht es auch nicht.
Dir bleibt als Endkunde wenn du in den Settings Spielen willst keine Andere Option, das man sowas nicht Braucht steht auf einem anderen Blatt, Zocken Brauchen wir Generell nicht und überhaupt ist vieles in Unserem Leben nur Luxus und Unterhaltungs Elektronik, jedoch liegt es am Ende am Entwickler / Forschern usw. am Verbrauch zu Arbeiten.
Sicher hätte ich nichts gegen eine 4090 die 4K und 165 Cap macht bei 200W, aber das ist nicht meine Aufgabe!
Ich schaue nur das ich in dem Bereich wo es meistens eh nur zwei bis drei Karten gibt, das schnellste Kaufe um o.g Scenario zu erreichen.
Vielleicht brauchen wir jetzt auch einfach mal ein bis zwei Generationen mit 600 - 800W das sich dann bei der 6000er oder 7000er Serie wieder um den Verbrauch gekümmert werden kann.
Früher gab es auch mal so ne Zeit da sind die Wattzahlen nach oben geschossen und ein paar Jahre später hat es sich wieder "Normalisiert" zwischen Leistungssteigerung und Watt Pro Neuer Generation.
PR3D4TOR
Fleet Admiral
- Registriert
- Juli 2008
- Beiträge
- 12.602
@aid0nex
Garantiert sogar, wenn ich mit einer RTX 3090 speziell in 4K konstant zumindest 60-70 FPS bekomme statt nicht mal 25-30 mit einer GTX 1080 oder vergleichbarer aktueller GPU.
aid0nex schrieb:Genießt du die Games auf der 3090 mehr? Sind sie deshalb besser? Machen sie mehr Spaß?
Garantiert sogar, wenn ich mit einer RTX 3090 speziell in 4K konstant zumindest 60-70 FPS bekomme statt nicht mal 25-30 mit einer GTX 1080 oder vergleichbarer aktueller GPU.
PR3D4TOR schrieb:Garantiert sogar, wenn ich mit einer RTX 3090 speziell in 4K konstant zumindest 60-70 FPS bekomme statt nicht mal 25-30 mit einer GTX 1080 oder vergleichbarer aktueller GPU.
Ach und du musst in 4K spielen? Ein Spiel lässt sich nicht in FHD genießen?
Mensch, wie konnte ich damals nur auf einem Gameboy mit 1,7 Zoll Display in einer Auflösung von 160x144 Pixeln stundenlang über Jahre hinweg Spaß haben??
XPS
Banned
- Registriert
- Feb. 2022
- Beiträge
- 144
Hatte ich auch aber da kannten wir es noch nicht andersaid0nex schrieb:Ach und du musst in 4K spielen? Ein Spiel lässt sich nicht in FHD genießen?
Mensch, wie konnte ich damals nur auf einem Gameboy mit 1,7 Zoll Display in einer Auflösung von 160x144 Pixeln stundenlang über Jahre hinweg Spaß haben??
Vergleiche das immer gerne mit OLED's, als ich noch keinen hatte und nur nen ollen LCD TV denkste dir jo passt, heute würde ich nie mehr was anderes als OLED nehmen und wenn das nicht geht dann lieber garnicht!
Der Mensch ist ein Gewohnheitstier, wenn du was kennst was "Besser, Schneller, Schöner" ist will man da ungern wieder zurück ^^
Blumentopf1989
Commander
- Registriert
- Okt. 2010
- Beiträge
- 2.782
Hm bei Ankündigungen von Preissteigerungen von 35% für Strom hat das ganze noch einen ganz anderen Beigeschmack.
Ähnliche Themen
- Antworten
- 49
- Aufrufe
- 7.043
- Antworten
- 58
- Aufrufe
- 6.539
- Antworten
- 107
- Aufrufe
- 15.946