News Nvidia GeForce RTX 4090: 3 GHz und sehr hohe Power Limits von 600 Watt und mehr

T800Unit schrieb:
Wie gesagt, ziemlich Sinnlose Diskussion. Und warum wird VRAM allokiert? Richtig. Auch diesen Benefit möchte Ich mitnehmen.
Wie kann man nur so stur sein.
Massive VRAM Allokation bringt rein gar nichts.
Die Frames sind komplett identisch, ob du nun eine 10GB oder 24GB GPU besitzt, wenn 9GB tatsächliche 'usage' anliegen.
Da gibt es auch nichts zu 'bedenken' und es gibt auch keinen 'Benefit'...:rolleyes:
In dem Fall hat der GPU-Händler den Benefit.
 
Zum Thema Herstellungskosten... ich glaube kaum, dass das den Hauptteil ausmacht.
und mal ehrlich? Wenn es so weitergeht, braucht es bald ganze Serverschränke für 1 GPU mit entsprechender Kühlung.
Ziel wäre es doch zukünftig eher, mal wieder kompaktere und sparsamere Chips mit gleicher oder leicht höherer Leistung zu fertigen, die vielleicht in der Größe wieder kompakter ausfallen und bald nicht Dimensionen wie die Klimaanlagen-Lüftung bei meiner Firma erreichen :freak: :evillol:
 
  • Gefällt mir
Reaktionen: sTyLzYo
Sly123 schrieb:
Wie kann man nur so stur sein.
Massive VRAM Allokation bringt rein gar nichts.
Die Frames sind komplett identisch, ob du nun eine 10GB oder 24GB GPU besitzt, wenn 9GB tatsächliche 'usage' anliegen.
Da gibt es auch nichts zu 'bedenken' und es gibt auch keinen 'Benefit'...:rolleyes:
In dem Fall hat der GPU-Händler den Benefit.
falsch. einfach falsch. lies den artikel einfach nochmal zur allokation. bis dahin darfst du gerne der sture bock bleiben :)
 
T800Unit schrieb:
falsch. einfach falsch. lies den artikel einfach nochmal zur allokation. bis dahin darfst du gerne der sture bock bleiben :)
Antwortest zu mir?
'Einen' Beitrag von mir als stur zu bezeichnen macht keinen Sinn.
Ich beziehe mich auf die sture Diskussion deinerseits mit @Laphonso.
Außerdem weiß ich nicht welchen Artikel du meinst. Kannst du gerne verlinken oder die Quelle nennen.

Du kommst rüber, als wenn du deine 'preisigen' Anschaffungen um jeden Preis rechtfertigen willst und nur auf Krawall aus bist. Besser wäre die Fakten neutral zu betrachten.
Im CB-Forum wird respektvoll diskutiert anstatt dem anderen mit 'bist selber doof'(sturer bock) zu kommen.
Ab jetzt können wir bitte sachlich diskutieren.
 
Kloin schrieb:
Ich glaube das viele Leute hier wissen, das die Performance/Watt gestiegen ist -wie bei jeder Generation üblich- aber das ändert nichts daran, dass die gesamte Performancesteigerung zu einem wesentlich größeren Teil durch einen erhöhten Stromverbrauch erzielt wird. Da ja scheinbar jeder 8K @240FPS zocken "MUSS" kommt halt sowas in der Entwicklung raus und zusätzlich sind die klassichen Fertigungsverfahren und Silizium bald am Ende.
Willst du dich nochmal dazu Außern? Ich denke das nächstemal einfach bis zu den Tests abwarten und dann reden. Ich hoffe du schämst dich wenigstens ein bisschen.

https://www.computerbase.de/forum/attachments/unbenannt22-jpg.1269252/
 
  • Gefällt mir
Reaktionen: PHuV
Galarius schrieb:
Willst du dich nochmal dazu Außern? Ich denke das nächstemal einfach bis zu den Tests abwarten und dann reden. Ich hoffe du schämst dich wenigstens ein bisschen.

https://www.computerbase.de/forum/attachments/unbenannt22-jpg.1269252/
Ich habe kein Problem damit, zuzugeben dass ich hier falsch lag ;-) Das ist ein geile Karte gerade was die Effizienz angeht. Grundsätzlich....

Einziges Manko für mich als jemand der keine "Titan" Karte für so einen Preis benötigt in 3440x1440 ist, das mal wieder unnötig obenrum aufgedreht wurde und das ohne Gegenspieler (vielleicht weiss NV ja was AMD produziert). Die wenigsten Spieler kaufen sich die 4090 aber wieviele mit 4080 und darunter werden das Power Target senken auch wenn der FPS Verlust noch so gering sein sollte. Da sehe ich beide Hersteller schon irgendwie in der Verantwortung. Oh und DP 1.4a bei ner Karte die in 4K so ne Leistung bringt insbesondere mit DLSS 3
 
Kloin schrieb:
Ich habe kein Problem damit, zuzugeben dass ich hier falsch lag ;-) Das ist ein geile Karte gerade was die Effizienz angeht. Grundsätzlich....
Top, das kann nicht jeder! :)

Jup DP 1.4 ist schon wirklich lächerlich denke da wird AMD einen großen Vorteil bieten. Bin jetzt noch mehr auf den 3. November gespannt wie davor.
 
Zurück
Oben