News GeForce-RTX-4000 („Ada“): Return of the Titan mit 48 GB und 900 Watt?

900 watt für eine Grafikkarte?

Kauft die Karte und verspielt Eure Zukunft!
 
Kann mir beim besten Willen nicht vorstellen dass sowas als Desktop-GPU auf den Markt kommen könnte.
Wie zur Hölle soll man sowas denn kühlen?

Aber sollte sowas rauskommen gibt's dann bestimmt wieder irgendwelche Vögel die das in ein ITX Gehäuse packen werden:freak::D
 
ich_nicht schrieb:
Damit ist bestimmt die 4080 gemeint und nicht 3080?
das bezog sich auf einen Schreibfehler im Artikel, ist mittlerweile korrigiert.
ich_nicht schrieb:
Effizienz hat ja nichts mit dem absoluten Gesamtverbrauch der Karte zu tun 😅.
Na doch, wär sie effizienter wäre sie sparsamer und das bei gleicher Leistungsaufnahme.
Denk mal an Intels P4 Prescott und den 1. Core. mehr Leistung und das bei weniger Verbrauch, sowas geht bestimmt auch bei GPUs.
 
sikarr schrieb:
Na doch, wär sie effizienter wäre sie sparsamer und das bei gleicher Leistungsaufnahme.
Denk mal an Intels P4 Prescott und den 1. Core. mehr Leistung und das bei weniger Verbrauch, sowas geht bestimmt auch bei GPUs.
Eine hypothetische Titan RTX 2.0 könnte auch mit 900W Leistungsaufnahme effizienter sein als jede ihrer Vorgängerinnen, sie müsste nur eben auch entsprechend viel schneller sein, ggf. um den Faktor 3-4 (je nach Karte, die man als Bezugspunkt wählt).

Es stimmt also schon, was @ich_nicht sagte, der Gesamtverbrauch als isolierte Größe lässt noch keine Aussage zur Effizienz zu.
 
  • Gefällt mir
Reaktionen: ThirdLife
Man sieht daran wie sehr NVidia und der gleichen Strategien folgen:
Spitzenplatz um jeden Preis!

Für den formal "schnellsten" Gaming PC Intel 12900K + RTX 4080 + 32 GB DDR usw komme ich grob auf
250 + 750 + 100 = 1100 . Dazu 400 Watt Puffer für Peaks der durstigen HW macht 1500 Wattt Netzteil.

Läuft bei Intel und Nvidia.... ...in die falsche Richtung :D
 
Endlich Anno auf maximalen Einstellungen!:freaky:
 
Entweder man kauft eine 900W Grafikkarte und überweist seine Stromkostenrechnung in Rubel oder man macht es halt nicht.

Kann jeder selber entscheiden.

BTW ist eine 3080 noch zu langsam für UWFHD aka (UW-UXGA), Eine 3090 in 4k ist imho unspielbar.
 
XPS schrieb:
Das ist Unfug, wenn es gehen würde, tut es Leider nicht mehr bzw. macht es keinen Sinn, würde ich mir 3 Way oder Quad SLI 3090 in den Rechner Hauen und an der Steckdose wäre immer noch Luft und es fliegt auch keine Sicherung! da wären wir bei ca 2,5KW System Leistung.
Brauchst halt zwei 1500W NT aber das wäre das kleinste Problem!
Das ist mein Blick auf die Generation danach - noch mehr Leistung und Benchmarksiege um jeden Preis!
 
AYAlf schrieb:
BTW ist eine 3080 noch zu langsam für UWFHD aka (UW-UXGA) ...

Also mir ist eine RTX 3080 selbst für UWQHD schnell genug - deine Ansprüche sind offenbar extrem hoch ^_^
 
Das Problem an diesen Meldungen ist ...

Sie häufen sich!

Schon 450 Watt ist viel zu viel.

Aber es gibt kaum Meldungen die diesen exorbitanten Verbrauch dementieren.

Nein, es wird immer mehr.

Also von 450 ist mal definitiv auszugehen.
Und das ist nicht krass sondern krank.
 
  • Gefällt mir
Reaktionen: danyundsahne
ThirdLife schrieb:
Jo, immer das typische "muss ja irgendwie gehen". Ist wie wenn Bekannte einem sagen sie haben 500€ Budget und wollen dafür einen "guten Gamer PC". Denn "das muss doch irgendwie möglich sein". Nein. Muss es nicht.
Ja, aber es muss doch irgendwie gehen....AMD schafft es doch auch eine so schnelle Gaming CPU zu bringen wie Intels 12900KS, und das mit weniger als die Hälfte des Verbrauchs!
Also geht es doch, offensichtlich! ;)

Das Wattwettrüsten kann nicht die Lösung sein. Und die Gerüchte sprechen bei NV aber leider eher dafür. Und die Gerüchte haben die letzten Jahre zu neuer HW jeglicher Art zu 95% gestimmt.
Ergänzung ()

LencoX2 schrieb:
Man sieht daran wie sehr NVidia und der gleichen Strategien folgen:
Spitzenplatz um jeden Preis!

Für den formal "schnellsten" Gaming PC Intel 12900K + RTX 4080 + 32 GB DDR usw komme ich grob auf
250 + 750 + 100 = 1100 . Dazu 400 Watt Puffer für Peaks der durstigen HW macht 1500 Wattt Netzteil.

Läuft bei Intel und Nvidia.... ...in die falsche Richtung :D
Formal ist doch jetzt schon der 5800X3D schneller im Gaming bei nur 60W Verbrauch ;)
Dazu wird laut Gerüchten auch die 7900XT etwas schneller bei weniger Verbrauch.

Dann wären wir bei 60W + 450W + 100W = 610W. Dann wärst bei AMD sogar mit einem 850W -1000W NT um einiges effizienter unterwegs.

Es geht also auch in die andere Richtung :D
 
Zuletzt bearbeitet:
PS828 schrieb:
Viele Gerüchte, eigentlich alle die man ernst nehmen kann, sagen das bei 600-650W Schluss sein sollte. woher sie jetzt die 900 haben?

Persönlich finde ich schon 600 bis 650 Watt grenzwertig, um nicht zu sagen inakzeptabel. Zudem darf man/n wohl aufgrund der Häufigkeit der Meldungen davon ausgehen, dass diese Angaben nicht völlig an den Haaren herbeigezogen wurden.

Scheinbar möchte die Hersteller mit aller Macht auch in Zukunft das Preisgefüge aufrechterhalten, anders ist das Ganze nicht zu erklären.

ausschließen kann man ein Halo Produkt natürlich nicht, aber erstmal abwarten, gekühlt bekommt man das jedenfalls

Irgendwie bekommt man/n das schon gekühlt, sicher, nur schrumpfen die Gehäuse zunehmend, CPU's marschieren straff auf die 90 Grad zu und GPU's dürfen sich per einzelnen Stromstecker bis zu 600 Watt genehmigen.

Bleibt die Frage, ob der Zuwachs an Bildqualität/FPS - sofern denn überhaupt wahrnehmbar - tatsächlich solche Investitionen rechtfertigt oder ob da nicht viel auf der Strecke bleibt, bzw. verschenkt wird. Oder salopp/überspitzt formuliert, für ein, zwei Grashalme mehr, die der Käufer zudem noch mit der Lupe suchen muss, wird der mit einem Aufschlag von mehreren 100% zur Kasse gebeten.

Der Käufer selbst ist natürlich der ideale Werbeträger. Zuerst wird der kräftig abgemolken und um den Kauf zu rechtfertigen, tingelt der dann durch diverse Foren und bedient sich der alten Leier von Anspruch und Sprüchen wie: "Wenn man sich einfach nur anspruchslos berieseln lassen will sicher fürs Geld ok", während sich der Hersteller/Vertrieb die Hände reibt, dass sich ein weiterer Werbeträger quasi für kostenfrei akquirieren ließ.

Und sollten dem Käufer doch mal hier und da Zweifel aufkommen, lassen die sich im Nu beseitigen, fix mal das ein oder anderer Balkendiagramm bemüht oder kurz mal ein synthetischer Benchmark eingeschoben und das Gewissen ist für die nächsten zwei, drei Wochen beruhigt.

mit frdl. Gruß
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: sikarr
User: 450W TDP is way too much
Nvidia: Ok, anyway here is our Titan with 900W
 
ThirdLife schrieb:
Die auch 600W ziehen wird, oder was denkst du was passiert wenn man 2x Chiplets draufknallt die jeweils grösser sind als die aktuelle 6900XT und womöglich noch höher getaktet werden ? Dass das bei 50W Verbrauch geht ?
Natürlich denke ich das nicht ich Tipe auf ca 450-500W.
Die Chiplet einzeln sind nicht grösser die bekommen mehr FP32 Einheiten .
Die echten Shader werden sogar weniger und es wir über FP 32 verdoppelt!
3840 Shader welche durch die FP 32 auf 7680Shader kommen das mal 2 Chiplets!
Und nicht wie NV wird man nur 256 Bit nutzen mit einem riesigen Infinety Cache .
Schau mal zum X3D wie effizient der dadurch wird!

Die hier gezeigte Navi 31-GPU-Konfiguration verfügt über zwei GCDs (Graphics Core Die) und eine einzelne MCD (Multi-Cache Die). Jede GCD hat 3 Shader Engines (6 insgesamt) und jede Shader Engine hat 2 Shader Arrays (2 pro SE / 6 pro GCD / 12 insgesamt). Jedes Shader-Array besteht aus 5 WGPs (10 pro SE / 30 pro GCD / 60 insgesamt) und jedes WGP verfügt über 8 SIMD32-Einheiten mit 32 ALUs (40 SIMD32 pro SA / 80 pro SE / 240 pro GCD / 480 insgesamt). Diese SIMD32-Einheiten ergeben zusammen 7.680 Kerne pro GCD und 15.360 Kerne insgesamt.
 
OldZocKerGuy schrieb:
Nur dürfte die nächste Gen von AMD um einiges weniger Strom fressen als die von Team Grün.

Erst mal abwarten, wie die Performance pro Watt bei vergleichbaren Grafikkarten ausfällt.

Eine RTX 3070 hat jetzt auch keine schlechtere Effizienz als eine RX 6700 XT, trotz der Fertigungsnachteile von Samsung 8 nm gegenüber TSMC 7 nm. Die RX 6800 ist zwar noch etwas effizienter (in Rasterizing-Spielen), aber die Effizienz der nächsten Generation bei gleichem Fertigungsverfahren dürfte interessant werden, besonders in der Oberklasse.
 
  • Gefällt mir
Reaktionen: GT200b
Ich weiß ja nicht ob man sich über im Vergleich so geringe Verbräuche wirklich aufregen sollte.
1. Muss es keiner Kaufen
2. Glaube ich nicht an 900W
3. Sind im Gegensatz Backofen, E-Herd, Föhn, Geschirrspüler und Waschmaschine viel schlimmer
und die laufen vermutlich deutlich häufiger

Wenn ich unser E-Auto anstecke werden da mal eben Fröhlich 11000W pro Stunde für 5 Stunden genuckelt für ein Mal vollmachen, trotzdem spar ich p.a. ~3000€ für Benzin. Für die gleiche Strecke sind es nur ~800€ Stromkosten p.a.
 
  • Gefällt mir
Reaktionen: GT200b, ThirdLife und calippo
Cohen schrieb:
Erst mal abwarten, wie die Performance pro Watt bei vergleichbaren Grafikkarten ausfällt.

Eine RTX 3070 hat jetzt auch keine schlechtere Effizienz als eine RX 6700 XT, trotz der Fertigungsnachteile von Samsung 8 nm gegenüber TSMC 7 nm. Die RX 6800 ist zwar noch etwas effizienter (in Rasterizing-Spielen), aber die Effizienz der nächsten Generation bei gleichem Fertigungsverfahren dürfte interessant werden, besonders in der Oberklasse.
Der Design Ansatz mit 386 Bit ist schon veraltet .
AMD hat es doch super gezeigt mit dem Infinety Cache und 256BIT.
Die neue Soll 512 Mb Cacheim Chipletdesign bekommen!
Die Navi 31 (RDNA 3) MCD wird über eine Infinity Fabric-Verbindung der nächsten Generation mit den dualen GCDs verbunden und verfügt über 256–512 MB Infinity Cache. Jede GPU sollte außerdem über 4 Speicherverbindungslinks (32-Bit) verfügen. Das sind insgesamt 8 32-Bit-Speichercontroller für eine 256-Bit-Busschnittstelle.
 
Zurück
Oben