Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce-RTX-4000 („Ada“): Return of the Titan mit 48 GB und 900 Watt?
- Ersteller SVΞN
- Erstellt am
- Zur News: GeForce-RTX-4000 („Ada“): Return of the Titan mit 48 GB und 900 Watt?
Kann mir beim besten Willen nicht vorstellen dass sowas als Desktop-GPU auf den Markt kommen könnte.
Wie zur Hölle soll man sowas denn kühlen?
Aber sollte sowas rauskommen gibt's dann bestimmt wieder irgendwelche Vögel die das in ein ITX Gehäuse packen werden
Wie zur Hölle soll man sowas denn kühlen?
Aber sollte sowas rauskommen gibt's dann bestimmt wieder irgendwelche Vögel die das in ein ITX Gehäuse packen werden
sikarr
Vice Admiral
- Registriert
- Mai 2010
- Beiträge
- 6.392
das bezog sich auf einen Schreibfehler im Artikel, ist mittlerweile korrigiert.ich_nicht schrieb:Damit ist bestimmt die 4080 gemeint und nicht 3080?
Na doch, wär sie effizienter wäre sie sparsamer und das bei gleicher Leistungsaufnahme.ich_nicht schrieb:Effizienz hat ja nichts mit dem absoluten Gesamtverbrauch der Karte zu tun 😅.
Denk mal an Intels P4 Prescott und den 1. Core. mehr Leistung und das bei weniger Verbrauch, sowas geht bestimmt auch bei GPUs.
ich_nicht
Captain
- Registriert
- Nov. 2009
- Beiträge
- 3.140
sikarr
Vice Admiral
- Registriert
- Mai 2010
- Beiträge
- 6.392
Das ist doch genau was ich damit sagen wollteich_nicht schrieb:Bei NV wird das jetzt nicht sooo krass anders sein in der Architektur. Da ist eher die Brechstange angesetzt. Mehr Cluster, mehr VRAM, mehr Watt. Aber halt kleinere Strukturbreite.
heroesgaming
Commander
- Registriert
- Feb. 2022
- Beiträge
- 2.083
Eine hypothetische Titan RTX 2.0 könnte auch mit 900W Leistungsaufnahme effizienter sein als jede ihrer Vorgängerinnen, sie müsste nur eben auch entsprechend viel schneller sein, ggf. um den Faktor 3-4 (je nach Karte, die man als Bezugspunkt wählt).sikarr schrieb:Na doch, wär sie effizienter wäre sie sparsamer und das bei gleicher Leistungsaufnahme.
Denk mal an Intels P4 Prescott und den 1. Core. mehr Leistung und das bei weniger Verbrauch, sowas geht bestimmt auch bei GPUs.
Es stimmt also schon, was @ich_nicht sagte, der Gesamtverbrauch als isolierte Größe lässt noch keine Aussage zur Effizienz zu.
LencoX2
Commander
- Registriert
- Feb. 2006
- Beiträge
- 2.103
Man sieht daran wie sehr NVidia und der gleichen Strategien folgen:
Spitzenplatz um jeden Preis!
Für den formal "schnellsten" Gaming PC Intel 12900K + RTX 4080 + 32 GB DDR usw komme ich grob auf
250 + 750 + 100 = 1100 . Dazu 400 Watt Puffer für Peaks der durstigen HW macht 1500 Wattt Netzteil.
Läuft bei Intel und Nvidia.... ...in die falsche Richtung
Spitzenplatz um jeden Preis!
Für den formal "schnellsten" Gaming PC Intel 12900K + RTX 4080 + 32 GB DDR usw komme ich grob auf
250 + 750 + 100 = 1100 . Dazu 400 Watt Puffer für Peaks der durstigen HW macht 1500 Wattt Netzteil.
Läuft bei Intel und Nvidia.... ...in die falsche Richtung
AYAlf
Commodore
- Registriert
- Apr. 2005
- Beiträge
- 4.316
Entweder man kauft eine 900W Grafikkarte und überweist seine Stromkostenrechnung in Rubel oder man macht es halt nicht.
Kann jeder selber entscheiden.
BTW ist eine 3080 noch zu langsam für UWFHD aka (UW-UXGA), Eine 3090 in 4k ist imho unspielbar.
Kann jeder selber entscheiden.
BTW ist eine 3080 noch zu langsam für UWFHD aka (UW-UXGA), Eine 3090 in 4k ist imho unspielbar.
Das ist mein Blick auf die Generation danach - noch mehr Leistung und Benchmarksiege um jeden Preis!XPS schrieb:Das ist Unfug, wenn es gehen würde, tut es Leider nicht mehr bzw. macht es keinen Sinn, würde ich mir 3 Way oder Quad SLI 3090 in den Rechner Hauen und an der Steckdose wäre immer noch Luft und es fliegt auch keine Sicherung! da wären wir bei ca 2,5KW System Leistung.
Brauchst halt zwei 1500W NT aber das wäre das kleinste Problem!
heroesgaming
Commander
- Registriert
- Feb. 2022
- Beiträge
- 2.083
AYAlf schrieb:BTW ist eine 3080 noch zu langsam für UWFHD aka (UW-UXGA) ...
Also mir ist eine RTX 3080 selbst für UWQHD schnell genug - deine Ansprüche sind offenbar extrem hoch ^_^
Inxession
Captain
- Registriert
- Sep. 2008
- Beiträge
- 3.344
Das Problem an diesen Meldungen ist ...
Sie häufen sich!
Schon 450 Watt ist viel zu viel.
Aber es gibt kaum Meldungen die diesen exorbitanten Verbrauch dementieren.
Nein, es wird immer mehr.
Also von 450 ist mal definitiv auszugehen.
Und das ist nicht krass sondern krank.
Sie häufen sich!
Schon 450 Watt ist viel zu viel.
Aber es gibt kaum Meldungen die diesen exorbitanten Verbrauch dementieren.
Nein, es wird immer mehr.
Also von 450 ist mal definitiv auszugehen.
Und das ist nicht krass sondern krank.
danyundsahne
Commodore
- Registriert
- Okt. 2007
- Beiträge
- 4.366
Ja, aber es muss doch irgendwie gehen....AMD schafft es doch auch eine so schnelle Gaming CPU zu bringen wie Intels 12900KS, und das mit weniger als die Hälfte des Verbrauchs!ThirdLife schrieb:Jo, immer das typische "muss ja irgendwie gehen". Ist wie wenn Bekannte einem sagen sie haben 500€ Budget und wollen dafür einen "guten Gamer PC". Denn "das muss doch irgendwie möglich sein". Nein. Muss es nicht.
Also geht es doch, offensichtlich!
Das Wattwettrüsten kann nicht die Lösung sein. Und die Gerüchte sprechen bei NV aber leider eher dafür. Und die Gerüchte haben die letzten Jahre zu neuer HW jeglicher Art zu 95% gestimmt.
Ergänzung ()
Formal ist doch jetzt schon der 5800X3D schneller im Gaming bei nur 60W VerbrauchLencoX2 schrieb:Man sieht daran wie sehr NVidia und der gleichen Strategien folgen:
Spitzenplatz um jeden Preis!
Für den formal "schnellsten" Gaming PC Intel 12900K + RTX 4080 + 32 GB DDR usw komme ich grob auf
250 + 750 + 100 = 1100 . Dazu 400 Watt Puffer für Peaks der durstigen HW macht 1500 Wattt Netzteil.
Läuft bei Intel und Nvidia.... ...in die falsche Richtung
Dazu wird laut Gerüchten auch die 7900XT etwas schneller bei weniger Verbrauch.
Dann wären wir bei 60W + 450W + 100W = 610W. Dann wärst bei AMD sogar mit einem 850W -1000W NT um einiges effizienter unterwegs.
Es geht also auch in die andere Richtung
Zuletzt bearbeitet:
PS828 schrieb:Viele Gerüchte, eigentlich alle die man ernst nehmen kann, sagen das bei 600-650W Schluss sein sollte. woher sie jetzt die 900 haben?
Persönlich finde ich schon 600 bis 650 Watt grenzwertig, um nicht zu sagen inakzeptabel. Zudem darf man/n wohl aufgrund der Häufigkeit der Meldungen davon ausgehen, dass diese Angaben nicht völlig an den Haaren herbeigezogen wurden.
Scheinbar möchte die Hersteller mit aller Macht auch in Zukunft das Preisgefüge aufrechterhalten, anders ist das Ganze nicht zu erklären.
ausschließen kann man ein Halo Produkt natürlich nicht, aber erstmal abwarten, gekühlt bekommt man das jedenfalls
Irgendwie bekommt man/n das schon gekühlt, sicher, nur schrumpfen die Gehäuse zunehmend, CPU's marschieren straff auf die 90 Grad zu und GPU's dürfen sich per einzelnen Stromstecker bis zu 600 Watt genehmigen.
Bleibt die Frage, ob der Zuwachs an Bildqualität/FPS - sofern denn überhaupt wahrnehmbar - tatsächlich solche Investitionen rechtfertigt oder ob da nicht viel auf der Strecke bleibt, bzw. verschenkt wird. Oder salopp/überspitzt formuliert, für ein, zwei Grashalme mehr, die der Käufer zudem noch mit der Lupe suchen muss, wird der mit einem Aufschlag von mehreren 100% zur Kasse gebeten.
Der Käufer selbst ist natürlich der ideale Werbeträger. Zuerst wird der kräftig abgemolken und um den Kauf zu rechtfertigen, tingelt der dann durch diverse Foren und bedient sich der alten Leier von Anspruch und Sprüchen wie: "Wenn man sich einfach nur anspruchslos berieseln lassen will sicher fürs Geld ok", während sich der Hersteller/Vertrieb die Hände reibt, dass sich ein weiterer Werbeträger quasi für kostenfrei akquirieren ließ.
Und sollten dem Käufer doch mal hier und da Zweifel aufkommen, lassen die sich im Nu beseitigen, fix mal das ein oder anderer Balkendiagramm bemüht oder kurz mal ein synthetischer Benchmark eingeschoben und das Gewissen ist für die nächsten zwei, drei Wochen beruhigt.
mit frdl. Gruß
Zuletzt bearbeitet:
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.734
Natürlich denke ich das nicht ich Tipe auf ca 450-500W.ThirdLife schrieb:Die auch 600W ziehen wird, oder was denkst du was passiert wenn man 2x Chiplets draufknallt die jeweils grösser sind als die aktuelle 6900XT und womöglich noch höher getaktet werden ? Dass das bei 50W Verbrauch geht ?
Die Chiplet einzeln sind nicht grösser die bekommen mehr FP32 Einheiten .
Die echten Shader werden sogar weniger und es wir über FP 32 verdoppelt!
3840 Shader welche durch die FP 32 auf 7680Shader kommen das mal 2 Chiplets!
Und nicht wie NV wird man nur 256 Bit nutzen mit einem riesigen Infinety Cache .
Schau mal zum X3D wie effizient der dadurch wird!
Die hier gezeigte Navi 31-GPU-Konfiguration verfügt über zwei GCDs (Graphics Core Die) und eine einzelne MCD (Multi-Cache Die). Jede GCD hat 3 Shader Engines (6 insgesamt) und jede Shader Engine hat 2 Shader Arrays (2 pro SE / 6 pro GCD / 12 insgesamt). Jedes Shader-Array besteht aus 5 WGPs (10 pro SE / 30 pro GCD / 60 insgesamt) und jedes WGP verfügt über 8 SIMD32-Einheiten mit 32 ALUs (40 SIMD32 pro SA / 80 pro SE / 240 pro GCD / 480 insgesamt). Diese SIMD32-Einheiten ergeben zusammen 7.680 Kerne pro GCD und 15.360 Kerne insgesamt.
Cohen
Commodore
- Registriert
- Aug. 2010
- Beiträge
- 4.536
OldZocKerGuy schrieb:Nur dürfte die nächste Gen von AMD um einiges weniger Strom fressen als die von Team Grün.
Erst mal abwarten, wie die Performance pro Watt bei vergleichbaren Grafikkarten ausfällt.
Eine RTX 3070 hat jetzt auch keine schlechtere Effizienz als eine RX 6700 XT, trotz der Fertigungsnachteile von Samsung 8 nm gegenüber TSMC 7 nm. Die RX 6800 ist zwar noch etwas effizienter (in Rasterizing-Spielen), aber die Effizienz der nächsten Generation bei gleichem Fertigungsverfahren dürfte interessant werden, besonders in der Oberklasse.
GINAC
Lt. Junior Grade
- Registriert
- Sep. 2018
- Beiträge
- 391
Ich weiß ja nicht ob man sich über im Vergleich so geringe Verbräuche wirklich aufregen sollte.
1. Muss es keiner Kaufen
2. Glaube ich nicht an 900W
3. Sind im Gegensatz Backofen, E-Herd, Föhn, Geschirrspüler und Waschmaschine viel schlimmer
und die laufen vermutlich deutlich häufiger
Wenn ich unser E-Auto anstecke werden da mal eben Fröhlich 11000W pro Stunde für 5 Stunden genuckelt für ein Mal vollmachen, trotzdem spar ich p.a. ~3000€ für Benzin. Für die gleiche Strecke sind es nur ~800€ Stromkosten p.a.
1. Muss es keiner Kaufen
2. Glaube ich nicht an 900W
3. Sind im Gegensatz Backofen, E-Herd, Föhn, Geschirrspüler und Waschmaschine viel schlimmer
und die laufen vermutlich deutlich häufiger
Wenn ich unser E-Auto anstecke werden da mal eben Fröhlich 11000W pro Stunde für 5 Stunden genuckelt für ein Mal vollmachen, trotzdem spar ich p.a. ~3000€ für Benzin. Für die gleiche Strecke sind es nur ~800€ Stromkosten p.a.
Visualist
Lt. Commander
- Registriert
- Feb. 2006
- Beiträge
- 1.734
Der Design Ansatz mit 386 Bit ist schon veraltet .Cohen schrieb:Erst mal abwarten, wie die Performance pro Watt bei vergleichbaren Grafikkarten ausfällt.
Eine RTX 3070 hat jetzt auch keine schlechtere Effizienz als eine RX 6700 XT, trotz der Fertigungsnachteile von Samsung 8 nm gegenüber TSMC 7 nm. Die RX 6800 ist zwar noch etwas effizienter (in Rasterizing-Spielen), aber die Effizienz der nächsten Generation bei gleichem Fertigungsverfahren dürfte interessant werden, besonders in der Oberklasse.
AMD hat es doch super gezeigt mit dem Infinety Cache und 256BIT.
Die neue Soll 512 Mb Cacheim Chipletdesign bekommen!
Die Navi 31 (RDNA 3) MCD wird über eine Infinity Fabric-Verbindung der nächsten Generation mit den dualen GCDs verbunden und verfügt über 256–512 MB Infinity Cache. Jede GPU sollte außerdem über 4 Speicherverbindungslinks (32-Bit) verfügen. Das sind insgesamt 8 32-Bit-Speichercontroller für eine 256-Bit-Busschnittstelle.
Ähnliche Themen
- Antworten
- 3.747
- Aufrufe
- 345.958
- Antworten
- 247
- Aufrufe
- 32.162