News RTX 5090 & 5080: Gerücht nennt 600 Watt und 32 GB GDDR7 für das Topmodell

@StardustOne
Das lohnt sich schon für die, sonst würden sie diese Grafikkarten nicht herstellen. Sie machen über 2 Mrd. US$ pro Quartal damit. Das ist der zweitgrößte Posten in der Bilanz.


Es ist aber offensichtlich, dass die 5090 genau wie die 4090 eher eine Grafikkarte für den Profimarkt wird. Die Preise sind weit über dem, was im Consumerbereich sonst so für diese Art Hardware üblich ist. Auch der Abstand zum nächstkleineren Produkt ist zu hoch. Das ist einfach eine (Profi-)RTX- oder Quadro-Karte, die nur nicht so benannt wird. Ich bin dafür, dass man die Karte auch genau so behandelt und daher nicht in die üblichen Grafikbenchmarks einfließen lässt. Das verzerrt nur die Ansicht. Man stellt darin ja auch keine Quadros dar.
 
TigerNationDE schrieb:
Schön zu sehen das viele Kommentare hier genauso schwachsinnig sind wie die meisten Leaks.

Sehen wirs mal realistisch. Bei der 40er haben auch schon alle mit massig mehr Leistungsaufnahme gerechnet und sogar nVidia hat die Kühler entsprechend ausrichten lassen. Das Ende kennen wir. Zugegebenermaßen fand ich das sogar gut, denn ich hatte noch nie so eine ruhig laufende 3 Lüfter Karte wie die aktuelle Gamerock 4090.

Persönlich wär ich wohl bis 2500€ dabei wenn der Leistungszuwachs stimmt. Aber das bleibt halt auch alles erstmal abzuwarten.
Nvidia war selbst überrascht das ada auf TSMC do wenig verbraucht, diesmal gibt es keine 2 nodesprünge auf einmal. Es ist durchaus realistisch das Blackwell säuft wie ein loch im mehr performance rauszubekommen, klar die effizienz wird gut sein relativ aber der absolute verbrauch ist mittlerweile lächerlich geworden. Wenn schon von 240 watt für nur die 70 Karte gesprochen wird. Die 1080ti hat 250 gebraucht und legte 70% zu gegenüber der 980ti. Schön war es.
 
  • Gefällt mir
Reaktionen: SweetOhm und Chocobo
belive schrieb:
Wenn schon von 240 watt für nur die 70 Karte gesprochen wird. Die 1080ti hat 250 gebraucht und legte 70% zu gegenüber der 980ti. Schön war es.
Ganz ehrlich, von mir aus können die den Verbrauch verdoppeln, wenn die Rohleistung endlich mal wieder nen entsprechenden Sprung machen würde. In den letzten Jahren war doch eigentlich immer nur DLSS hier, Frame Generation da, KI dort. Nicht umsonst ist AMD dicht auf was Rasterleistung betrifft. Erst mit Raytracing und DLSS sprintet nVidia halt um Meilen davon.
 
  • Gefällt mir
Reaktionen: Nekkepenn und Cyberbernd
Die 5090 wird max 40% schneller sein als die 4090 realistisch gesehen und von den Hardware specs her. Aber DLSS4 wer weiß was Nvidia da noch in der Hinterhand hat. Aber für was braucht es mehr Leistung als eine 4090 gibt doch kaum gute Games? Die ballern soviel hardware rein und selbst die 4090 kann sich oft kaum von der 4080 absetzen, nun schaut man auf die specs und es ergibt sinn warum die 5080 nur eine halbe 5090 wird weil trotzdessen es nur auf 35-50% mehr leistung bringen sein wird. Physik mag nimma :D deswegen auch so viel verbauch weil ohne nix mehr geht.

5090 30-40% +
5080 circa 4090 Leistung oder leicht darunter
5070 = 4070ti-Super / 5070 TI = 4080
5060 = 3070-3070ti / 5060 ti = knapp 4070

Das alles zum selben preis und oder kaum darunter. Nur die 90 ger Karte wird mehr liefern für den selben preis plus 100 Dollar auf msrp was ich schätzen würde ala 1799€ circa.

Geniale strategie und Amd wird sich mit der 5070 bis 5070ti streiten max wahrscheinlichst genau dazwischen mit der RX 8800XT, wenn sie klug sind für 499€ aber nach dem Preis der Ps5 Pro eher 699€. Die lassen sich Rdna 4 vergolden, warum auch nicht Amd hat den preiskampf mit RDNA 1 aufgegeben.

Intel wird die gpus wahrscheinlich mal einstampfen wenn die 2te gen keine käufer findet, denen geht es gerade nicht so gut.

All in all sieht es aus als würde Nvidia noch sehr sehr lange dominieren. Wobei ich erwarte das RDNA 5 wie RDNA 2 wieder einschlägt.

Blackwell und RDNA 4 werden unglaublich fade 2 Jahre an Gpu Gen sein imho.
Ergänzung ()

TigerNationDE schrieb:
Nicht umsonst ist AMD dicht auf was Rasterleistung betrifft
meh wenn ich mir viele neue games ansehe hinkt amd auch in raster hinterher und abseits von AAA Games ist amd sowieso hinten dran daran hat sich nichts geändert, desto mehr spiele man in einen benchmark packt, wo es um AMD vs Nvidia geht desto besser liegt Nvidia weil die meisten sachen einfach darauf optimiert werden oder von haus aus besser darauf laufen. Deswegen gibt es keinen Grund zu amd zu gehen wenn die viel bessere Alternative unter 100€ mehr kostet trotz weniger vram.

Aber Sympthieträger sind beiden nun schon wahrlich lange nicht mehr.
 
belive schrieb:
meh wenn ich mir viele neue games ansehe hinkt amd auch in raster hinterher und abseits von AAA Games ist amd sowieso hinten dran daran hat sich nichts geändert
Man zielt ja auch Seitens AMD gar nicht mehr drauf ab, dafür war man aber mMn. echt gut dabei.
Von der Unterstützung Seitens der meisten Entwickler ganz zu schweigen. Wenn man alleine sieht wie lang nun der FSR3 Patch für Cyberpunk gedauert hat :D

Naja, wir werden es in den nächsten Jahren ja nun nicht mehr erleben. Vor 2030 sehe ich keine AMD Karte die im High-End Bereich angesiedelt ist, nach den getätigten Aussagen. Und auch dann nur, wenn man an Marktanteilen gewinnen kann.

DAS VRAM Thema ist sowieso schon lange was, was ich getrost wegignoriere. Weil ich einfach diesen generierten Wahnsinn darum nicht nahvollziehen kann. Klar wäre es schön auch mit ner 4080 in 4K und hochauflösenden Texturen zu spielen, die in den RAM geladen werden. Aber auch hier sehe ich es realistisch. Die Power der Karte reicht dafür einfach eh nicht. Wieso also unnötig viel RAM drauf ballern? Und im nächsten Atemzug wird dann gejammert das die Gaming Karten an die Miner gehen, welche wiederum je nach Art von mehr RAM am meisten profitieren würden.

Diese Diskussion ist also total müßig mMn.
 
  • Gefällt mir
Reaktionen: SweetOhm und Cyberbernd
@TigerNationDE Rdns 5 wird high end bieten. Die werden die 8800xt verdoppeln was quasi 2x7900xt sein wird. Das gegen die rtx 6090. :) glaskugel over
 
  • Gefällt mir
Reaktionen: SweetOhm
@belive Ich würds mir wünschen, vorallem für viele Kunden aufgrund der Preise (ich würde sie für mich jedoch eh nie kaufen weil da müsste nVidia schon richtig verkacken damit AMD meine bisherigen Erfahrungen mit deren GPUs wett machen könnte). Aber ich geh da nicht von aus. AMD soll mal schön seine Gelder mit den Konsolenchips einfahren. Wenn sie aber wie ATI damals weiter hinterherlaufen wollen und das bei geringem Marktanteil, hab ich da nix gegen ^^
 
Amd muss nicht oben mitspielen sondern wie bei polaris viel günstiger sein. Damit sind sie besser gefahren als jetzt.
 
  • Gefällt mir
Reaktionen: TP555 und SweetOhm
StardustOne schrieb:
Und für die paar Nasen die in 4K spielen lohnt sich die Anschaffung einer noch schnelleren Karte wirklich?
Der Weg ist doch klar.
Photorealistische Grafik. Und das wollen wir doch alle. Dafür muss sich die Rohleistung wohl nochmal verdoppeln oder verdreifachen.
NVidia geht da mit DLSS, Path-/Raytracing und KI auf den Karten schon den genau richtigen Weg.
 
  • Gefällt mir
Reaktionen: Supermax2004 und Laphonso
Tr8or schrieb:
Photorealistische Grafik. Und das wollen wir doch alle.
muss nicht unbedingt sein. Eigentlich nur gute spiele die spass machen.
 
  • Gefällt mir
Reaktionen: SweetOhm
Mimir schrieb:
Wegen sowas kauft doch niemand zweimal?
Dass Du Dich da 'mal nicht irrst, denn besonders im High End wird von einigen Early Adoptern und Hobbyenthusiasten wenig nachhaltig mehrmals in einer Generation gekauft und die Karten wegen 10-20% Mehrleistung evt. schon gewechselt.

Das war zu GeForce/GTX Titan Zeiten (mit mehreren Iterationen neben einer 80Ti Karte) eine Zeit lang ziemlich auffällig und wurde damals hier auch im Forum öfters diskutiert.

Wenn die RTX 5090 wirklich so verknappt auf den Markt kommen sollte (was momentan als ziemlich wahrscheinlich gilt, da semi-professionelle/Billig-K.I.ler scharf auf die Karte sein werden), der Leistungsunterschied zur vermutlich deutlich besser verfügbaren RTX 5080 so groß ist wie diesen Gerüchten nach, dann werden wohl nicht wenige trotz RTX 4090 vielleicht schon wegen eines Blackwell Features auf eine minimal schnellere RTX 5080 wechseln oder aber vorübergehend (um "mitreden" zu können), um sobald wie möglich eine RTX 5090 oder eben 5080Ti/schnellere 24GB Version anzupeilen und wieder in gleicher Generation im High End neu zu kaufen.

nVidia/Huang dürfte sich hinsichtlich der Mehrfachkäufe im High End Bereich (und dadurch viel größeren Umsatz insgesamt) schon die Hände reiben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Wichelmanni schrieb:
nVidia kann doch gar keine größere 5080 bauen, da der Die vollständig genutzt wird. Das ist halt einfach Blödsinn und wollte ich klar stellen.
Habe gar nicht behauptet dass Nvidia keine größere 5080 bauen könnte? Ich sagte nur dass es günstiger in der Produktion ist wenn man einen Chip voll ausbaut statt bei einem größeren vieles zu deaktivieren. Teildefekte Chips mal ausgeschlossen.

Da bliebe nur den Chip der 80er größer zu machen, aber das treibt die kosten ebenfalls wieder in die Höhe.
SweetOhm schrieb:
Nur bei der 7900XTX ist der Chip der Vollausbau, bei dem 80´er ist es ein Verschnitt/Resteverwertung.
Das ist der Unterschied !
Die 4090D ist höchstens die Resteverertung der 4090 und die 4070Ti Super die der 4080 Super. Aber was genau macht das für einen Unterschied? Aus Prinzip oder was?

Was tatsächlich einen Unterschied macht ist dass Nvidia große monolitische Dies nutzt, während AMD auf günstigere Multi-Chiplets setzt.
SweetOhm schrieb:
Nein, ist nicht fraglich !
Einfach die extra dafür angefertigten PL Benches (RR & RT) studieren und "genießen" ...
Dann begründe deine Aussage bitte. An was machst du aus dass die Karte von AMD bei P/L besser ist?
Du zeigst ohne RT ist die 7900 XTX besser bei Preis/FPS.
Die 4080 liegt mit RT vorne. Dazu kommen deutlich bessere Watt/FPS, DLSS und FG.
SweetOhm schrieb:
Und Du gehörst zu den 0,73 % jene einen Unterschied zwischen DLSS 3 und FSR3.x in AKTION sehen/spüren ?
Bei Standbilder mit Zoom o.k.
Dein Ernst? Auch Computerbase sagt in Spieletests oft dass DLSS FSR überlegen ist und man nach Möglichkeit ersteres nutzen solle.
 
Youngtimer schrieb:
[...] zumal die 5090 genau wie die 4090 wohl auch wieder die effizienteste Grafikkarte wird: https://www.pcgameshardware.de/Graf...kkarte-verbraucht-am-wenigsten-Strom-1450597/
Nach ComputerBase wäre aber die RTX 4070 Super die effizienteste Karte:
1727516948418.png

https://www.computerbase.de/2024-02...-verhaeltnis/#abschnitt_fps_pro_euro_in_4kuhd

Zu den Gerüchten, ich hoffe die Gerüchte bestätigen sich nicht, das die Karten wieder eine höhere TDP bringen. Schön wäre eine High End Karte, die wie damals etwa eine TDP von 250Watt hat.
 
  • Gefällt mir
Reaktionen: SweetOhm
Taro Misaki schrieb:
Nachdem die EU hier den zulässigen Stromverbrauch für Elektro-Öfen, Staubsauger und andere Geräte begrenzt hat, wären vielleicht mal die Grafikkarten an der Reihe.:)
Bei Haushaltsgeräten ergibt sowas auch Sinn, da hiermit eine gleich bleibende Arbeit verrichtet wird, die mit mehr Energieeinsatz nicht verbessert, sondern nur ineffizienter wird. Bei Grafikkarten heißt mehr Leistungsaufnahme allerdings auch mehr erbrachte Leistung. Im Gegensatz zu Haushaltsgeräten verbessert sich die Effizienz von Grafikkarten außerdem regelmäßig wenn eine neue Generation erscheint. Irgendwelche festen Grenzwerte machen hier also überhaupt keinen Sinn und werden auch nicht kommen. Wenn man tatsächlich stetig angepasste Energieeffizienzgrenzwerte festlegen würde, wäre übrigens eine 4090/5090 bei weitem nicht die erste Karte die aus dem Verkehr gezogen würde, sondern z. B. RDNA3-Karten oder generell Karten älterer Generationen. "Be careful what you wish for" sag ich mal.
 
Dedenne1987 schrieb:
Tatsächlich spiel ich meistens 60 FPS Limit.
Warum dann eine 4090? Aber selbst bei wirklich langsamen Spielen ist der Unterschied von 60 FPS auf 100 FPS + unfassbar enorm. Alleine das Maus/Kamera Ruckeln bei 60 FPS stört mich extrem.
 
@MoinWoll
Auch solche Haushaltsgeräte werden noch effizienter, vielleicht nicht in dem Maß wie Grafikkarten, aber das ist auch schwer möglich, da deren Hersteller im Gegensatz zu AMD und Nvidia nicht so eine sektenartige Gefolgschaft haben, die regelrecht darum bettelt diesen Firmen Jahr für Jahr mehr Geld in den Rachen schieben zu dürfen.

Und dass die Effizienz immer weiter verbessert wird, spricht imo nur noch mehr für eine Begrenzung.
Einschränkungen fördern die Kreativität, das sieht man an den Konsolen wo im High End seit einigen Generationen ca. 200W die Obergrenze für den Stromverbrauch sind und dort ist auch kein Stillstand zu sehen. Ganz im Geganteil, durch die höheren Zeitabstände gibt es dort im Gegensatz zu High End-Grafikkarten noch merkbare Sprünge ohne, dass man zwei bis drei Monatsmieten dafür ausgeben muss.

Und was das "Be careful what you wish for" angeht, als jemand der diese Mentalität immer die neueste, tollste Grafkkarte haben zu müssen, weil man ohne die paar extra Frames und Pixel nicht beruhigt einschlafen kann, in etwa so sehr nachvollziehen kann wie eine Heroinsucht, sag ich, begrenzt Grafikkarten ruhig auf 200W, von mir aus sogar auf 100W, das würde wenigstens die Einsteigersparten wiederbeleben und die Hersteller dazu bewegen mal wieder richtige Innovationen zu verfolgen, statt stumpf ihre "höher, weiter, teurer"-Schiene zu fahren

Bei 99,9% aller richtig guten Videospiele ist es völlig egal, ob sie in 2160p oder 480p laufen, die bleiben trotzdem gute Spiele.
Zum Glück gibt es genug Indie-Studios die einen Scheiß auf diesen debilen Grafikwahn geben, die AAA-Industrie ist ja eh schon zum Großteil zu einem GaaS-verseuchten, dem Fotorealismus hinterherhechelnden Kreativitäts-Friedhof verkommen.

Ein richtig schöner Crash ist das beste, was dieser Branche gerade passieren könnte.
 
  • Gefällt mir
Reaktionen: ReVan1199 und Melmoth
Taro Misaki schrieb:
@MoinWoll
Auch solche Haushaltsgeräte werden noch effizienter, vielleicht nicht in dem Maß wie Grafikkarten, aber das ist auch schwer möglich, da deren Hersteller im Gegensatz zu AMD und Nvidia nicht so eine sektenartige Gefolgschaft haben, die regelrecht darum bettelt diesen Firmen Jahr für Jahr mehr Geld in den Rachen schieben zu dürfen.
Wenn es um die Erzeugung von Wärme (Öfen, Waschmaschinen) und kinetischer Energie (Waschmaschinen, Staubsauger) geht, gibt es klare physikalische Grenzen bei der Energieeffizienz die schon längst erreicht wurden. Bei Grafikkarten laufen wir so langsam auf diese Grenzen zu, sind aber noch nicht angekommen und setzen zunehmend auf effizientere Rendermethoden wie FSR/DLSS/XeSS/TSR. Das hat mit Sekten absolut gar nichts zu tun.

Taro Misaki schrieb:
Und dass die Effizienz immer weiter verbessert wird, spricht imo nur noch mehr für eine Begrenzung.
Verstehe diese Schlussfolgerung nicht.

Taro Misaki schrieb:
Einschränkungen fördern die Kreativität, das sieht man an den Konsolen wo im High End seit einigen Generationen ca. 200W die Obergrenze für den Stromverbrauch sind und dort ist auch kein Stillstand zu sehen.
Das hat nichts mit Kreativität zu tun, die Konsolen sind halt entsprechend langsamer als ein PC der in der Spitze 600W verbraucht. Eine 4060 Ti 16GB, die in etwa die Raster-Leistung einer PS5 bietet, verbaucht (inkl. CPU) weniger als letztere.

Taro Misaki schrieb:
Ganz im Geganteil, durch die höheren Zeitabstände gibt es dort im Gegensatz zu High End-Grafikkarten noch merkbare Sprünge ohne, dass man zwei bis drei Monatsmieten dafür ausgeben muss.
Ja, man tauscht hier Abwarten gegen höheren Stromverbrauch und höhere Preise. Kann man machen wie man lustig ist.

Taro Misaki schrieb:
Und was das "Be careful what you wish for" angeht, als jemand der diese Mentalität immer die neueste, tollste Grafkkarte haben zu müssen, weil man ohne die paar extra Frames und Pixel nicht beruhigt einschlafen kann, in etwa so sehr nachvollziehen kann wie eine Heroinsucht
Du argumentierst hier gegen einen Strohmann.

Taro Misaki schrieb:
, sag ich, begrenzt Grafikkarten ruhig auf 200W, von mir aus sogar auf 100W, das würde wenigstens die Einsteigersparten wiederbeleben und die Hersteller dazu bewegen mal wieder richtige Innovationen zu verfolgen, statt stumpf ihre "höher, weiter, teurer"-Schiene zu fahren
Kauf doch einfach ein Gerät das so wenig verbraucht, wenn Du gerne eins haben möchtest. Steam Deck würde sich anbieten. Aber nein, es muss allen anderen verboten werden, was Schnelleres zu kaufen, damit Du nichts verpasst.

Taro Misaki schrieb:
Bei 99,9% aller richtig guten Videospiele ist es völlig egal, ob sie in 2160p oder 480p laufen, die bleiben trotzdem gute Spiele.
Wenn Du gerne in 480p spielen möchtest, hindert Dich niemand daran. Ich präferiere weiterhin 2160p.

Taro Misaki schrieb:
Zum Glück gibt es genug Indie-Studios die einen Scheiß auf diesen debilen Grafikwahn geben, die AAA-Industrie ist ja eh schon zum Großteil zu einem GaaS-verseuchten, dem Fotorealismus hinterherhechelnden Kreativitäts-Friedhof verkommen.
Wunderbar, dann ist ja für jeden was dabei.

Taro Misaki schrieb:
Ein richtig schöner Crash ist das beste, was dieser Branche gerade passieren könnte.
Daraus spricht reinste Verbitterung. Ein Crash einer riesen Branche zieht immer Arbeitslosigkeit, Wertvernichtung und mittelfristigen technischen Stillstand nach sich. Ich würde der Branche, in der Du Deinen Lebensunterhalt erwirtschaftest, jedenfalls keinen Crash wünschen. Übrigens, was riesige stillstehende Fabriken und leerstehende Bürogebäude für eine Energie- und Ressourcenverschwendung darstellen, brauche ich denke ich nicht erklären. Ich kann mich daher nur wiederholen: Be careful what you wish for.
 
Zuletzt bearbeitet:
Zurück
Oben