News RTX 5090 & 5080: Gerücht nennt 600 Watt und 32 GB GDDR7 für das Topmodell

S.Kara schrieb:
Die Chips sind aktuell folgendermaßen verteilt:
AD107 = RTX 4060
AD106 = RTX 4060 Ti
AD104 = RTX 4070/Ti
AD103 = RTX 4080
AD102 = RTX 4090

Dass die 80er Karten den 60er Chip nutzen ist ein Märchen. Wenn dir die P/L bei Nvidia nicht passt darfst du gerne zu AMD oder Intel greifen, nur ob die von der P/L her besser sind ist fraglich.

Die RX 7900 kostet ca 950€, das sind gerade mal 20% weniger als die RTX 4080. Letztere bietet dafür DLSS/besseres Upscaling und deutlich bessere RT Performance. Dazu kommt noch der geringere Verbrauch. Wenn die 4080 überteuert ist dann ist AMD ebenfalls kein Stück besser.
Das du daraus einen Glaubenskrieg machst sagt viel über dich aus, nämlich das mit dir diskutieren sinnlos ist, auch hast du es komplett falsch verstanden
 
  • Gefällt mir
Reaktionen: SweetOhm und Wichelmanni
Tr8or schrieb:
Gerüchteweise wird es demnächst externe Grafikkartennetzteile geben.
Gab es bereits schon mal.... Voodoo 5 6000 hatte nen eigenes Netzteil namens Voodoo Volts
 
  • Gefällt mir
Reaktionen: SweetOhm und Lutscher
Jetzt verstehe ich wieso es Gehäuse gibt mit der Möglichkeit 2 Netzteile einzubauen. Die waren einfach ihrer Zeit vorraus.
 
  • Gefällt mir
Reaktionen: Tr8or
belive schrieb:
Das du daraus einen Glaubenskrieg machst sagt viel über dich aus, nämlich das mit dir diskutieren sinnlos ist, auch hast du es komplett falsch verstanden
Na ja... Warum sollte NV seine Produkte "verscherbeln", wenn sie gerade in der (unteren) Mittelklasse schon JETZT beim P/L-Verhältnis im Grunde genommen auf Augenhöhe mit den "schlechteren" Produkte der Konkurrenz sind?
 
AMD hat ZUERST die Preise angezogen. Stichwort RDNA 2 Refresh. Und das sogar ohne wesentlich mehr Leistung zu liefern. Dafür dann aber auch rechtlich ordentlich. Dagegen waren dann die 610 Euro bspw. für eine 4070 6 Monate später ja fast schon wieder günstig (im Vergleich zu den 620 Euro UVP für eine 6750 XT)
 
Wenn AMD im oberen Bereich nicht mehr mitspielen möchte, wird Nvidia wohl wieder kräftig an der Preisschraube drehen.
Zum Glück ist der Konsument nicht gezwungen zu kaufen.
 
  • Gefällt mir
Reaktionen: SweetOhm und Desmopatrick
kachiri schrieb:
Na ja... Warum sollte NV seine Produkte "verscherbeln", wenn sie gerade in der (unteren) Mittelklasse schon JETZT beim P/L-Verhältnis im Grunde genommen auf Augenhöhe mit den "schlechteren" Produkte der Konkurrenz sind?
Das hat ja auch niemand behauptet. Die anderen machen es genauso. Schuld hat nicht nvidia sondern wir die Kunden. Wir entscheiden über den Preis als masse. Aber du weißt ja was man über Menschen in einer gruppe sagt.

Es müsste nur jeder eine gen nicht aufrüsten und die nächste wäre spottbillig bzw. wieder normaler.
 
  • Gefällt mir
Reaktionen: Lutscher
So... und scheinbar gibt es viele Menschen, die entweder nicht verzichten möchten oder sich gar nicht so viele Gedanken darüber machen, ob sie für ein Stück Hardware, dass sie 2-3 vielleicht sogar 4-5 Jahren benutzen (nicht jeder rüstet jede Generation) auf, 400 oder 500 Euro bezahlen.
 
jps20 schrieb:
Wenn es AMD nicht mal versuchen wird, wird das unser Untergang werden 😭
AMD wird vmtl. bis 650 € rum mithalten und genug Konkurrenz liefern, dass wir in diesem relevanten Bereich Fortschritte haben. Die meisten Karten werden mit Sicherheit zwischen 200 und 350 € verkauft. Kaum jemand im Privatbereich juckt sich für 600 €+ Karten. Wofür auch? Full-HD ist immer noch mit Abstand die gängigste Auflösung.

Und außerhalb dieses Forums sind die Leute auch in der Lage, die Settings ihrer Spiele anzupassen und nicht immer alles auf Ultra/Kino/Psycho/whatever spielen zu müssen. Da reicht für quasi jedes Spiel eine 3060 dicke aus.

Und dafür muss man im Normalfall ja nicht einmal etwas tun. Jedes mir bekannte Spiel passt die Settings so an, dass das Spiel flüssig läuft, mit der verbauten Hardware, wenn sie nicht gerade 10 Jahre+ alt ist.

Ganz anders sieht das bei Anwendungen aus, dafür habe ich auch eine 3090. Aber Nvidia möchte halt, dass man die A6000 kauft, wenn man mehr möchte. Ich glaube ich nicht, dass sich daran groß etwas in der nächsten Generation ändert. Ist die Marge bei den A-Karten doch viel schöner als bei den RTX:D
 
Lutscher schrieb:
Wenn AMD im oberen Bereich nicht mehr mitspielen möchte, wird Nvidia wohl wieder kräftig an der Preisschraube drehen.
Zum Glück ist der Konsument nicht gezwungen zu kaufen.
Naja, den letzten Satz finde ich heutzutage auch nicht mehr passend...

Klar hält mir keiner die Pistole auf die Brust, aber wenn man aktuelle Games auf "Ultra High" und in 4k spielen möchte braucht man entsprechende Karten mittlerweile. AMD wird in dem oberen Bereich wohl nichts mehr bringen also bleibt ja nur der grüne Riese :/

Im Freundeskreis wechseln viele nach dem PS5 Pro Preis auch wieder Richtung PC-Gaming und warten gespannt auf die neuen X3D`s CPU´s und die 5000er Serie, gekauft wird es alles bestimmt... :D
 
Es kann nicht alle zwei Jahre 30% Mehrperformance bei gleichem Verbrauch geben. Jetzt ist Nvidia am Punkt, wo auch der Verbrauch nach oben gehen muss.

Viel bedenklicher finde ich die großen Sprünge bei den Recheneinheiten zwischen den Modellen.

Vielleicht auch mal Intels Battlemage im Auge behalten. Die Tests ergaben ca. 50% Mehrperformance bei 20 Xe-Kernen und das "große" Modell mit 64 Xe-Kernen kommt ja noch. Da Raytracing bei Intel sehr performant lief und die auch nicht mit VRAM geizen, könnte Battlemage die obere Mittelklasse erobern.
 
Da von AMD nichts im High-End zu erwarten ist, wäre eine 5080 ein potenzieller Kandidat um meine 6900XT zu ersetzen.

Aber eine Karte mit nur 16GB können sie behalten.

Der Markt wird immer bescheidener.
 
Wann wäre der beste Zeitpunkt seine 4090 zu verkaufen wenn man für möglichst wenig Geld upgraden will und damit leben kann wenn man paar Monate nur mit der OnBoard GPU von 7800x3d fährt ? Wenn man den Preis der 3090 TI hernimmt als Referenz ? Ich weiß bisschen Glaskugel und Erfahrungsgemisch. Macht das einer hier immer regelmässig die letzten Generationen und wieviel waren zum draufzahlen in der Vergangenheit ?
 
Also eigentlich war KopiteKimi immer ausgezeichnet informiert was seine Vorhersagen anbetrifft; gerade auch wenn das Reelase näher rückt. Aber diese Werte finde ich auch seltsam. Ohne Not soll Team Grün in Zeiten der Energieeinsparungen den Watt-Hammer raus holen? Hm, das bezweifele ich.
Dann kommt noch dazu, dass man die 5090 auch auslasten muss, also der Prozessor genügend Power haben muss. Und trotz des Meisters 7800X3D schafft selbst der es in häufigen Szenarien nicht eine 4090 auszulasten. Soll sich also die 5090 langweilen? Und nur die 600 Watt auf dem Papier stehen? Fragwürdig.
Trotz UE5 und Unity 6, die wirklich Rechenleistung brauchen, glaube ich eher daran, dass NVIDIA die Effizienz in den Vordergrund stellt. Es wurde ja bereits gemunkelt, dass die Blackwell-Generation in Hinblick auf die Effizienz ein Meisterwurf wie die Pascalgeneration werden wird.

Fakt ist: Wir dürfen sehr gespannt sein, was uns schon bald erwarten wird. Ob ich meine 6800 XT für die 5090 dann in Rente schicke, hängt von Preis und Stromverbrauch ab. Denn extra ein neues Netzteil kaufen weil 750 W nicht reichen nur weil die GraKa säuft wie ein finnischer Seemann auf Landgang, dazu hab ich herzlich wenig Lust.

Trotz aller KI und Gewinne bei Gewerbekunden sollten die GK-Hersteller bitte auch wieder mehr an uns Gamer denken, denen die aktuellen Preise zumeist im Portemonnaie richtig weh tun. Eine 5090 zum Preis der 4080 UVP, das wäre ein ganz großer Wurf!
 
Das schöne als 4090 Besitzer ist, man kann einfach gechillt abwarten was da kommt, denn dank DLSS und FG etc. hätte ich noch einige Jahre Ruhe. Trotz des enormen Preises der 4090, war es doch keine schlechte Investition und dank UV läuft die Karte auch nicht zu heiß oder zu "verschwenderisch".

Trotzdem finde ich die 50x0 interessant. Hoffe die Preise beider Karten steigen nicht, es reicht nämlich auch mal langsam.
 
  • Gefällt mir
Reaktionen: Bullz
Unreal_Playa schrieb:
Naja, den letzten Satz finde ich heutzutage auch nicht mehr passend...

Klar hält mir keiner die Pistole auf die Brust, aber wenn man aktuelle Games auf "Ultra High" und in 4k spielen möchte braucht man entsprechende Karten mittlerweile. AMD wird in dem oberen Bereich wohl nichts mehr bringen also bleibt ja nur der grüne Riese :/

Im Freundeskreis wechseln viele nach dem PS5 Pro Preis auch wieder Richtung PC-Gaming und warten gespannt auf die neuen X3D`s CPU´s und die 5000er Serie, gekauft wird es alles bestimmt... :D
Die PS5 Pro ist mit 799€ immer noch billiger als ein gescheiter Gaming-PC.

4K Ultra High ist der eigene Anspruch, den man hat. Wer dafür bereit ist 2000,-€+ auszugeben, der soll es machen, ungeachtet dessen ist niemand gezwungen Nvidia das Geld in den Rachen zu werfen.
 
  • Gefällt mir
Reaktionen: SweetOhm und Desmopatrick
Also das nimmt mittlerweile Dimensionen an wo man ernsthaft über ein externes Netzteil nachdenken sollte :D
 
Ach Chic,
24GB waren sowieso ständig fast voll^^
 
Zurück
Oben