News Gerüchte zur RTX 5090: 448 statt 512 Bit, 28 GB GDDR7 und ein „2-Slot-Kühler“

Schön die großen Karten. Aber am Ende werden die Leute doch eher wieder zu einer 5060, 5070 oder 5080 greifen und weniger zur viel teuren 5090.
 
B3rry schrieb:
Es verschwimmt aber alles einselef!!!!!1 Und das sind keine richtigen Frames!!!
also die Schlieren sind mit sehr hohen FPS zahlen eher gering. ich habs mit 144 FPS gespielt.
Ja mit Frame generation.
wegduck :-D
 
  • Gefällt mir
Reaktionen: B3rry
Also, ich kann mich über 16 GB der RVII nicht beschweren. Texturen kann ich überall hoch knallen. Last of US, Uncharted, uvm. laufen ohne Probleme. Die RVII ist sehr gut gealtert. Da haben manche mit der RTX2080/27070S mehr Probleme.
 
Rickmer schrieb:
Alle die mit AI experiementieren würden sich 32GB+ wünschen... was genau der Grund ist, warum nvidia das nicht bringen wird.
GeForce sind Gaming-Karten, da braucht es keine 32 GB VRAM.
Wer AI will muss halt tiefer in die Tasche greifen. Nvidia verdient dort gerade prächtig.
 
Simanova schrieb:
  • Die RTX 5090 FE kommt dann mit einem kompakten 2 Slot Kühler, was nur bis 300W Verlustleistung geht
Wäre nicht überrascht wenn der 2slot die passive Option für den Einbau in einer workstation mit externem airflow ist, nVidia bastelt ja gerne mal solche fertigen "AI-packages". Und wenn der GB202 erscheint könnte er zu der Zeit definitiv sehr attraktiv sein für HPC/AI. Auch wenn nVidia dedizierte Chips für solche Zwecke auf Lager hat, solange kein neuer rauskommt dürfte der Gb202 bei der Effizienz ganz vorne dabei sein.

Solche leaks gab es ja schon in der Vergangenheit, da hat jemand was von 2slot cooler gehört aber kennt den Kontext nicht.
 
Na ja wundert mich nicht wirklich bin mal gespannt ob die 5080 wieder 16gb bekommt 🤣🤣 aber im Endeffekt für mich persönlich stehen aktuell nur die Intel GPUs auf der muss ich haben liste und das auch eher weil ich die interessant finde.

Bin mal gespannt ob was nettes von AMD kommt falls ja wird nach bedarf da gekauft 🤭
 
Ist doch völlig wurscht, ob da ein 512Bit Speicherinterface verbaut wird oder nicht.
Die Karten sind so hart komplex und es gibt X Mechanismen, die ineinander greifen, um da noch ein Quäntchen Leistung herauszuholen, da ist doch das Speicherinterface nicht mehr das Zünglein an der Waage - aber ganz ehrlich, bis zum Speicherinterface kommt man eben noch mit.
 
iron_monkey schrieb:
Ich schalte den Schlierengenerator in jedem neueren Spiel mal testweise ein und bisher ziehen alle kleineren sich bewegenden Objekte Schlieren.
Wenn du die falsche DLSS Version oder das falsche Presetz nutzt, ja.

3.7 mit Preset F bzw 2.5.1 Schlieren so gut wie gar nicht.
 
Welche Preisschallmauer wird diesmal durchbrochen?
...oder sollte man hier auch ueberspringen?
 
@Gnageseil
Natürlich sind GPUs komplex, aber der grundlegende Aufbau ist seit vielen Jahren gleich. Im Grunde sind mehr Takt, mehr Speicher-Bandbreite und mehr Transistoren immer noch der Leistungstreiber schlechthin.
 
Taxxor schrieb:
Welche Realität denn?
Das die Karten immer teurer werden.
Vor ein paar Jahren haben die Mittelklasse Karten 500€ oder weniger gekostet. Dafür bekommst du heute Einsteiger Karten.
Nicht ohne Grund macht Nvidia massive Gewinne (ja liegt nicht nur an der GPU Sparte).
Die Marge ist schon hoch.
Würde AMD ebenso gute Hardware bieten, hätte man hier einen besseren Preis für die Kunden.
Vielleicht bringt Intel ja noch Bewegung rein.
 
Hör doch mal mit dem Märchen mit "vor ein paar Jahren hat es weniger gekostet" auf. Wir haben ne massive Inflation. Einfach alles ist teurer geworden.

Und selbst wenn AMD mithalten könnte würden die Preise nicht sinken sondern AMD würde sie einfach an Nvidias Preise anpassen.
 
  • Gefällt mir
Reaktionen: AI94, Sinatra81, Quidproquo77 und 3 andere
daknoll schrieb:

Warum? Mir war die 4090 echt jeden cent wert (1699€) und auf jeden fall der bessere deal als die 3000 serie wo sich skalper und cryptoboys alles unter den nagel gerissen haben. Und ganz ehrlich: ich geb das geld lieber Nvidia als irgend welchen Zecken die leistungslos versuchen etwas abzugreifen.
 
Nightmar17 schrieb:
Würde AMD ebenso gute Hardware bieten, hätte man hier einen besseren Preis für die Kunden.
Vielleicht bringt Intel ja noch Bewegung rein.
Ich finde die Argumentation etwas schräg. Ich mache ja auch nicht Microsoft dafür verantwortlich, dass Apple teuer ist. GPUs sind schon lange keine Hardware mehr, die nur Spieler interessiert. Stagnierende Produktionskosten und die KI-Fähigkeiten sind auf jeden Fall ein Preistreiber. Wer die GPU nur zum Spielen braucht, zahlt eben trotzdem die anderen Features mit.
 
28 GB soll wohl ein Witz sein wenn die nicht mindestens 32,48 oder 64 GB hat ist es langsam aus mit Nvidia.
 
  • Gefällt mir
Reaktionen: Bügelbernd, Boimler und B3rry
Raise schrieb:
Tja wenn AMD kein Land sieht im High-End bereich, dann wird das Nvidia auch ausnutzen und melken. Ich mein wer würde das nicht machen?

Als Aktionär kann ich das nur unterstützen, auch wenn ich selbst aktuell keine grüne Karte im System habe.
 
Taxxor schrieb:
Wenn du die falsche DLSS Version oder das falsche Presetz nutzt, ja.

Wenn Lederjacke zu unfähig ist, die Versionen automatisch zu ändern mit dem Treiber, werde ich nicht meine Zeit damit vergäuden und rumfrickeln.

Ich kann einfach warten bis die Spiele ohne laufen oder ich lass die Spiele komplett weg... funktioniert für mich super ohne frickeln!
 
nomika schrieb:
Schön die großen Karten. Aber am Ende werden die Leute doch eher wieder zu einer 5060, 5070 oder 5080 greifen und weniger zur viel teuren 5090.
Kolleg:in, mit solchen Aussagen wäre ich hier im Forum und wenn ich auf die Mindfactory Verkaufszahlen die letzten Wochen schau - GAAAAAAANNNNNNNNZZZZZZ vorsichtig. :mussweg:

Ich bin sehr gespannt was die 5090 reißt.
.... ich habe mich mit dem betrügerischen Ausnehmen durch Mc Lederjacke für maximale Marge abgefunden.
Steinigt mich ruhig..... wenn die Karte wieder so ein + liefert wie die 4090 zur 3090Ti darf die ruhig wieder das selbe wie jetzt kosten.

Und zu den Specs - ich glaube überall wird was dran sein.
Was ich interessant finde, wieso soll die FE ein 2 Slot Design haben? Die aktuelle 4090 FE hat doch ein 3 Slot Design oder?
Heißt das die TDP sinkt wieder? Bei ggf. mehr Leistung = bessere Effizienz?
Wäre ja gut, also nicht mit der Brechstange in die neue Generation, auch vernünftig, die gute Effizienz der 4000er Reihe dürfen sie gerne wiederholen.
 
Zurück
Oben