Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Gerüchte zur RTX 5090: 448 statt 512 Bit, 28 GB GDDR7 und ein „2-Slot-Kühler“
- Ersteller Jan
- Erstellt am
- Zur News: Gerüchte zur RTX 5090: 448 statt 512 Bit, 28 GB GDDR7 und ein „2-Slot-Kühler“
also die Schlieren sind mit sehr hohen FPS zahlen eher gering. ich habs mit 144 FPS gespielt.B3rry schrieb:Es verschwimmt aber alles einselef!!!!!1 Und das sind keine richtigen Frames!!!
Ja mit Frame generation.
wegduck :-D
Sternengucker80
Commander
- Registriert
- Sep. 2006
- Beiträge
- 2.377
Also, ich kann mich über 16 GB der RVII nicht beschweren. Texturen kann ich überall hoch knallen. Last of US, Uncharted, uvm. laufen ohne Probleme. Die RVII ist sehr gut gealtert. Da haben manche mit der RTX2080/27070S mehr Probleme.
GeForce sind Gaming-Karten, da braucht es keine 32 GB VRAM.Rickmer schrieb:Alle die mit AI experiementieren würden sich 32GB+ wünschen... was genau der Grund ist, warum nvidia das nicht bringen wird.
Wer AI will muss halt tiefer in die Tasche greifen. Nvidia verdient dort gerade prächtig.
Wäre nicht überrascht wenn der 2slot die passive Option für den Einbau in einer workstation mit externem airflow ist, nVidia bastelt ja gerne mal solche fertigen "AI-packages". Und wenn der GB202 erscheint könnte er zu der Zeit definitiv sehr attraktiv sein für HPC/AI. Auch wenn nVidia dedizierte Chips für solche Zwecke auf Lager hat, solange kein neuer rauskommt dürfte der Gb202 bei der Effizienz ganz vorne dabei sein.Simanova schrieb:
- Die RTX 5090 FE kommt dann mit einem kompakten 2 Slot Kühler, was nur bis 300W Verlustleistung geht
Solche leaks gab es ja schon in der Vergangenheit, da hat jemand was von 2slot cooler gehört aber kennt den Kontext nicht.
Munkman
Ensign
- Registriert
- März 2019
- Beiträge
- 219
Na ja wundert mich nicht wirklich bin mal gespannt ob die 5080 wieder 16gb bekommt 🤣🤣 aber im Endeffekt für mich persönlich stehen aktuell nur die Intel GPUs auf der muss ich haben liste und das auch eher weil ich die interessant finde.
Bin mal gespannt ob was nettes von AMD kommt falls ja wird nach bedarf da gekauft 🤭
Bin mal gespannt ob was nettes von AMD kommt falls ja wird nach bedarf da gekauft 🤭
Gnageseil
Ensign
- Registriert
- März 2017
- Beiträge
- 251
Ist doch völlig wurscht, ob da ein 512Bit Speicherinterface verbaut wird oder nicht.
Die Karten sind so hart komplex und es gibt X Mechanismen, die ineinander greifen, um da noch ein Quäntchen Leistung herauszuholen, da ist doch das Speicherinterface nicht mehr das Zünglein an der Waage - aber ganz ehrlich, bis zum Speicherinterface kommt man eben noch mit.
Die Karten sind so hart komplex und es gibt X Mechanismen, die ineinander greifen, um da noch ein Quäntchen Leistung herauszuholen, da ist doch das Speicherinterface nicht mehr das Zünglein an der Waage - aber ganz ehrlich, bis zum Speicherinterface kommt man eben noch mit.
D
DeltaPee
Gast
Dafür gibts ja dasBxB schrieb:Es wird Zeit die Grafikkarte nicht mehr so im Mainboard zu befestigen.
Wenn die 5090Ti kommt, da kannst ja nichts mehr sonstiges in den PC an PCIe nutzen!
Da muss es langfristig bessere Lösungen geben! Sonst reisst es den PCIe-slot noch aus dem board.
https://www.pcgameshardware.de/Main.../Gigaybyte-B650-X870-UBS4-Ryzen-9000-1448391/
Taxxor
Fleet Admiral
- Registriert
- Mai 2011
- Beiträge
- 20.625
Wenn du die falsche DLSS Version oder das falsche Presetz nutzt, ja.iron_monkey schrieb:Ich schalte den Schlierengenerator in jedem neueren Spiel mal testweise ein und bisher ziehen alle kleineren sich bewegenden Objekte Schlieren.
3.7 mit Preset F bzw 2.5.1 Schlieren so gut wie gar nicht.
Biedermeyer
Commander
- Registriert
- Apr. 2005
- Beiträge
- 2.392
Welche Preisschallmauer wird diesmal durchbrochen?
...oder sollte man hier auch ueberspringen?
...oder sollte man hier auch ueberspringen?
metoer
Lieutenant
- Registriert
- Juli 2015
- Beiträge
- 535
@Gnageseil
Natürlich sind GPUs komplex, aber der grundlegende Aufbau ist seit vielen Jahren gleich. Im Grunde sind mehr Takt, mehr Speicher-Bandbreite und mehr Transistoren immer noch der Leistungstreiber schlechthin.
Natürlich sind GPUs komplex, aber der grundlegende Aufbau ist seit vielen Jahren gleich. Im Grunde sind mehr Takt, mehr Speicher-Bandbreite und mehr Transistoren immer noch der Leistungstreiber schlechthin.
Nightmar17
Lt. Commander
- Registriert
- Feb. 2020
- Beiträge
- 1.377
Das die Karten immer teurer werden.Taxxor schrieb:Welche Realität denn?
Vor ein paar Jahren haben die Mittelklasse Karten 500€ oder weniger gekostet. Dafür bekommst du heute Einsteiger Karten.
Nicht ohne Grund macht Nvidia massive Gewinne (ja liegt nicht nur an der GPU Sparte).
Die Marge ist schon hoch.
Würde AMD ebenso gute Hardware bieten, hätte man hier einen besseren Preis für die Kunden.
Vielleicht bringt Intel ja noch Bewegung rein.
Hör doch mal mit dem Märchen mit "vor ein paar Jahren hat es weniger gekostet" auf. Wir haben ne massive Inflation. Einfach alles ist teurer geworden.
Und selbst wenn AMD mithalten könnte würden die Preise nicht sinken sondern AMD würde sie einfach an Nvidias Preise anpassen.
Und selbst wenn AMD mithalten könnte würden die Preise nicht sinken sondern AMD würde sie einfach an Nvidias Preise anpassen.
Coeckchen
Lt. Commander
- Registriert
- Juli 2018
- Beiträge
- 2.022
daknoll schrieb:Gute Satire. ^^
Warum? Mir war die 4090 echt jeden cent wert (1699€) und auf jeden fall der bessere deal als die 3000 serie wo sich skalper und cryptoboys alles unter den nagel gerissen haben. Und ganz ehrlich: ich geb das geld lieber Nvidia als irgend welchen Zecken die leistungslos versuchen etwas abzugreifen.
Ich finde die Argumentation etwas schräg. Ich mache ja auch nicht Microsoft dafür verantwortlich, dass Apple teuer ist. GPUs sind schon lange keine Hardware mehr, die nur Spieler interessiert. Stagnierende Produktionskosten und die KI-Fähigkeiten sind auf jeden Fall ein Preistreiber. Wer die GPU nur zum Spielen braucht, zahlt eben trotzdem die anderen Features mit.Nightmar17 schrieb:Würde AMD ebenso gute Hardware bieten, hätte man hier einen besseren Preis für die Kunden.
Vielleicht bringt Intel ja noch Bewegung rein.
WhiteRabbit123
Ensign
- Registriert
- März 2019
- Beiträge
- 216
Raise schrieb:Tja wenn AMD kein Land sieht im High-End bereich, dann wird das Nvidia auch ausnutzen und melken. Ich mein wer würde das nicht machen?
Als Aktionär kann ich das nur unterstützen, auch wenn ich selbst aktuell keine grüne Karte im System habe.
Bügelbernd
Lieutenant
- Registriert
- Aug. 2023
- Beiträge
- 641
Ach was, unter 128GB werde ich niemals mehr eine GPU kaufen !!1!11!!LeckerRK schrieb:wenn die nicht mindestens 32,48 oder 64 GB
iron_monkey
Rear Admiral
- Registriert
- Juli 2005
- Beiträge
- 5.170
Taxxor schrieb:Wenn du die falsche DLSS Version oder das falsche Presetz nutzt, ja.
Wenn Lederjacke zu unfähig ist, die Versionen automatisch zu ändern mit dem Treiber, werde ich nicht meine Zeit damit vergäuden und rumfrickeln.
Ich kann einfach warten bis die Spiele ohne laufen oder ich lass die Spiele komplett weg... funktioniert für mich super ohne frickeln!
Unti
Lt. Commander
- Registriert
- Nov. 2006
- Beiträge
- 1.871
Kolleg:in, mit solchen Aussagen wäre ich hier im Forum und wenn ich auf die Mindfactory Verkaufszahlen die letzten Wochen schau - GAAAAAAANNNNNNNNZZZZZZ vorsichtig.nomika schrieb:Schön die großen Karten. Aber am Ende werden die Leute doch eher wieder zu einer 5060, 5070 oder 5080 greifen und weniger zur viel teuren 5090.
Ich bin sehr gespannt was die 5090 reißt.
.... ich habe mich mit dem betrügerischen Ausnehmen durch Mc Lederjacke für maximale Marge abgefunden.
Steinigt mich ruhig..... wenn die Karte wieder so ein + liefert wie die 4090 zur 3090Ti darf die ruhig wieder das selbe wie jetzt kosten.
Und zu den Specs - ich glaube überall wird was dran sein.
Was ich interessant finde, wieso soll die FE ein 2 Slot Design haben? Die aktuelle 4090 FE hat doch ein 3 Slot Design oder?
Heißt das die TDP sinkt wieder? Bei ggf. mehr Leistung = bessere Effizienz?
Wäre ja gut, also nicht mit der Brechstange in die neue Generation, auch vernünftig, die gute Effizienz der 4000er Reihe dürfen sie gerne wiederholen.