News GB202 für RTX 5090: Nvidias größte GPU für Gamer wächst um 22 Prozent

Nighteye schrieb:
Doch ist es,(...)
Mal langsam mit den Pferden, ich beziehe mich auf Star Wars Outlaws/Star Citizen und V-ram Belegung nicht auf Stalker. Wie kommst du darauf? Steht doch selbst in dem von dir zitierten Satz was von V-ram Belegung und der Zusammenhang.
Nighteye schrieb:
siehe dieses Video, dort zeigt Raff, sobald der Vram Voll ist, lagert ein Spiel den weiter benötigten Vram in den System Arbeitsspeicher aus, und dann hat man eine Dia Show von 15fps.
Ja, wenn er dann auch zu voll ist, dann zeigt sich das extrem in der Performance, da Stalker auch kein etwas matschigeres Textur Streaming erlaubt.
Nur ist das halt ein Setting ohne DLSS und FSR und eben alles auf ultra in Nativ was furchtbar aussieht und keiner so spielt. Insofern ist es auch dann weit weniger schlimm in der Praxis. Problembehaftet sind da also nur 8GB und evtl. noch 10. 16GB braucht man nicht.
Nighteye schrieb:
In dem Video hört man übrigens auch, Raff empfiehlt für 1080p eine 16GB Grafikkarte.
Unter 24GB würde ich auch gar nicht mehr gehen...:lol:
Keine Ahnung wofür man für Full HD unbedingt eine 16GB Karte benötigt, aber wenn PCGH Raff das so gesagt haben soll, was ich nicht glauben kann, dann ist das völliger Quatsch, es reichen selbst 8GB noch fast für alles. Ja, nicht auf ultra, aber das kann auch nicht der generelle Anspruch sein sich für viel mehr Geld eine GPU zu kaufen und dann mit der Lupe irgendwelche Unterschiede rauszuarbeiten.

Andere spielen noch mit 4 oder 6GB GPUs oder gar mit einer IGP und im Einsteigerbereich wird es keine 16GB geben.

LamaMitHut schrieb:
Joa... Und AMD wird "Preistreiberei" vorgeworfen, weil man den 7800X3D nicht weiter für 300€ verramscht. Kannste dir nicht mehr ausdenken.
Ist doch 1:1 dasselbe. Die Hardware läuft aus und wird vom Markt genommen.
Nix mit günstigem 7800X3D, nichts mit günstigerer 24GB GPU, kauft mal schön noch die 16GB 5080 dann.
Nighteye schrieb:
Also die neue 1300€ RTX 5080 ist eine 1080p Grafikkarte wegen Nvidias Speichergeiz.
Stimmt, völlig vergessen, alle Karten einschließlich der RX 8800XT mit ihren total krüppeligen 16GB kann man nur noch für 1080p nutzen. Das ist schon hart sowas zu behaupten.
Etwa so wie deine 600 FPS in Star Citizen.
 
Zuletzt bearbeitet:
Rickmer schrieb:
Die RTX 4090 geht gebraucht für 1350~1600€ weg bei ebay (mit Ausreißern nach oben) und ich glaube nicht, dass da sich was ändern wird bei der prognostizierten Preisgestaltung der 5000er Generation.
Eher nach unten. Gerade geschaut gehen zur Zeit ab 1099€ gebraucht raus. Und sicher werde ich wenn entweder unter 1000€ kaufen oder dann natürlich lieber neu für 1500€ eine aktuelle 5080. Mal abwarten es brennt ja nirgends.
 
Rickmer schrieb:
Insbesondere als WaKü Besitzer ist es beim Preis von Wasserblöcken unattraktiv eine midrange Karte zu kaufen, aber gleichermaßen unattraktiv mit jeder Generation einen neuen Block zu kaufen, der später bestenfalls für einen Spottpreis verkauft werden kann wenn man ihn überhaupt los wird.
You dont have to Tell me....

Die 3090er war die einzige karte bei mir die keine WaKü hatte sonst, R9-290 6800xt 4090 alle immer mit WaKü. Hat beim verkauf kein Schwein interessiert. "ja ist denn der original Luftkühler immer noch mit dabei?"
 
  • Gefällt mir
Reaktionen: ThirdLife, Rickmer und iron_monkey
Rickmer schrieb:

nee, die nicht war schon 1x 512 Bit nicht 2x 256 Bit.. konnte ihre "Leistung" mit AA aber trotzdem nicht richtig auf die Straße bringen, weil ATI, war tatsächlich noch ATI, die Treiber nicht "nachgeliefert" hat.
 
Maxminator schrieb:
Also jetzt noch kannst du für eine gebrauchte 4090 gut 400-500€ mehr verlangen als es Ende Januar 2025 der Fall sein wird!
Gut also warte ich noch bis Ende Januar, ich sitze nämlich auf der anderen Seite und will so ein Teil günstig abgreifen 😂
Reicht mir locker bis die 60xx Teile kurz vor Release sind um dann ggfs. auf eine günstige 5090 zu wechseln.

Bei all der Dekadenz hier braucht es doch auch einen Schmarotzer, ich meine preisbewusster Gamer 😜
 
Quidproquo77 schrieb:
Die Tests sind ja immer mit maximalen Settings entstanden, das sollte man auch bedenken.
PCGH nutzt bei diesen Tests auch kein DLSS/FSR.
Quidproquo77 schrieb:
Ja, wenn er dann auch zu voll ist, dann zeigt sich das extrem in der Performance
Nur ist das halt ein Setting ohne DLSS und FSR.... und keiner so spielt. Insofern ist es auch dann weit weniger schlimm in der Praxis.
Du tust so als würde die Masse mit DLSS und FSR Spielen.
Die Spiele mit DLSS 3 Implantation ließen sich kürzlich noch an zwei Händen abzählen.
Also die Masse der Spieler zockt noch ohne FSR und DLSS.
Was ist dass auch für ein Nvidia Fanboy Argument, eine 1399€ RTX 5080 zu kaufen, und keine 1080p auf Max Details ohne DLSS/FSR zocken zu können ? Wahnsinn wie hier argumentiert wird.
Ich Zocke etliche Spiele auf 1440p auf Max details, ohne FSR und DLSS.
Angefangen von Star Citizen, bis World of Tanks, War Thunder, Armored Core, Path of Exile, World of Warcraft, Forza Horizon, BF2042, Killing Floor 2, World of Warships, Armored Warfare, Leage of Legends, Forza Motorsport usw.
FSR oder DLSS sind immer Optische Nachteile. Wer will 1300€ ausgeben für 1080p und solche Nachteile eingehen müssen ?
 
Zuletzt bearbeitet:
iron_monkey schrieb:
nee, die nicht war schon 1x 512 Bit nicht 2x 256 Bit..
ahso, ich hatte bei denen 'vor 15 Jahren' mehr 2009 als 2007 im Kopf

cyberpirate schrieb:
Gerade geschaut gehen zur Zeit ab 1099€ gebraucht raus.
Wirklich? Wo hast du denn solche Angebote gefunden?

1732369121578.png
1732369135746.png

Betrüger auf Kleinanzeigen zähle ich nicht


Haldi schrieb:
Hat beim verkauf kein Schwein interessiert. "ja ist denn der original Luftkühler immer noch mit dabei?"
Das und RMA sind die zwei Gründe, warum ich die OVP und den original Kühler von GPUs immer aufbewahre...
 
  • Gefällt mir
Reaktionen: Celinna
Quidproquo77 schrieb:
Nur ist das halt ein Setting ohne DLSS und FSR
Keine Ahnung wofür man für Full HD unbedingt eine 16GB Karte benötigt, aber wenn PCGH Raff das so gesagt haben soll, was ich nicht glauben kann, dann ist das völliger Quatsch, es reichen selbst 8GB noch fast für alles. Ja, nicht auf ultra, aber das kann auch nicht der generelle Anspruch sein sich für viel mehr Geld eine GPU zu kaufen und dann mit der Lupe irgendwelche Unterschiede rauszuarbeiten.
Raff hat es begründet. Und ich würde mal sagen Raff kennt sich besser mit der Materie aus als du.
Quidproquo77 schrieb:
Das ist schon hart sowas zu behaupten.
Etwa so wie deine 600 FPS in Star Citizen.
Was ist an 600fps rumstehend im Weltall in Star Citizen so besonders ?
Hab sogar 570fps im Warp. Kannst gern auf youtube danach suchen und dich selbst überzeugen.
Dass kann jede Radeon ab RX6800 sofern eine Potente CPU und Frame Gen im Spiel sind.
Das ist nichts besonderes.
Hier zb mal 4K eine RTX 4090 Nativ ohne Framegen oder Upscaling mit einem 7800X3D.
Würde man dazu jetzt AMD,s Frame Gen dazu schalten, hätte man 600fps sogar in 4K.
Nur dass Nvidia das leider nicht anbietet.
Weswegen Raff auch sagte:
"AMD,s Fluid Motion Frames 2 ist ein klarer Mehrwert von Radeon-Grafikkarten - im Grunde ein größerer als DLSS für Geforce-GPUs. AMD nutzt hier gekonnt Nvidias Schwäche und generiert ein Alleinstellungsmerkmal für die eigene Kundschaft.
Für die allermeisten Nutzer und Spiele ist AFMF 2 ein toller, optionaler Kniff, um Frame-Targets bzw. Sync-Fenster zu erreichen. Das und das Bereitstellen von Frame Gen für alle GPUs - gemeint ist FSR 3 FG - ist AMD hoch anzurechnen und sollte mit Grafikkartenkäufen belohnt werden.
Ja, ich bin ehrlich entsetzt über die wiederholten Berichte des Einzelhandels sowie die Marktanteile.
RTX 4000 ist toll, keine frage, aber längst nicht alle Modelle oder für jeden Anspruch.
Viele Leute werden anscheinend falsch beraten und wir steuern bedenklich auf ein vermeidbares Monopol zu."
RTX 4090 4k 7800X3D.png
 
  • Gefällt mir
Reaktionen: ArrakisSand
Nighteye schrieb:
Dennoch nutzen für 3D design, Unreal Engine usw, viel mehr leute eine Geforce, als eine Radeon.
Weil die Geforce Karten halt die Cuda cores usw haben.
Für diese Dinge ist Cuda egal ;)
Cuda ist aber natürlich bei GPGPU Aufgaben absoluter Marktführer.
 
Nighteye schrieb:
Du tust so als würde die Masse mit DLSS und FSR Spielen.
Ich tu nicht nur so, sondern ich weiß es, weil alles andere völlig sinnbefreites BruteForce darstellt und nur wenige die hier und da mal irrlichtern in der nativen Auflösung spielen.
Was du hingegen tust ist, irgendwelche V-ram Panik zu schieben, weil in Full HD deine RX 6800 in einem Beta Game 15GB belegt, damit du dann erzählen kannst eine 5080 sei nur für Full HD geeignet, damit du irgendwas kompensierst, nach dem Motto "schau her meine RX 6800 hatte auch schon 16GB".
Siehe deine Beiträge im Luxx.
Nighteye schrieb:
Die Spiele mit DLSS 3 Implantation ließen sich kürzlich noch an zwei Händen abzählen.
DLSS 3 gibt es seit mehr als 2 Jahren und gibt es in fast jedem Spiel.
Nighteye schrieb:
Also die Masse der Spieler zockt noch ohne FSR und DLSS.
Aber die Masse der Spieler braucht unbedingt viel V-ram, weil ja ohne gar nix mehr geht näh?
Nighteye schrieb:
Was ist dass auch für ein Nvidia Fanboy Argument, eine 1399€ RTX 5080 zu kaufen, und keine 1080p auf Max Details ohne DLSS/FSR zocken zu können ?
Also ich sehe in deinem Stalker Beispiel auch auf 4K Nativ keinerlei Probleme mit 16GB und das andere sind lauter unnsinige Belegungsbeispiele, die du warum auch immer anführst.
Außerdem ist der V-ram Bedarf seit dem Release in Outlaws massiv gesunken. Außer in ganz wenigen Extrembeispielen und Einzelällen gibt es heute weder mit 12GB (Leistungsklasse) und schon gar nicht mit 16GB irgendwelche herausragenden Probleme.
 
  • Gefällt mir
Reaktionen: ThirdLife und Shio
Zealord schrieb:
heute irgendwie immernoch lohnt GeForce Karten zu kaufen statt Quattro oder sonstiges (bin wirklich nicht mehr im Thema) ?
Volles FP64 hatten die Titan ab Maxwell auch nicht mehr.
Allerdings ist FP64 aktuell auch nicht mehr so gefragt. Für KI und sonstigen Hype Kram braucht es eher niedrige Präzision.

Es lohnt sich für Hobbyisten und kleine Firmen weiterhin, einfach preislich.

Große Firmen und bei bestimmten Vorschriften zu validierten SW+HW Kombinationen greifen dagegen zu den Quadro Karten.
 
Ich hab schon etliche Beispiele gezeigt.
Wenn du meine Posts nicht alle gelesen hast, ist es deine Schuld.
Sogar Computerbase hat dieses Jahr für mehrere Spiele mindestens 16GB Vram empfohlen um sorgenfrei auf Max Details zu spielen.
Und die aussagen die du Kritisierst, kritisieren nicht nur mich, sondern Tester von PCGH und anderen Websites.
Denn es ist ein Tenor.
Ich sag nur 16GB vs 8GB selbe Karte, 1000% mehr min fps auf 1080p bei einer läppischen Karte der Chip größe einer RTX3050 Laptop GPU. Quelle PCGH Stalker Test. (Schon 2x gepostet)
Wenn eine GPU mit der anzahl der Shader einer RTX 3050 von 2020 schon von 16GB profitiert, was soll dass dann auf einer RTX 5080 aus dem Jahre 2025 ?
1732370724081.png
1732370524356.png
 
Zuletzt bearbeitet:
Temporä schrieb:
Die RTX 3090 und 4090 können letzteres wieder,
Die Studio Treiber kannste auch bis runter zur 3050 verwenden. Das ist kein Alleinstellungsmerkmal der Flaggschiffe mehr.
 
  • Gefällt mir
Reaktionen: nurfbold
Nighteye schrieb:
Raff hat es begründet. Und ich würde mal sagen Raff kennt sich besser mit der Materie aus als du.
Und ich würde doch stark meinen, dass Raff das so wie du behauptest niemals sagt und es immer auf die Ansprüche und das Budget ankommt.
Nighteye schrieb:
Was ist an 600fps rumstehend im Weltall in Star Citizen so besonders ?
Dass man im Weltall sinnlos herumsteht, FSRFG und AFMF aktiviert und jeden davon überzeugen will, dass man die meisten FPS in Star Citizen hat?
Nighteye schrieb:
AMD,s Fluid Motion Frames 2 ist ein klarer Mehrwert von Radeon-Grafikkarten - im Grunde ein größerer als DLSS für Geforce-GPUs.
Es schaltet sich bei etwas stärkerer Bewegung noch immer ab, bzw. die Frametimes sinken auf das Niveau ohne AFMF oder drunter ab und die BQ ist wesentlich schlechter. Das ist nicht mal wert das überhaupt zu testen. Das fristet genauso ein Dasein wie Radeon Boost.
Nighteye schrieb:
Das und das Bereitstellen von Frame Gen für alle GPUs - gemeint ist FSR 3 FG - ist AMD hoch anzurechnen und sollte mit Grafikkartenkäufen belohnt werden.
Wenn es denn mal sauber läuft, dann ist es eine tolle Sache. Ich bevorzuge DLSS FG, bringt zwar etwas weniger frames, ist dafür aber flüssig, denn die Software-Lösung von AMD, was bei Nvidia Hardware übernimmt ist quasi immer letztendlich unterlegen und kann keine UI Elemente sauber darstellen und zeigt dort Artefakte und Geflimmer/Nachziehen.
Nighteye schrieb:
FSR oder DLSS sind immer Optische Nachteile.
Was für ein Unsinn. Bei mir sieht selbst DLSS Performance oder gar mal Ultra Performance besser am 4K Schirm aus als Nativ mit TAA.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Laphonso
Nighteye schrieb:
FSR oder DLSS sind immer Optische Nachteile.

Au contraire

Die Bilder mit DLSS 3 sehen bei Nutzung der Stufe Qualität besser aus, als nativ in voller Auflösung gerendert. Steht in allen Testberichten, auch hier auf CB. Siehe zB der kürzlich erschienene CoD Test.

IMG_7433.jpeg
 
  • Gefällt mir
Reaktionen: Laphonso, Celinna, Quidproquo77 und eine weitere Person
Bible Black schrieb:
Da braucht es kein "angeblich", einfach bei Ebay auf Verkaufte filtern. Und ja, passiert, wenn man seine Karte schlecht einstellt. Einige gehen aber auch für fast 2000€ weg.
Verrückt, da kann ich meine ja fast für den Preis verkaufen den ich vor 2 Jahren bezahlt habe :daumen:
Dieses Jahr kommt jetzt nach Stalker 2 eh nichts mehr wofür ich eine 4090 brauchen würde :D
 
  • Gefällt mir
Reaktionen: Haldi
ThirdLife schrieb:
Schau halt was die Karten real in Games verbrauchen. Ich zocke grad AC Odyssey
Spielt man Jahre alte Spiele gekappt, verbraucht die GPU wenig. Keine Erkenntnis.

Nimm ein aktuelles Spiel in 4K120 und eine 4090 fährt ihre TDP locker aus.
Spiele aktuell Avatar, da sehe ich oft die 450W. Mit dickem OC und nativ lutscht die 580W weg und kommt dabei noch nichtmal an das 120fps Limit.
 
Zuletzt bearbeitet:
Quidproquo77 schrieb:
DLSS 3 gibt es seit mehr als 2 Jahren und gibt es in fast jedem Spiel.
Ich glaube er verwechselt hier DLSS mit FG und wirft beides in einen Haufen.
 
  • Gefällt mir
Reaktionen: Laphonso
Sun_set_1 schrieb:
Au contraire
Die Bilder mit DLSS 3 sehen bei Nutzung der Stufe Qualität besser aus, als nativ in voller Auflösung gerendert. Steht in allen Testberichten, auch hier auf CB. Siehe zB der kürzlich erschienene CoD Test.
Interessant. Die PCGH Readakteure sagten, DLSS ist immer ein Nachteil.
Im Computerbase Bild was du mir zeigst, wird von Bildrauschen als Nachteil ohne DLSS gesprochen.
Kannst du mir evtl erklären was die damit meinten ? Sowas wie ein Flimmern bei mangelndem AA ?
 
Zurück
Oben