Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce RTX 5000: Acer nennt RTX 5090 mit 32 GB und RTX 5080 mit 16 GB
Kannst meine 4090 abkaufen, dann nehme ich die 600W 5090 … das Gejammer über „zu starke“ Grafikkarten macht nun wirklich nicht Sinn, wenn die Kühlung nicht ausreicht muss es eben das kleinere Modell werden.
Die Zahl der Millionärinnen und Millionäre in Deutschland betrug 2023 gut 2,82 Millionen, wächst stark und könnte bis 2028 auf 3,2 Millionen ansteigen.
Weiß nicht, wovon du sprichst. Die 3000er wurden reichlich wohlwollend angenommen, und die 3070 bot 2080Ti Leistung für 500 Ocken. VRAM kann man gerne bemängeln, aber ich hatte seinerzeit meinen Spaß damit - in 4K.
Ich vermute, die meisten hier im Forum sind Enthusiasten, weil sie über das nötige Kleingeld dafür verfügen.
Will sagen: Hier treffen sich die Leute mit dem dickeren Portemonnaie.
Klar, einige rennen auch für das Hobby zur Bank. Ich hoffe aber, dass die Vernunft das hoffentlich verbietet.
Ich glaube ehrlich gesagt weder das eine noch das andere, zumal nicht jeder hier eine 4090 hat, und auch nicht jeder, der eine hat, kauft sich deshalb unbedingt jedes Jahr eine neue 90er.
Mein Einkommen ist zum Beispiel komplett durchschnittlich. Ich habe halt keine Frau oder Kinder und wohne deshalb vergleichsweise günstig zur Miete. Und ich habe aufgrund meiner beruflichen Situation wenig Verwendung für ein Auto, sondern komme mit Jobticket/Deutschlandticket aus. Da ist es nun wirklich keine Raketenwissenschaft, sich gelegentlich mal so was wie in meiner Signatur zu gönnen, insbesondere bei einer geplanten Nutzungsdauer von Minimum fünf Jahren. Ich könnte mir gut vorstellen, dass das so ähnlich auch für viele andere gilt, deren Bruttoeinkommen nicht sechsstellig ist. Zum Beispiel sind über 40% der Haushalte in Deutschland Einpersonenhaushalte, von denen nicht alle, aber ein großer Teil entsprechend geringe Wohnkosten haben werden. 50% sind nicht verheiratet und leben auch nicht in einer eingetragenen Lebensgemeinschaft, werden sich also - nicht immer, aber häufig - wirtschaftlich nur um sich selber kümmern müssen. Etc. etc.
...Weswegen sie jetzt die Rechnung für tragen müssen.
Seit der Ation und der "Intel-Mentalität" bei den X3D CPU Preisen, vor allem 5700X3D zu 5800X3D und dessen Abkündigung um die hochpreisigen AM5 Platformen zu puschen, haben die für mich ihren >"Underdog"-muss unterstützt werden< Bonus absolut verbrannt! Sind mir sogar eher unsymphatischer geworden. Ich weiss ist ein Großunternehmen aber dennoch!
Das war ehrlich gesagt schon immer schwachsinnig bei einem gewinnorientierten Unternehmen. Je nach aktueller Situation schenken sich da AMD und Intel überhaupt nichts.
@MalWiederIch Diesen Underdog-Bonus verstehe ich auch nicht. Klar hat man bestimmte sympathien, die einen vielleicht über den ein oder anderen Makel hinwegsehen lassen. Aber ich Kaufe doch was ich brauche und mache dann nicht abstriche, weil ich Produkt B so sympathisch finde.
Schwachsinn, alleine nur das letzte Jahr lag der Preis den Großteil der Zeit weit unter 2.000€, hier mal nur als Beispiel die nicht zwangsweise günstigste Asus TUF:
und das Jahr davor war man auch nahezu konstant unter 2.000€ … als ich meine für 1.400€ kurz nach Release bekommen habe lagen die Marktpreise bei etwas über 1.600€.
2.000€ und mehr waren verhältnismäßig nur selten der Fall, dementsprechend falsch ist deine Aussage.
Sunjy Kamikaze schrieb:
Warum Nvidia da jetzt auf einmal günstiger werden sollte entzieht sich meiner Kenntnis.
Wo sind deine 1.500€ für die 5080 und 12.000€ für die 6090 günstiger als die 1.599$ UVP der 4090?
Viele von deinen Zahlen entziehen sich wirklich jeder Kenntnis, so viel steht fest.
Sunjy Kamikaze schrieb:
Aber evtl weist du ja deutlich mehr als der rest hier.
Gebe ich dir vollkommen Recht. "kein Spiel" war falsch. Extrem wenige Spiele und der Sonderfall VR / 5K+ bestätigen dennoch die Regel :-) du weißt wie ich das meine. Da nimmt man natürlich die XX90 "Titan" wenn man direkt darauf aus ist.
Der "Witz" ist ja, nVIDIA sieht eben durchaus Gründe, ihr absolutes Topmodell mit 32GB auszustatten. Für die Käufer des Topmodells zu höchstem Preis sollen keine Kompromisse existieren. Impliziert aber indirekt halt auch, dass nVIDIA sehr genau weiss, dass die 16GB für die 5080 eigentlich zu wenig sind und hier ganz bewusst der Kunde über den Tisch gezogen wird. Schon nur das ist stossend. Der riesige Gap zwischen VRAM der 5080 und der 5090 ist dermassen offensichtlich reine Gewinnmaximierung, dass es schon fast schmerzt, wenn es dann noch Leute gibt, die sowas verteidigen, sei es auch indirekt mit der Aussage, dass kein Mensch mehr VRAM braucht.
Wenn es so wäre, hätte man die 5090 auch bei 24GB belassen können. Warum wohl nicht? Oder man hätte halt direkt ab Start eine 5080Ti mit 24GB raushauen können. Oder man schiebt einfach die ganze Generation eine Stufe hoch (haben sie ja auch schon) und erhöht entsprechend die Preise. Macht man auch nicht, warum wohl?
Weil nVIDIA genau weiss, dass es wieder genug Deppen gibt, die die 5080 auch mit 16GB VRAM kaufen werden. Ich war ja (mit klaren Gründen bezogen auf meine Anforderungen) auch so einer bei der 4080, immerhin war da der Gap aber noch nicht so riesig.
Du musst dich schon entscheiden, worüber wir hier reden. 2k, 2,5k und 3k sind doch eine Riesenspanne und komplett verschiedene Welten.
Rein bezogen auf den €-UVP der FE (d.h. ohne irgendwelche Custom-Sperenzchen und ohne Verfügbarkeitsengpass-Aufschläge) sind 2k das absolute Minimum (weil das bereits die 4090 gekostet hat), 2,5k der Worst Case, und 3k wirklich nur dumme Laberei.
Für eine UVP von 3000 Euro müsste die Karte in den USA einen MSRP von 2600 Dollar haben - 1000 Dollar oder 62,5% mehr als eine 4090 zum Launch. Wenn du das unbedingt glauben willst, dann tu's halt.
Vor kurzem hat man noch über 12GB pauschal hergezogen und selbst heute liegt eine 10GB 3080 in WQHD trotz max. Settings vor einer 6800XT.
Das Problem mit 16GB wird also kaum existent sein, auch nach 3-4 Jahren nicht, aber dennoch muss man irgendwie gegen Nvidia anschreiben.Scheibt ja mittlerweile eine Art Volkssport zu sein.
Habe auch schon undifferenzierte Kritik an den 32GB der 4090 gelesen.
Die 5070 kommt offenbar nur mit 12GB, da halte ich Kritik für geboten. Aber auch da muss geschaut werden was AMD an Leistung/Preis gegenhalten kann. Ist das wieder nur Vram reicht's halt unter Umständen nicht.
Kritisieren würde ich da vielmehr AMD und nicht Nvidia.
Windell schrieb:
Aber wieso sollte Nvidia ihre Taktik ändern, wenn Leute das weiter mitmachen.
Und du wirst es nicht ändern können weil die ständige substanzlose Kritik und das unnötige fordern etwas nicht zu kaufen, niemanden beeindruckt. Das hat ja schon fanatische Züge. Und immer sind die Kunden schuld, nie die Unternehmen.
Das sind entsprechend selbstverständlich mehr als 3 von gerade einmal 100 Personen, schaut man sich dann mal die Prozentzahlen der 4090 bei der Steam Hardware Survey an …
Auch wenn mir zu manchen Meinungen hier auch nicht mehr viel einfällt - deine und meine Ansicht über deren Verhalten deckt sich garantiert nicht ansatzweise oft mit deren Vermögen.
Das ist doch eine sehr naive Aussage, vor allem wenn man sich hier die Umfragen zum Alter anschaut - nur da jemand „das/dass“ nicht richtig verwenden kann, ziehe ich doch auch keine Schlüsse über dessen Alter oder Vermögen
Nö, aber es gibt gute Gründe zu Nvidia zu greifen, es hilft doch nichts immer wieder falsche Dinge zu erzählen.
Nur der VRAM alleine ist noch lange nicht ausschlaggebend, auch wenn das gerne so dargestellt wird. Eine 8800XT kommt auch "nur" mit 16GB und schwächerem Management.Kritik lese ich da keine.
Spike S. schrieb:
aber Hauptsache immer schön das Portemonnaie aufhalten und "Ja" und "Amen" sagen....
AMD halt halt nichts gegen eine 5070(Ti) und aufwärts und von den Features will ich auch mal bezweifeln ob AMD endlich aufholt. Ich glaube nicht daran.
Kannst die Leute doch nicht zwingen Mittelklasse zu kaufen, wenn sie Performance oder HighEnd/Enthusiast wollen.
Das Problem mit 16GB wird also kaum existent sein, auch nach 3-4 Jahren nicht, aber dennoch muss man irgendwie gegen Nvidia anschreiben. S Heinz ja mittlerweile eine Art Volkssport zu sein.
Jein. Beim "flagship model" (Zitat Nvidia) einer Serie will man nun mal für deutlich über 1000 Euro - abseits harter Erfordernisse - auch das "gute Gefühl" mitkaufen, im Zweifel eher zu viel Leistung und/oder VRAM zu haben als zu wenig, und dieses Gefühl vermittelt die 5080 (bzw. die aktuellen Gerüchte) einfach nicht mehr, sondern exklusiv nur noch eine 5090, die (wie auch schon die 4090) den reinen Consumer-Bereich bereits ein gutes Stück hinter sich lässt.
Und auch, dass sich optisch nichts ändert und man dennoch entspannt spielen kann, wenn man Regler bedienen kann. Haare auf Low, Textur Pool auf Medium oder hoch. Fertig.
shaboo schrieb:
Jein. Beim "flagship model" (Zitat Nvidia) einer Serie will man nun mal für deutlich über 1000 Euro - abseits harter Erfordernisse - auch das "gute Gefühl" mitkaufen
Ich denke, dass das Abseits von Enthusiasten niemand so sieht.
Die 2080 hatte 8GB, die 3080 10GB, die 4080 dann 16GB und die 5080 kommt dann noch einmal mit 16GB, genauso wie bei 1080 und 2080. Selbst 12GB reichen für maxed out bis auf wenige Beispiele fast immer, da wird das Gefühl mit 16GB noch gut genug sein.
Die Ausgangssituation mit dem RAM halte ich für wesentlich komfortabler als bei Vega 64/2080 bzw. 3080.
Ähnlich komfortabel wie die 12GB Version der 3080. Kleinere Nachteile sicherlich irgendwann, aber eine 32GB Option wäre auch overkill. 24GB wären das wohl auch. 18/20GB wohl der Sweetspot.
AMD halt halt nichts gegen eine 5070(Ti) und aufwärts und von den Features will ich auch mal bezweifeln ob AMD endlich aufholt. Ich glaube nicht daran.
Das würde ich so nicht sehen, weil die 5090 mit semi-professionellen Anwendern eine gegenüber der 5080 erweiterte Zielgruppe besitzt, für die häufig gerade VRAM wichtig ist, und da sind bei - vermuteten - 50% Mehrleitung 8 GB zusätzlicher VRAM schon sehr stimmig.
Ändert nichts daran, dass 16 GB für die 80er - gemessen an Vermarktung, "flagship model"-Anspruch und Preis - schlicht dürftig sind.
okay, ich habe kein Zeitdruck. Ich warte auf eine 5080 mit 24GB, angeblich ist da was in Planung.
Sonst ist alles unterhalb der 5090 absolut sinnlos, wenn man eine 4080 hat und mehr Power möchte.
Wenn das stimmt, lach’ ich mir echt einen ab. Imagine deine neuen High-End Grafikkarten haben zwar den Dampf für RTXDI, aber deine mutmaßliche-1000€+-Grafikkarte hat mit 16 GB nicht genug Speicherplatz für die eigenen Features deines Herstellers.
Ich hoffe, CB testet auch weiterhin den VRAM-Bedarf der Spiele und übt hier, sofern angemessen, weiterhin harsche Kritik an der VRAM-Bestückung.
Kann doch echt nicht wahr sein. Das kann man sich als Hersteller echt nur erlauben, wenn 99 % der eigenen Käuferschaft keine Ahnung haben, was sie da kaufen und nur auf den Hersteller gucken. Ähnlich wie bei Apple mit ihren, jetzt zum Glück endlich mal eingestellten, Mac-Varianten mit 8 GB Arbeitsspeicher.