News GeForce RTX 5000: Acer nennt RTX 5090 32 GB & 5080 16 GB, Otto.de erste Preise

Dirk aus F. schrieb:
Die 4070ti lag zum Start bei ca. 900€ (hatte ich bei MF bezahlt)

Denke mal 1099 (FE) bis 1299 (custom)werden für die 5070 Ti fällig, wenn die 5080 bei ca 1500/1600 liegt.
Ich denke das kommt vor allem darauf an wie viel Leistung die Karte am Ende bieten wird:
Eine 4080 Super kostet derzeit um die 1100€, die 4070Ti Super gibts ab 850€.
Wird sich die 5070Ti davon leistungstechnisch absetzen können?
Ich hätte (ohne mich bisher großartig eingelesen zu haben) eher vermutet, dass die 5070Ti genau dazwischen landet und hoffe entsprechend auf max. 1000€ Straßenpreis, wenn sich die Preise ein paar Wochen nach Release eingependelt haben.
 
  • Gefällt mir
Reaktionen: Viper2000
Indianer Jones jammert bei 12 GB über den zu kleinen VRAM schon rum, da sind die 16GB bei einer 5080 auch zu gering bzw. nicht genug zukunftsfähig. Einfach lächerlich was Nvidia da treibt. Es wäre schön wenn der Kunde entsprechend mal nicht kauft.
 
Quidproquo77 schrieb:
Ach ich glaube du verstehst schon was ich meine.
Könnte mich natürlich blöd stellen, aber: ja.
Was Namen angeht haben sich beide nicht mit Ruhm bekleckert
 
  • Gefällt mir
Reaktionen: iron_monkey und Quidproquo77
Schmarall schrieb:
Ich behaupte jetzt mal, dass eine 480/1060 für aktuelle AAA-Spiele einfach zu alt ist - unabhängig vom RAM.
Eine 2060 kam auch mit 6GB.
 
krucki1 schrieb:
Indianer Jones jammert bei 12 GB über den zu kleinen VRAM schon rum, da sind die 16GB bei einer 5080 auch zu gering bzw. nicht genug zukunftsfähig. Einfach lächerlich was Nvidia da treibt. Es wäre schön wenn der Kunde entsprechend mal nicht kauft.
Bei welcher Auflösung, welchen Grafikdetails, mit Pathtracing oder ohne?

Die größte „Limitierung“ wird, wie schon die Jahre zuvor, die schlecht optimierten Krüppel von Spiele sein und nicht der Grafikspeicher.

Meine 24GB Grafikspeicher brachten mir z.B. bei Star Wars Outlaws und Jedi Survivor wenig. Eine Ruckelorgie hoch 10 und das bei einer Widescreen Auflösung und nichtmal 4K. -.-
 
  • Gefällt mir
Reaktionen: stevefrogs
Diablo87 schrieb:
Wollte ursprünglich eine 4080 kaufen aber nun warte ich natürlich auf die 5080 und bin ehrlichgesagt froh, dass sie keine unlogische Zahlenfolge für den RAM gewählt haben (8, 16, 32, 64) - ist halt ne Macke von mir ähnlich wie mit Kernen für CPU... Preislich hab ich 1600 für GPU sowie Wasserkühler eingeplant und denke mal, das wird in etwa hinkommen
Aktuell würde ich das auch so machen. Allerdings habe ich noch im November eine RTX 4080 Super für 979€ ergattert und bin froh. Für mich sieht die RTX 5080 nach Stillstand bzw. marginalen Verbesserungen aus und dürfte sehr lange Zeit für weit über 1000€ verfügbar sein (evtl. 1500€ zum Start?).
 
Wenn ich mir die Preise für gebrauchte Karten der 40 Serie ansehen glaub ich man kann die 50er Karten bedenkenlos kaufen und später für den selben Preis oder mehr wieder verkaufen nach 2 Jahren.
 
Ich vermute mal das der eigentliche Grund für die sparsame VRAM Bestückung die mögliche Konkurrenz zu den eigenen AI Karten darstellt, die mindestens 10 mal teurer sind.
Eine 5090 mit 24 GB oder mehr Vram, wäre sicher in der Lage ein mittelgroßes lokales AI Modell mit guter Performance zu betreiben.
 
  • Gefällt mir
Reaktionen: Xes und calippo
usernamehere schrieb:
Hast du dir den verlinkten Artikel überhaupt durchgelesen?
Ja, steht ja drin dass es unsicher ist, ob und wann so was kommt.
Da bei Gesprächen mit NPCs die Latenz einer Cloudlösung nicht so schlimm ist wie bei einem Shooter, sollte es kein Problem sein, so was komplett über die Cloud abzubilden. Hat der NPCs halt ne kurze Denkpause von ein paar Millisekunden.

Scheint ja auch Nvidia exklusiv zu sein und ein paar AMD Karten gibt es schon noch im Markt, daher kann ich mir nicht vorstellen, dass wir eine lokale Verarbeitung in den nächsten Jahren, also innerhalb der Lebensdauer einer aktuellen Grafikkarte sehen werden, von einzelnen Werbe-Showcases mal abgesehen.

Wäre ja in der Tat auch Verschwendung, meine 200h Witcher 3 habe ich mit bestimmt 180h ohne NPC Interaktion verbracht (Cutscenes muss man da rausrechnen).
Aus meiner Sicht also Unsinn jetzt schon VRAM zu kaufen für Spiele, die ggf. in 5 Jahren erscheinen um in diesen dann 90% der Zeit das LLM gar nicht zu nutzen (aber vermutlich den VRAM trotzdem zu belegen).

Soll aber keine Entschuldigung/Erklärung sein, warum die Karten so mager ausgestattet sind.
 
dragnod0 schrieb:
Eine 5090 mit 24 GB oder mehr Vram, wäre sicher in der Lage ein mittelgroßes lokales AI Modell mit guter Performance zu betreiben.
Die 5090 soll mit 32 GiB kommen - was soll ich mit einer 24GiB-Version?
 
BDR529 schrieb:
Kommt Leute, dieses VRAM Argument wird langsam echt schwachsinnig.
Ich reibe es gerne auch Dir nochmals unter die Nase: 4K + DLSS Qualität und Texturen "nur" auf "hoch" statt auf "ultra" und mein VRAM läuft im MSFS und MSFS2024 null komma nix voll, wenn ich ein komplexes Addon mit AI Traffic nutze. Das Beispiel von Star Wars Outlaws wurde genannt, da kommt selbst der CB Test zum Schluss, dass bei 4K das nVIDIA Feature RTXDI mehr als 16GB VRAM benötigt, andere Beispiele wurden auch schon genannt.

Das Einzige, was langsam schwachsinnig wird, ist die VRAM Knauserei von nVIDIA...
 
  • Gefällt mir
Reaktionen: iron_monkey, thom_cat, Beatmaster A.C. und 2 andere
Tja meine RTX 3080 würde ich echt gerne langsam ausmustern.
Vorallem die 10GB VRAM sind halt einfach ein echtes Problem.

Leider ist upgraden halt so maximal unattraktiv zur Zeit und ich glaube nicht wirklich, dass sich das mit RTX 50-Series ändern wird.

Am ehesten schiele ich da noch auf ne gebrauchte RX 7900 XTX oder hoffe auf die neue RX 8800 XT. Bei Nvidia ist mir das echt alles zu doof mittlerweile.
Auch wenn ich es mir theoretisch leisten könnte, wenn ich unbedingt wollte, finde ich es immer noch ziemlich absurd jenseits der 1000€ für eine GPU auszugeben.
 
Quidproquo77 schrieb:
Also ich hatte bisher weder mit der 4070 noch mit der 4080 ein Problem diese Features zu nutzen.
Für mich redest du von böhmischen Dörfern. Weil der 4070 in 4K mit Pathtracing in einem frischen nicht Bug-freien Spiel der Speicher ausgeht, ist das ein ganz schöner Edge-Case, den du pauschalisierst.
Ah verstehe, fanboi.
Anders kann ich mir nicht erklären, wie du eine 4070 mit 12gb interpretierst, wenn ich etwas von 16gb aufwärts zitiere. Deine Kommentare zu anderen Nutzern bestätigen dann den Verdacht.
Quidproquo77 schrieb:
Der Stachel muss ja wirklich tief sitzen, wenn man solche Fake News Schleuderei betreibt.
Stachel? Was für ein Stachel? Meinst du den mit den 3,5GB? Ja, den hab ich noch nicht vergessen. Und den sollte so schnell auch besser niemand vergessen.
Quidproquo77 schrieb:
Ich könnte dir jetzt die P/L Diagramme um die Ohren schlagen, aber das hilft bei so viel Copium nicht mehr.
Es gibt zwischen AMD und Nvidia keinen signifikanten Unterschied, wenn man ein paar Euro für das Featureset einberechnet. Ich verstehe nicht wozu dieses Narrativ immer und immer wieder erzählt wird. Es bleibt falsch.
Wenn man Featuresets einberechnet, dann wird der Unterschied zum reinen Rasterizing kleiner, weil DLSS dem AMD Pendant überlegen ist, das ist richtig. Aber insbesondere Raytracing ist für mich derzeit kein überzeugendes Argument. Es bieten zu wenig Spiele an und wenn doch, dann stehen subjektiv für mich optische Verbesserung zu Leistungseinbußen in einem schlechten Verhältnis. Am Ende hat AMD für mich derzeit ein besseres P/L Verhältnis.

Ich würd ja jetzt gern mit der beliebten Frage um die Ecke kommen, ob du dich von Nvidia für deinen Einsatz wenigstens gut bezahlen lässt. Das blöde ist, dass ich mich von Nvidia (und auch AMD) indirekt bezahlen lasse. Aktienkurse lassen grüßen.
 
  • Gefällt mir
Reaktionen: Quidproquo77, JackTheRippchen und dragnod0
dragnod0 schrieb:
Ich vermute mal das der eigentliche Grund für die sparsame VRAM Bestückung die mögliche Konkurrenz zu den eigenen AI Karten darstellt, die mindestens 10 mal teurer sind.
Nvidia macht das doch jetzt schon seit Maxwell, da war AI noch kein Thema. Vermutlich machen sie es mittlerweile nur noch aus Gewohnheit. Ist schon verrückt, da gehen die GPU-Preise in die Höhe und hier im Forum gibt es immernoch Leute, die innerhalb einer Generation aufrüsten, wegen VRAM-FOMO.

Ich hab auch überlegt, auf die 5080 zu warten. Aber die 4080 geht speichertechnisch schon auf dem Zahnfleisch und ich würde mich dann umso mehr über die verschenkte Leistung ärgern. Mal schauen, ob Nvidia die vor längerer Zeit angekündigte AI-Texturkompression an den Start bringt. Dann wird ihnen trotz VRAM-Geiz wahrscheinlich die Bude eingerannt.
 
Sp4wNickle schrieb:
Jetzt mal ganz ehrlich Leute. Gibt es hier irgend jemanden, der die 5090 für 3000 € oder 3500€ kaufen würde? Das kann doch nicht Euer ernst sein. Und das hat nichts mit leisten können zu tun.
Unter bestimmten Vorraussetzungen, ja. Ich erwarte minimum 30% Leistungsteigerung zum gleichen Preis. Ich habe für meine 4090 im Oktober 2023 2050 Euro bezahlt. Wenn Nvidia mir 3k oder mehr aus der Tasche leiern will, erwarte ich zumindenst Alan Wake 2 in 4k mit PT und DLAA, über 60 Perzentil-FPS. Und das ohne irgendwelchen Software hokuspokus. Dann Zahle ich was die Verlangen.
 
Sp4wNickle schrieb:
Jetzt mal ganz ehrlich Leute. Gibt es hier irgend jemanden, der die 5090 für 3000 € oder 3500€ kaufen würde? Das kann doch nicht Euer ernst sein. Und das hat nichts mit leisten können zu tun.

3000+ wären mir auch ein wenig zu viel... wobei 32GiB schon durchaus sexy sind, wenn man die Karte als Rechenknecht benutzt und nicht nur zum Spielen,
 
RealGsus schrieb:
Der Leistungsvorsprung der RTX 5090 gegenüber der 5080 sieht auf dem Papier schon ziemlich groß aus. Die 5090 wird sicherlich wieder so ein Halo-Produkt wie die 4090 und das wird sich sicherlich beim Preis zeigen. 2000€ aufwärts würde ich schätzen. Das dürfte für die meisten wohl unerreichbar bleiben.
Und das ist auch gut so, da es sich um eine Profi Karte handelt. Das war bei Nvidia schon immer so, früher hießen sie nur Quadro.
 
SirSilent schrieb:
Und das ist auch gut so, da es sich um eine Profi Karte handelt.
Eigentlich nicht.

SirSilent schrieb:
Das war bei Nvidia schon immer so, früher hießen sie nur Quadro.
Die 4090 / 5090 sind meines Erachtens eher Nachfolger der Titan-Reihe - Consumer-Enthusiastenkarten für richtig viel Geld.
 
Zurück
Oben