Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
die 4090 hat immer noch 60% mehr CUs als eine 5080 ... durch Speicher und Takt dürfte die 5080 etwas Boden gutmachen, aber nicht um 60%. Ich rechne aktuell eher mit nem Leistungsplus von 20-30%+ ggü einer 4080S.
Gerüchteweise könnte der Preis der RX 8800XT bei ca. 500 € liegen und Nvidias RTX 5070 liegt wohl eher 100-200€ darüber, wenn man den Startpreis der RTX 4070 zum Vergleich nimmt.
Ist halt die Frage ob die features bei Nvidia so toll und einzigartig sind, dass sie gegen günstigeren Preis und +4GB ankommen. Das werden wir halt erst nach den Tests wissen.
Selbst wenn Nvidia auf AMD reagiert und den Preis der RTX 5070 niedriger ansetzt, so würde ich mir heutzutage eher keine >500€ GPU mit "nur" 12 GB holen.
Die 3080 hatte 384 Bit Anbindung.
Bei den Preisen verstehe ich nicht, warum sie nicht 512 Bit machen, wenn sie schon nur 16 GB Speicher verbauen. Wenn nicht viel, dann wenigstens maximalen Durchsatz. 512 Bit gab es schon 2005? Damals bei 1000 € Karten?
die 4090 hat immer noch 60% mehr CUs als eine 5080 ... durch Speicher und Takt dürfte die 5080 etwas Boden gutmachen, aber nicht um 60%. Ich rechne aktuell eher mit nem Leistungsplus von 20-30%+ ggü einer 4080S.
Im CB-Test lag die 4090 damals (AVG FPS in UHD) allerdings auch nur 31% vor der 4080 Super. Da kommen deine 20-30% schon verdammt nah dran. In der Praxis sollte man zwischen einer 5080 und einer 4090 nur dann einen Unterschied spüren, wenn tatsächlich die 16 GB VRAM ersterer in irgendeiner Weise limitieren sollten (wie wahrscheinlich oder unwahrscheinlich das auch immer sein mag).
Ich seh' es schon kommen, die RTX 5080 mit 16GB und kurze Zeit später dann mit 24GB weil alle Schreien.
Was wäre so verkehrt daran, mal aus Fehlern zu lernen?
Hmm... sofern du ein aktuelles Netzteil hast, mit 1x 12VHPWR (oder besser 12V2x6) und etlichen achtpoligen Versorgungssträngen für Nicht-NVidia-Grafikkarten - was spräche elektrisch gegen eine Verbindung auf 12VHPWR und einer Verbindung per Adapter von 3-4x PCIe auf 12VHPWR?
Ich seh' es schon kommen, die RTX 5080 mit 16GB und kurze Zeit später dann mit 24GB weil alle Schreien.
Was wäre so verkehrt daran, mal aus Fehlern zu lernen?
So lange die Karten gekauft werden, war es aus Nvidias Sicht auch kein Fehler.
Ich würde da auch erst mal den Preis abwarten. Ich finde 16 GB zwar auch nicht angemessen, aber wie inakzeptabel die am Ende wirklich sind, hängt schon auch vom Preis ab.
Wenn Nvidia eine höhere Leistung anbietet, dann sind das halt nicht nur 10%, wie von dir so lapidar dahingesagt, sondern halt im GPU Limit 35-100%, oder bei PT noch mehr, je nachdem was eine 4090 mehr leistet als eine 7900XTX. Und dann zahlt man logischerweise auch den Aufpreis.
Das hat nichts mit "Next Level Kundenverarsche" zu tun, sondern mit realen Metriken.
Man ist in der Lage mehr Geld dafür zu verlangen und genau das hat RexCorvus gesagt. Das ist doch völlig legitim, egal um welche Firma es sich handelt.
Spike S. schrieb:
Was für ein Management? Und wo steht das die 8800XT auch so mager daher kommen soll? Würde mich wundern.
V-RAM Management. Das ist bei Nvidia etwas effektiver. Mit 32GB wird die 8800XT wohl kaum kommen.
16GB stehen schon fest, die Produkte sind längst in den ERPs gelistet.
Spike S. schrieb:
Ich zwinge niemanden. Ja, die 4090 und mutmaßlich die 5090 sind ohne ernstzunehmende Konkurrenz. Allerdings nicht alternativlos, nicht zu kaufen ist auch immer eine Option.
Kommt halt ganz anders rüber. Die Kunden kaufen das, was ihnen mehr zusagt.
Das Portemonnaie "aufhalten" und "ja und amen sagen" finde ich reichlich hanebüchen, wenn man bei der Konkurrenz teilweise noch weniger fürs Geld bekommt.
Also ich spiel aktuell Diablo 4 mit 3860x1600 Auflösung (also noch nichtmal UHD) und komme problemlos an die 21GB VRAM Auslastung. Ich hätt bei einer neuen Karte schon gern kein Downgrade gegenüber einer RTX3090^^.
Aus NVidias Sicht ist es nie ein Fehler, ich glaube, das ist das Problem.
Die 5080 wird leistungstechnisch eine 4K-Gaming Karte sein und da sind 16GB einfach zu wenig.
Also ich spiel aktuell Diablo 4 mit 3860x1600 Auflösung (also noch nichtmal UHD) und komme problemlos an die 21GB VRAM Auslastung. Ich hätt bei einer neuen Karte schon gern kein Downgrade gegenüber einer RTX3090^^.
Speicher der da ist, wird halt auch vollgeschaufelt, aber mir wäre jetzt neu, dass Diablo IV auf 20- oder 16-GB-Karten - selbst in UHD - ernsthaft mit VRAM-Mangel zu kämpfen hat.
Aber klar, natürlich stünden einer 5080 jenseits der 1000 Euro-Marke mehr VRAM als bei einer 5060Ti oder 5070Ti äußerst gut zu Gesicht, gar keine Frage.
Also ein Spiel mit lokalem LLM und beides teilt sich den VRAM? Kann ich mir nicht vorstellen, selbst in einem Zeitraum von 5-8 Jahren. Wenn das kommt, dann zunächst als Cloudlösung und ggf. dann als kostenpflichtiges Abo.
Über zuwenig VRAM kann man sprechen, aber wohl kaum in diesem Kontext.
Vielleicht sind bei manchen die allg. Ausgaben einfach nur recht gering, bei einem durchschnittlichen Einkommen, weil man an anderer Stelle sehr genügsam ist.
Die 3080 hatte 384 Bit Anbindung.
Bei den Preisen verstehe ich nicht, warum sie nicht 512 Bit machen, wenn sie schon nur 16 GB Speicher verbauen. Wenn nicht viel, dann wenigstens maximalen Durchsatz. 512 Bit gab es schon 2005? Damals bei 1000 € Karten?
Wenn ich das richtig verstanden habe, dann sind Speichergröße+Anbindung doch immer direkt abhängig von der Anzahl und Kapazität der Speicherchips und deren einzelner Anbindung.
Und RTX5090/80 verwenden Speicherchips mit 2 GByte Kapazität und 32 Bit Anbindung.
zB 16 Chips mit je 32 Bit Anbindung und 2 GByte pro Chip ergeben 32 GB mit 512 Bit
Bei der RTX 3080 nimmt man die gleichen Chips, aber nur 8 Stück und somit 16 GB mit 256 Bit
Mit mehr von den gleichen Chips würde man somit gleichzeitig Kapazität und Anbindung erhöhen.
zB mit 10 Chips kommt man auf 20 GB mit 320 Bit
oder mit 12 Chips auf 24 GB und 384 Bit.
Mit mehr Speicherchips steigen aber auch die Komplexität und Kosten der Platine.
Im Laufe des Jahres sollen wohl 3 GByte Chips rauskommen, dann könnte eine RTX5080ti ggf. 8 davon haben und somit 24 GB mit 256 Bit.
Genau diese Karte fehlt eben im Portfolio. Ob das nu Kalkül bei Nvidia ist, um die Verkäufe der RTX5090 nicht zu sehr zu beschneiden, oder ob die 3GB GDDR7 Chip noch nicht in ausreichender Anzahl und Geschwindigkeit vorhanden sind? Who knows :>.
Die RTX 3080 10GB war für ein UVP von 699€ zu haben und ich habe sie für 830€ bekommen, danach gingen die Preise rapide nach oben aber das Mining damals war einzig alleine daran schuld!
Naja, eine 4070 mit 12GB gab es jetzt auch schon länger, immer mal wieder, für ca. 500€. Am Ende hatte meine 1070 schon 8GB und 4 Jahre später kam dann eine 3070 für mehr Geld mit ebenfalls 8GB raus. Eine 3070 mit 10GB und eine 3080 mit 12GB wären damals deutlich angemessener.
Aber über 12GB/16GB meckern und die 8GB/10GB loben ist etwas komisch. Da liegen 2 Jahren zwischen. Und wie gesagt, dazu die deutlich gestiegene Effizienz. Das war quasi ein Sprung von 2 normalen Generationen.
Es ist schon faszinierend, wie Nvidia immer wieder zuverlässig den VRAM-Punkt trifft, an dem sich die Leute in Foren die Köpfe einschlagen.
Ich meine, bei 12 GB für die 4080 wären sich alle einig gewesen, dass es zu wenig ist; 20 GB hätten wohl die allermeisten akzeptiert. Aber bei 16 GB scheiden sich genau die Geister. Ähnlich wie schon bei den 12 GB einer 4070 oder den 10 GB einer 3080.