News Fauxpas bei Zotac: Webseite nennt RTX 5090, 5090D, 5080, 5070 Ti und 5070

Maxminator schrieb:
nun ja, gerade habe ich den Vergleich zwischen RTX 3090 und RTX 4080 reingezogen und war förmlich baff!
Zum Teil über 35% Plus! Das nenne ich ein Generationsplus!

Sollte die 5080 annährend so die RTX 4090 schlagen, dann gute Nacht!
Erklär uns bitte deine Logik.

3090->4080 = +35%
4090->5090 = +100%?

Sollte die 5080 die 4090 also annähernd so schlagen, fann fehlen zu deiner Vermutung immer noch satte 65 Prozentpunkte.
Ergänzung ()

Maxminator schrieb:
Backwell wird wohl die erste reinrassige Ai-RT-Architektur werden.
Quelle bitte.
 
  • Gefällt mir
Reaktionen: SweetOhm
raychan schrieb:
Bin gespannt auf die 5070 TI wegen den 16GB VRam. Hoffe die wird auch mit angekündigt. Würde gerne von meiner 3070 auf die 5070 TI wechseln, da die 8GB Vram bei mir das größte Problem sind.
Ich würde so lachen wenn nVidia nochmal mit dem GTX970 Trick um die Ecke kommen würde und vram einbaut der zweiteilig angebunden ist, einmal langsam und einmal schnell und man dann effektiv von 16GB nur 12 nutzen kann und 4GB Zierde sind auf der Karte 🥳
 
Maxminator schrieb:
was hat der Fertigungsprozess mit der ARCHITEKTUR der Implementierung von RT-Einheiten zu tun? Ja, richtig sehr wenig!
Es spielen immer Fertigung UND Architektur zusammen. Ändert sich eins nicht stark, muss Mehrleistung aus dem anderen kommen. Deshalb ist es völlig unrealistisch, bei Hopper so enorme Zuwächse zu erwarten.

Sicherlich wird Nvidia irgendwelche massiven Zuwächse verkünden, wie üblich werden diese sich aber auf sehr spezifische Workloads beziehen, die in der Gesamtperformance nur einen Teil ausmachen.
Ergänzung ()

floTTes schrieb:
Von VRAM-Geiz kann man objektiv erst seit Lovelace reden.
Ich stelle frech in den Raum, dass man mindestens seit Kepler von Vram Geiz reden kann, mit Pascal als angenehme Ausnahme zwischendurch.

Zu sehen daran, dass es bei nahezu jeder Nvidia Generation der letzten 10+ Jahre Diskussionen gab, ab wann es akzeptabel ist, auf teuren Karten speicherhungrige Settings reduzieren zu müssen.

Aber das gehört nunmal zum Geschäftsmodell. Man muss dem Kunden regelmäßig Anreize zum Neukauf schaffen. Vram Kapazität auf Kante nähen ist da eine einfache Möglichkeit. Und gleichzeitig immer neue Software Features bringen, die mehr Speicher benötigen. Das ergänzt sich gut und erlaubt dann auch enorme Zuwächse im Marketing zu versprechen.
Gerade genug vram, dass die Zeit bis zur nächsten Generation gut gespielt werden kann, danach muss man dann schrittweise Settings reduzieren, obwohl die Kernleistung eigentlich noch für mehr reichen würde.

Das wirst du nun sicher verneinen. Man ist ja heute in der Minderheit, wenn man bei hohen Preisen auch ausgewogene Leistungsdaten für langjährige Nutzung erwartet.
Ergänzung ()

floTTes schrieb:
Mit dem Rebranding der Titan-Karten sind die xx80 zur Performance/High-End-Klasse degradiert worden.

Die xx90-Karten habe ihre eigene Klasse. Das ist von nVidia von Beginn an klar kommuniziert und forciert worden.
Wie Nvidia ihre Kategorien umdefinieren ist mir egal. Der hohe Preis bleibt. Wenn der Kunde vierstellig latzen soll, dann ist es schlichtweg peinlich, die Speicherkapazität so restriktiv zu gestalten.
Nochmal: vor 4 Jahren schon gab es 16GB ab 600€ bei der Konkurrenz. Nvidia verkauft dir mit einer 5080 bald die gleiche Kapazität zum doppelten Preis.
Stolze Summen, und vor Launch der 6000er Serie haben wir dann mal wieder die seit Jahren gleichen Diskussionen, ob es akzeptabel ist, auf diesen Karten schon so früh so stark Settings reduzieren zu müssen?

Wie kann man das verteidigen?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
PeacemakerAT schrieb:
So und eine 3070 bzw 3070 Ti mit 8GB fällt objektiv nicht da rein?
Richtig. Das Speicher-Interface hätte dafür anders ausfallen müssen. Dann wäre die Bandbreite aber mglw. nicht mehr ausreichend gewesen.

Andernfalls hätte man doppelt so große VRAM-Chips (wie bei der 3060) nehmen müssen. Die 3080 hätte dann schon 24GB VRAM gehabt und die 3090 (Ti) ihr Alleinstellungsmerkmal verloren.

Eine 3080 mit 20GB VRAM wäre möglich aber teurer gewesen. Hätte allerdings das Preisgefüge und die Upselling-Strategie von nVidia verändert. Da bei nVidia (AG) nicht nur Techniker und Ingenieure arbeiten, kann man das wirtschaftliche Vorgehen schon verstehen.

So einfach ist das alles nicht. Mich stört auch nicht, dass die Leute sich aufregen. Sondern, dass sie trotzdem kaufen. :freak:

Das ist inkonsequent. Damit gibt man nVidias Preispolitik halt das Go.

PeacemakerAT schrieb:
nVidia hat halt perfektioniert den Leuten das Geld aus der Tasche zu ziehen.
Da haben Influencer, Redaktionen, Game-Tester und Konsumenten aber einen viel größeren Anteil dran. :freak:

Powl_0 schrieb:
Ich stelle frech in den Raum, dass man mindestens seit Kepler von Vram Geiz reden kann, mit Pascal als angenehme Ausnahme zwischendurch.
Es gab auch jahrelang Diskussionen über diese "Schummel"-Grafikkarten: doppelt so viel DDR3-VRAM anstatt GDDR3 usw.

Pascal war super, stimmt.

Powl_0 schrieb:
Zu sehen daran, dass es bei nahezu jeder Nvidia Generation der letzten 10+ Jahre Diskussionen gab, ab wann es akzeptabel ist, auf teuren Karten speicherhungrige Settings reduzieren zu müssen.
Bei dieser Diskussion werden aber ganz gern mal min. 2 Faktoren außer Acht gelassen, für die nVidia gar nichts kann.
  • 1. VRAM-Verbrauch liegt alleine in der Hand der Spiele-Entwickler. Der Trick das zu kompensieren, ist ganz einfach: ein Regler bei den Textur-Settings. Redaktionen und Gamer hassen diesen Trick.
  • 2. verfrühtes Upgrade auf (W)QHD/UHD. Wer Qualität will, soll auch zahlen.
Richtig ist, dass es zu Kepler-Zeiten eine 760 mit 4GB VRAM gab. Mit mehr VRAM als die höheren Modelle also.
Jetzt wird's so richtig fancy: wieso wurde die nicht gekauft? Bessere Effizienz, besserer Preis, mehr VRAM!
nVidia hat also eine "Falle" gestellt und der Konsument tappte blindlings rein. Da sehe ich mindestens schon zwei Schuldige: "Fool me once, [...]"

Powl_0 schrieb:
Aber das gehört nunmal zum Geschäftsmodell.
Da sind wir einer Meinung. nVidia macht aus dieser Sicht alles richtig.
nVidia muss nicht freundlich sein. Die wollen verkaufen, verkaufen, verkaufen, verkaufen.

Powl_0 schrieb:
[...] die Zeit bis zur nächsten Generation gut gespielt werden kann, danach muss man dann schrittweise Settings reduzieren, obwohl die Kernleistung eigentlich noch für mehr reichen würde.
Echt jetzt? Man muss einen Regler bedienen? Das ist ja die Härte!

Powl_0 schrieb:
Man ist ja heute in der Minderheit, wenn man bei hohen Preisen auch ausgewogene Leistungsdaten für langjährige Nutzung erwartet.
Wieso sollte nVidia das wollen? Ich verteidige nVidia nicht. Es wäre aus wirtschaftlicher Sicht nur dumm, Umsatz und Marge liegen zu lassen. Es gibt doch genügend willige Käufer.

Powl_0 schrieb:
Wie Nvidia ihre Kategorien umdefinieren ist mir egal. Der hohe Preis bleibt. Wenn der Kunde vierstellig latzen soll, dann ist es schlichtweg peinlich, die Speicherkapazität so restriktiv zu gestalten.
Mir sind die Kategorien auch egal. Ebenso wie der Preis. Markt und Nachfrage bestimmen den Preis.
Wenn nVidia entscheidet, dass eine 5060 nun 666€ kosten soll, kann der mündige Konsument das ganz einfach regeln: Man stimmt dem Opt-In nicht zu.
Ist ja nicht mal Opt-Out - von müssen oder sollen kann also keine Rede sein.

Powl_0 schrieb:
Wie kann man das verteidigen?
Wirtschaftliches Denken ist für ein Unternehmen essentiell. Dem Konsumenten wird ja nichts weggenommen.

Ich versuche nur eine Balance herzustellen.
Fackeln und Mistgabeln? Gerne! Dann aber auch erstmal alle "verbrennen", die mit Schuld dran sind.

/edit
Habe ich gerade eine 4090 in deiner Signatur gesehen? Ist nicht sein Ernst! :freak:
4090 kaufen und über nVidia meckern passt nun mal gar nicht in ein paar Schuhe.
Ist ja die Härte! Schlimmer als Regler zu bedienen!
 
Zuletzt bearbeitet:
floTTes schrieb:
Upselling-Strategie von nVidia verändert
Merkste also selbst? Die unteren Karten werden absichtlich unausgewogen aufgestellt, dass der Kunde entweder richtig tief in die Tasche greifen muss, oder eben früher wieder aufrüsten. Zumindest wenn er Bildqualität möchte, die zum aufgerufenen Preis passt...

Also gibts nun doch vram geiz?
 
  • Gefällt mir
Reaktionen: SweetOhm
was bei RTX 5090 zum Problem werden könnte ist, dass der Chip zum ersten Mal quasi zusammengeklebt aus 2 RTX 5080 Chips sein wird.

Dieser Umstand könnte relativ schlecht bei Gaming auswirken. Vielleicht nicht bei RT aber im klassischen Rendering?
 
floTTes schrieb:
haben Influencer, Redaktionen, Game-Tester und Konsumenten aber einen viel größeren Anteil dran
Naja, woher kommt denn deren Werbematerial, deren Review Guides, etc?
Aus wirtschaftlicher Sicht muss man Nvidia höchsten Respekt zollen, ihre Marketingabteilung sind seit locker 10 Jahren absolute Genies. So ein starkes Brand Image muss man erstmal schaffen. Und das meine ich tatsächlich völlig ernst.
 
  • Gefällt mir
Reaktionen: SweetOhm und floTTes
Er schreibt einfach nur Müll, sollte man langsam mal verstanden haben 😂
 
  • Gefällt mir
Reaktionen: Madcat69 und ElliotAlderson
ich gucke jede Jensen Hung Präsentationen!
 
floTTes schrieb:
Richtig. Das Speicher-Interface hätte dafür anders ausfallen müssen. Dann wäre die Bandbreite aber mglw. nicht mehr ausreichend gewesen.
Und das sind jetzt keine Dinge die schon ganz am Anfang einer Produktentwicklung mitgedacht werden können? Denkst du die entwickeln mal ins Blaue einen Chip und versuchen dann am Ende wie man den am blödesten auf eine Platine klatscht und haben dann ein fach Pech das sich im Low/Mid Tier nicht besseres ausgeht?
 
krille84 schrieb:
Er schreibt einfach nur Müll, sollte man langsam mal verstanden haben 😂
du hast gerade Müll geschrieben!
Ich stelle meine Vermutungen auf.
Und das der RTX 5090 Chip aus 2 RTX 5080 Chips besteht war schon lange klar. Es handelt sich hier natürlich nicht um Chipplets aber dennoch!
 
Aktuell habe ich eine msi supreme 3080ti 12 GB. Spiele kein Flugsimulator und auf den ersten Blick scheint es, das es für mich kein Update ist auf eine 5080. Ich müste ja schon die 5090 holen um einen Unterschied zu merken?! Man sagt ja immer 30% Mehrleistung und dann kann man getrost aufrüsten.
 
krille84 schrieb:
Bin auch am überlegen, meine 4090 zeitnah zu verkaufen.
Dito. Hängt bei mir aber auch ein bisschen davon ab wie sich die 4090 bei der 5080 und 5090 platziert.
Ich gehe aktuell nicht davon aus das die 5080 schneller als die 4090 wird. Ich sehs bei der Config einfach nicht.
Die Karte hat noch immer einen recht geringen Corecount gegenüber der 4090 und die Fertigung soll ja keine großen Sprünge machen (reine Rasterperf).
Bei Raytracing siehts mit hoher Wahrscheinlichkeit anders aus. IMO geh ich mal davon aus das die 5080 <10% unter der Rasterperf der 4090 und 10-15% in RT über ihr liegt.
 
Zuletzt bearbeitet:
Maxminator schrieb:
du hast gerade Müll geschrieben!
Ich stelle meine Vermutungen auf.
Und das der RTX 5090 Chip aus 2 RTX 5080 Chips besteht war schon lange klar. Es handelt sich hier natürlich nicht um Chipplets aber dennoch!
Vermuten und behaupten sind zwei paar Schuhe mein Lieber.
 
  • Gefällt mir
Reaktionen: ElliotAlderson
Dark9 schrieb:
wenn ich mir die tabelle so anschaue, können die diese 5070 Ti getrost weglassen, die wird niemand kaufen. würde gleich zur 5080 schwenken
im Gegenteil. Ich denke die 5070TI wird das bessere Jedermann-Modell werden. die paar Prozentpunkte Mehrleistung der 5080 werden vernachlässigbar sein, das Wichtige der 5070TI ist der grössere Vram dürch den sie langlebiger wird. - Mit custom OC wird man sogar noch näher an die 5080 kommen.

Wer mehr Rohleistung braucht wird gleich zur 5090 greifen.
 
  • Gefällt mir
Reaktionen: ruthi91, Dark9, GRB221009A und 3 andere
PeacemakerAT schrieb:
Und das sind jetzt keine Dinge die schon ganz am Anfang einer Produktentwicklung mitgedacht werden können? Denkst du die entwickeln mal ins Blaue einen Chip und versuchen dann am Ende wie man den am blödesten auf eine Platine klatscht und haben dann ein fach Pech das sich im Low/Mid Tier nicht besseres ausgeht?
Das ist doch keine Frage des Designs. Ich vermute, dass die Techniker/Ingenieure bei nVidia auch Bock hätten "bessere" Karten zu bauen.
Die Entscheidung wird für gewöhnlich aber auf anderer Ebene getroffen.

Powl_0 schrieb:
Merkste also selbst?
Ja natürlich merke ich das. Ich kann dem Upselling aber widerstehen.*
Seit Jahren denke ich über ein Upgrade auf (W)QHD nach. Dieses Jahr wird es auch wieder nichts.

*Das ist natürlich mein Problem mit der Erwartungshaltung gegenüber der Gesellschaft und anderen Konsumenten.

Powl_0 schrieb:
Also gibts nun doch vram geiz?
Das Wort "Geiz" wird der Komplexität das Sachverhaltes imho nicht gerecht.
Es scheint mir so, dass man den schwarzen Peter damit sehr einfach und bequem nVidia zuschieben möchte. Es widerspricht meinem Gerechtigkeitssinn alle anderen "Schuldigen" ungeschoren davonkommen zu lassen.

Aber um des Frieden mit der Fackel-und-Heugabel-Fraktion Willens, nennen wir es "Geiz".
Der Konsument nutzt seine "Macht" nicht.
Ich würde erstmal das Dorf niederbrennen bevor ich zu Dr. nVidia aufbreche.*

*Diese Anspielung bezieht sich auf Dr. Frankensteins Monster - nicht auf Gewaltverherrlichung!
 
Zuletzt bearbeitet:
floTTes schrieb:
Es scheint mir so, dass man den schwarzen Peter damit sehr einfach und bequem nVidia zuschieben möchte.
Soweit ich weis entscheidet alleine nVidia wieviel VRAM mit einem Chip genutzt werden kann, oder gibts da Spielraum bei der Deutung?
 
  • Gefällt mir
Reaktionen: SweetOhm
@PeacemakerAT,
das ist aber schon fast polemisch.
nVidia hat über die Größe des VRAMs entschieden, richtig.
nVidia gängelt sogar die Hersteller von custom Modellen. Das ist tatsächlich fies, wirtschaftlich aber clever. Die Leidtragenden sind in erster Linie die Hersteller, nicht die Konsumenten.
Da hätten wir einen Schuldigen also schon mal identifiziert.

Man munkelt, dass nVidia auch Schuld ist, dass manche Leute eine 4070 Super mit nur 12GB VRAM in ihrem Rechner haben. Vielen unschuldigen PC-Usern wurde diese heimlich durch nVidia-Ninjas eingebaut!
Hier hätten wir den zweiten Schuldigen: die nVidia-Ninjas!
Also brauchen wir schon zwei schwarze Peter!

Der dritte schwarze Peter geht an Game-Entwickler, die so dreist sind hochauflösende Texturen anzubieten. Frechheit!

Ist doch 'ne Super-Karte für FHD. Käme ja wohl niemand auf die Idee das Teil für (W)QHD oder höher zu missbrauchen. :freak:

Natürlich ist das ad hominem.
Es soll als Beispiel dienen, dass es Leute gab, die sich eine 4070 Super kauften, die so ziemlich zeitgleich mit der 4070 Ti Super auf den Markt kam. Letztere hat 16GB VRAM. Wieso also die 4070 Super kaufen und sich dann über VRAM-Mangel beschweren?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Dark9
Zurück
Oben