News Fauxpas bei Zotac: Webseite nennt RTX 5090, 5090D, 5080, 5070 Ti und 5070

Ich wünsche mir einfach drei 5090 vom Christkind...War auch total brav das ganze Jahr über!!!
 
  • Gefällt mir
Reaktionen: GOOFY71
Wenn die das Christkind bringen soll, dann kommen die frühestens zu Weihnachten 2025 bei Dir an.
 
  • Gefällt mir
Reaktionen: AleXtrem, lapulapu, GOOFY71 und eine weitere Person
ich_heisse_Shag schrieb:
mit einer 5080 hat man immer noch weniger RAM als mit einer 3090. Und das bei mehr Stromverbrauch...
Eine 5080 ist ja auch keine wahre 80er Karte mehr, sondern eine 70er maximal.
Die hat ohne Wattkorsett nur 50% Leistung einer 90!
Die Zeiten sind vorbei, wo eine Ti 35% schneller war und dann in der nächsten Generation dann von einer 70 knapp erreicht wurde.
Was zeigt uns sonst noch die Liste?
Nämlich, dass dann alle Karten außer der 90er mal wieder kaum an Leistung gewinnen werden.
Dadurch dürfte es AMD relativ leicht falln dran zu bleiben, auch wenn man absichtlich die 90 ganz vorne ihre Kreise drehen lässt.
Aber es wird auch niemand unbedingt 2000 Euro für eine AMD Karte bezahlen wollen, denn die Leute mit dem Geld wollen dann auch alle Raytracing-Features im vollen Umfang ind möglichst vielen Spielen.
Fragt euch mal, was ein Chip der 4ten Klasse in einer 5070 zu suchen hat.
Es gab Zeiten, das war das der abgespeckte 2te Chip.
4ter Chip riecht nach 50er.
Dummheit kauft trotzdem, selbst wenn da dann 500 oder 600 Euro dran stehen.
Das ist Umlabeln und Preissteigerung in Perfektion.
 
Zuletzt bearbeitet:
wenn du die GDDR7 Speicher steckbar machst, dann machst du aus GDDR7 direkt GDDR5 raus ;)
 
bLu3to0th schrieb:
Vor einem Jahr gab es auch von Nvidia schon 16GB für unter 500€ (RTX4060ti 16GB).
Imo ist die 4060Ti ne Krücke, da helfen auch die 16GB nicht.

Für ungefähr das gleiche Geld gibt es ne 40% schnellere 7800XT.

Imo ist Nvidia erst ab der 4070S und der 4070Ti Super eine Option

Edit: Das ganze bezogen auf Gaming.
 
Zuletzt bearbeitet:
Die trauen sich also wirklich, eine halbe 5090 als 5080 zu bezeichnen.
Mal sehen was von der Hardwaredifferenz dann wirklich auf die VR Brille (Straße ;-)) kommt.
Ansonsten könnte man vermuten, Nvidia hat die Speicherbandbreite als Ursache für die deutliche Unterperformance der 4090 gegenüber der 4080 identifiziert.
Diese konnte ja ihre mehr als 60% mehr Shader meist nur in 20-30% Mehrleistung umsetzen.
Dieses Thema wird bis heute in den "Fachredaktionen" totgeschwiegen und wurde ja bald erfolgreich ausgesessen.
 
  • Gefällt mir
Reaktionen: PegasusHunter
also, ich habe mit RTX 3090Fe gute 4 Jahre "überlebt" und das relativ gut!

Die RTX 5090 nicht zuletzt wegen 32GB sollte dann gute 6 Jahre aushalten: RTX 5090 wird meine GTA6-Karte... Da werden wahrscheinlich die 32GB sehr passend werden.
Ach ja: meine Auflösung bleibt für die nächste 6 Jahre bei 3440x1440p - habe mir gerade erst ein schönen 240Hz-WOLED-Monitor gegönnt ;)
Ja, richtig - gute 2 Generationen überspringen will ich mit der Karte.

Dann direkt auf RTX 8090 mit 64GB in TSMC 1,6nm Prozess
Ergänzung ()

Woody17 schrieb:
Die trauen sich also wirklich, eine halbe 5090 als 5080 zu bezeichnen.
Mal sehen was von der Hardwaredifferenz dann wirklich auf die VR Brille (Straße ;-)) kommt.
Ansonsten könnte man vermuten, Nvidia hat die Speicherbandbreite als Ursache für die deutliche Unterperformance der 4090 gegenüber der 4080 identifiziert.
Diese konnte ja ihre mehr als 60% mehr Shader meist nur in 20-30% Mehrleistung umsetzen.
Dieses Thema wird bis heute in den "Fachredaktionen" totgeschwiegen und wurde ja bald erfolgreich ausgesessen.
Und nicht vergessen, dass die RTX 5080 wahrscheinlich 1,15x Taktrate einer RTX 5090 abbekommt. Wenn nicht sogar 1,2x!
 
Andregee schrieb:
Ach du bist also niemand? Ich habe mich ja schon immer gefragt, wer das ist 😁
Ganz genau, mein Name ist Nobody🤣
 
Knobi Wahn schrieb:
Imo ist die 4060Ti ne Krücke, da helfen auch die 16GB nicht.

Für ungefähr das gleiche Geld gibt es ne 40% schnellere 7800XT.

Imo ist Nvidia erst ab der 4070S und der 4070Ti Super eine Option
Krücke ist Ansichtssache.. meine alte RX570 schlägt sie um Längen und CUDA kann ich damit auch endlich nutzen - was ich auch mit der 7800XT nicht nutzen könnte.
Gerade im Bereich KI gibt's nun mal keinen Bogen um CUDA und da braucht man viel VRAM.

Was nutzt mehr Leistung, wenn man sie nicht nutzen kann.

Die Graka-Preise sind jedenfalls mittlerweile jenseits von Gut und Böse
 
GrumpyDude schrieb:
ich habe für die nächsten 5 Jahre Ruhe
hehehe..wann hat das zuletzt den so gestimmt??
schafft es die 4090 dahin? immerhin ist die gpu jetzt gute 2 jahre alt..
 
AleXtrem schrieb:
Ich wünsche mir einfach drei 5090 vom Christkind...War auch total brav das ganze Jahr über!!!
Ich wollte auch Millionär werden. Als ich die erste Millionen nicht zusammenbekommen habe, bin ich mit der zweiten angefangen. :D
 
  • Gefällt mir
Reaktionen: AleXtrem und Maxminator
bLu3to0th schrieb:
Die Graka-Preise sind jedenfalls mittlerweile jenseits von Gut und Böse
Liegt aber auch nur am Endnutzer, die immer das neuste und beste wollen und dafür auch genug bezahlen...
 
Hmm... also wird das gesamte Lineup mit 2GB-Chips auf den Markt gebracht - sind die größeren Chips noch nicht verfügbar, oder will sich Nivea dieses Feature für den SUPER (all caps!) - Refresh aufbewahren?
 
floTTes schrieb:
Wieso also die 4070 Super kaufen und sich dann über VRAM-Mangel beschweren?
Weil nicht jeder der Upselling Strategie verfällt, sondern zu einem Preisrahmen einkauft wo man sich noch einigermaßen wohl fühlt. Zudem gehöre ich nicht zu den Leuten die in jedem Game 240FPS benötigen.

Trotzdem sind die 12GB bei der Rohleistung nicht gerade üppig und dafür kann man nVidia zu Recht kritisieren.
Es ist nicht gerade so als würden sie an der Grafikkarte viel weniger verdienen, wäre der Speicherausbau größer, aber so hat man halt in der nächsten Gen wieder mehr potentielle Kunden.
 
  • Gefällt mir
Reaktionen: fwsteiner und Cyberpunk61
Dark9 schrieb:
wenn ich mir die tabelle so anschaue, können die diese 5070 Ti getrost weglassen, die wird niemand kaufen. würde gleich zur 5080 schwenken
Das ist neben der 5090 die beste Karte der Reihe.
Die 5080 ist doch nur eine 4090 mit zu wenig RAM, für die Leistung sind 16GB zu wenig was die zur sinnloseste Karte überhaupt macht.
Bevor man die kauft nimmt man entweder gleich die 5090 oder greift eher zur 5070ti die halbwegs passenden Speicher für ihre geschätzte Leistung hat.
Die 5080 macht nur Sinn wenn DLSS4 einen Upscaler für Texturen mitbringt um den VRAM zu entlasten.
 
Shio schrieb:
Dito. Hängt bei mir aber auch ein bisschen davon ab wie sich die 4090 bei der 5080 und 5090 platziert.
Ich gehe aktuell nicht davon aus das die 5080 schneller als die 4090 wird. Ich sehs bei der Config einfach nicht.
Die Karte hat noch immer einen recht geringen Corecount gegenüber der 4090 und die Fertigung soll ja keine großen Sprünge machen (reine Rasterperf).
Bei Raytracing siehts mit hoher Wahrscheinlichkeit anders aus. IMO geh ich mal davon aus das die 5080 <10% unter der Rasterperf der 4090 und 10-15% in RT über ihr liegt.
Ich würde jetzt die Vorweihnachtszeit dazu nutzen. Sobald die neuen Modelle verfügbar sind wird es einen deftigen Abschlag auf die Gebrauchtpreise geben.

Habe meine 4090 vor 2 Wochen verkauft und beschränke mich nun einfach 1 Monat auf die IGP oder eine meiner alten Schätze :)
 
  • Gefällt mir
Reaktionen: Shio
cypeak schrieb:
hehehe..wann hat das zuletzt den so gestimmt??
schafft es die 4090 dahin? immerhin ist die gpu jetzt gute 2 jahre alt..
Ob das stimmt, hängt ausschließlich von der Bereitschaft ab, in der zweiten Lebenhälfte einer Karte die Regler eben auch mal nach links zu schieben. Meine 4090 ist auf 6-8 Jahre ausgelegt, und wenn ich sehe, wie lange ich Vorgängerkarten genutzt habe, wird das auch überhaupt kein Problem sein - am Ende dann halt natürlich nicht mehr in Ultra-Max-Superduper-UHD. Erst recht kein Problem, da aufgrund eines weiterhin ständig wachsenden PoS, der Anteil älterer Spiele, die ich spiele, ebenfalls ständig wächst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: calippo
Maxminator schrieb:
PS: war fast 7 Jahre bei festen 98FPS da ich ein 100Hz-IPS-Monitor hatte. Ok, mit G-Sync war es sehr erträglich - aber die 240Hz eines OLED-Panels stellt alles in den Schatten!

Glaube ich Dir, der Sprung von meinem 144Hz IPS zu meinem jetzigen 120Hz OLED-TV war auch spürbar, das lag aber weniger an der Hz an sich, sondern mehr an der Reaktionszeit, da die Pixel reaktionsschneller und das Bild daher schlierenfrei ist. Ich behaupte mal, dass zwischen 120Hz bei mir und 240Hz bei Dir eigentlich kein spürbarer Unterschied mehr vorhanden ist. Und wenn Du den Teiler gerade setzt, dann dürfte bei Dir 120 Fps genauso aussehen wie 240 Fps. Kannst Du ja vielleicht mal testen. Dürfte Strom sparen und die Alterung der OLED-Subpixel nach hinten raus schieben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Maxminator
Zurück
Oben