Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Fauxpas bei Zotac: Webseite nennt RTX 5090, 5090D, 5080, 5070 Ti und 5070
- Ersteller Jan
- Erstellt am
- Zur News: Fauxpas bei Zotac: Webseite nennt RTX 5090, 5090D, 5080, 5070 Ti und 5070
SuperHeinz
Commander
- Registriert
- März 2023
- Beiträge
- 2.608
Wenn die das Christkind bringen soll, dann kommen die frühestens zu Weihnachten 2025 bei Dir an.
Eine 5080 ist ja auch keine wahre 80er Karte mehr, sondern eine 70er maximal.ich_heisse_Shag schrieb:mit einer 5080 hat man immer noch weniger RAM als mit einer 3090. Und das bei mehr Stromverbrauch...
Die hat ohne Wattkorsett nur 50% Leistung einer 90!
Die Zeiten sind vorbei, wo eine Ti 35% schneller war und dann in der nächsten Generation dann von einer 70 knapp erreicht wurde.
Was zeigt uns sonst noch die Liste?
Nämlich, dass dann alle Karten außer der 90er mal wieder kaum an Leistung gewinnen werden.
Dadurch dürfte es AMD relativ leicht falln dran zu bleiben, auch wenn man absichtlich die 90 ganz vorne ihre Kreise drehen lässt.
Aber es wird auch niemand unbedingt 2000 Euro für eine AMD Karte bezahlen wollen, denn die Leute mit dem Geld wollen dann auch alle Raytracing-Features im vollen Umfang ind möglichst vielen Spielen.
Fragt euch mal, was ein Chip der 4ten Klasse in einer 5070 zu suchen hat.
Es gab Zeiten, das war das der abgespeckte 2te Chip.
4ter Chip riecht nach 50er.
Dummheit kauft trotzdem, selbst wenn da dann 500 oder 600 Euro dran stehen.
Das ist Umlabeln und Preissteigerung in Perfektion.
Zuletzt bearbeitet:
bLu3to0th
Commodore
- Registriert
- Juli 2010
- Beiträge
- 4.473
Vor einem Jahr gab es auch von Nvidia schon 16GB für unter 500€ (RTX4060ti 16GB).Powl_0 schrieb:Nochmal: vor 4 Jahren schon gab es 16GB ab 600€ bei der Konkurrenz.
Ja, dieser VRAM-Geiz ist nervtötend.
Dann sollen sies halt machen wie beim Mobo und steckslots bereithalten damit man den tauschen/erweitern kann.
Maxminator
Lt. Commander
- Registriert
- Juni 2015
- Beiträge
- 1.947
wenn du die GDDR7 Speicher steckbar machst, dann machst du aus GDDR7 direkt GDDR5 raus
Knobi Wahn
Lt. Commander
- Registriert
- Okt. 2013
- Beiträge
- 1.527
Imo ist die 4060Ti ne Krücke, da helfen auch die 16GB nicht.bLu3to0th schrieb:Vor einem Jahr gab es auch von Nvidia schon 16GB für unter 500€ (RTX4060ti 16GB).
Für ungefähr das gleiche Geld gibt es ne 40% schnellere 7800XT.
Imo ist Nvidia erst ab der 4070S und der 4070Ti Super eine Option
Edit: Das ganze bezogen auf Gaming.
Zuletzt bearbeitet:
Die trauen sich also wirklich, eine halbe 5090 als 5080 zu bezeichnen.
Mal sehen was von der Hardwaredifferenz dann wirklich auf die VR Brille (Straße ;-)) kommt.
Ansonsten könnte man vermuten, Nvidia hat die Speicherbandbreite als Ursache für die deutliche Unterperformance der 4090 gegenüber der 4080 identifiziert.
Diese konnte ja ihre mehr als 60% mehr Shader meist nur in 20-30% Mehrleistung umsetzen.
Dieses Thema wird bis heute in den "Fachredaktionen" totgeschwiegen und wurde ja bald erfolgreich ausgesessen.
Mal sehen was von der Hardwaredifferenz dann wirklich auf die VR Brille (Straße ;-)) kommt.
Ansonsten könnte man vermuten, Nvidia hat die Speicherbandbreite als Ursache für die deutliche Unterperformance der 4090 gegenüber der 4080 identifiziert.
Diese konnte ja ihre mehr als 60% mehr Shader meist nur in 20-30% Mehrleistung umsetzen.
Dieses Thema wird bis heute in den "Fachredaktionen" totgeschwiegen und wurde ja bald erfolgreich ausgesessen.
Maxminator
Lt. Commander
- Registriert
- Juni 2015
- Beiträge
- 1.947
also, ich habe mit RTX 3090Fe gute 4 Jahre "überlebt" und das relativ gut!
Die RTX 5090 nicht zuletzt wegen 32GB sollte dann gute 6 Jahre aushalten: RTX 5090 wird meine GTA6-Karte... Da werden wahrscheinlich die 32GB sehr passend werden.
Ach ja: meine Auflösung bleibt für die nächste 6 Jahre bei 3440x1440p - habe mir gerade erst ein schönen 240Hz-WOLED-Monitor gegönnt
Ja, richtig - gute 2 Generationen überspringen will ich mit der Karte.
Dann direkt auf RTX 8090 mit 64GB in TSMC 1,6nm Prozess
Die RTX 5090 nicht zuletzt wegen 32GB sollte dann gute 6 Jahre aushalten: RTX 5090 wird meine GTA6-Karte... Da werden wahrscheinlich die 32GB sehr passend werden.
Ach ja: meine Auflösung bleibt für die nächste 6 Jahre bei 3440x1440p - habe mir gerade erst ein schönen 240Hz-WOLED-Monitor gegönnt
Ja, richtig - gute 2 Generationen überspringen will ich mit der Karte.
Dann direkt auf RTX 8090 mit 64GB in TSMC 1,6nm Prozess
Ergänzung ()
Und nicht vergessen, dass die RTX 5080 wahrscheinlich 1,15x Taktrate einer RTX 5090 abbekommt. Wenn nicht sogar 1,2x!Woody17 schrieb:Die trauen sich also wirklich, eine halbe 5090 als 5080 zu bezeichnen.
Mal sehen was von der Hardwaredifferenz dann wirklich auf die VR Brille (Straße ;-)) kommt.
Ansonsten könnte man vermuten, Nvidia hat die Speicherbandbreite als Ursache für die deutliche Unterperformance der 4090 gegenüber der 4080 identifiziert.
Diese konnte ja ihre mehr als 60% mehr Shader meist nur in 20-30% Mehrleistung umsetzen.
Dieses Thema wird bis heute in den "Fachredaktionen" totgeschwiegen und wurde ja bald erfolgreich ausgesessen.
Ganz genau, mein Name ist Nobody🤣Andregee schrieb:Ach du bist also niemand? Ich habe mich ja schon immer gefragt, wer das ist 😁
bLu3to0th
Commodore
- Registriert
- Juli 2010
- Beiträge
- 4.473
Krücke ist Ansichtssache.. meine alte RX570 schlägt sie um Längen und CUDA kann ich damit auch endlich nutzen - was ich auch mit der 7800XT nicht nutzen könnte.Knobi Wahn schrieb:Imo ist die 4060Ti ne Krücke, da helfen auch die 16GB nicht.
Für ungefähr das gleiche Geld gibt es ne 40% schnellere 7800XT.
Imo ist Nvidia erst ab der 4070S und der 4070Ti Super eine Option
Gerade im Bereich KI gibt's nun mal keinen Bogen um CUDA und da braucht man viel VRAM.
Was nutzt mehr Leistung, wenn man sie nicht nutzen kann.
Die Graka-Preise sind jedenfalls mittlerweile jenseits von Gut und Böse
cypeak
Captain
- Registriert
- Dez. 2013
- Beiträge
- 3.795
hehehe..wann hat das zuletzt den so gestimmt??GrumpyDude schrieb:ich habe für die nächsten 5 Jahre Ruhe
schafft es die 4090 dahin? immerhin ist die gpu jetzt gute 2 jahre alt..
Knobi Wahn
Lt. Commander
- Registriert
- Okt. 2013
- Beiträge
- 1.527
@bLu3to0th ich ändere es oben auf für Gaming ab.
GOOFY71
Lt. Commander
- Registriert
- Juni 2011
- Beiträge
- 1.742
Ich wollte auch Millionär werden. Als ich die erste Millionen nicht zusammenbekommen habe, bin ich mit der zweiten angefangen.AleXtrem schrieb:Ich wünsche mir einfach drei 5090 vom Christkind...War auch total brav das ganze Jahr über!!!
Gelöscht
Lt. Junior Grade
- Registriert
- Nov. 2010
- Beiträge
- 260
Liegt aber auch nur am Endnutzer, die immer das neuste und beste wollen und dafür auch genug bezahlen...bLu3to0th schrieb:Die Graka-Preise sind jedenfalls mittlerweile jenseits von Gut und Böse
PeacemakerAT
Commander
- Registriert
- Dez. 2018
- Beiträge
- 2.680
Weil nicht jeder der Upselling Strategie verfällt, sondern zu einem Preisrahmen einkauft wo man sich noch einigermaßen wohl fühlt. Zudem gehöre ich nicht zu den Leuten die in jedem Game 240FPS benötigen.floTTes schrieb:Wieso also die 4070 Super kaufen und sich dann über VRAM-Mangel beschweren?
Trotzdem sind die 12GB bei der Rohleistung nicht gerade üppig und dafür kann man nVidia zu Recht kritisieren.
Es ist nicht gerade so als würden sie an der Grafikkarte viel weniger verdienen, wäre der Speicherausbau größer, aber so hat man halt in der nächsten Gen wieder mehr potentielle Kunden.
Jethro
Commander
- Registriert
- Aug. 2010
- Beiträge
- 2.150
Das ist neben der 5090 die beste Karte der Reihe.Dark9 schrieb:wenn ich mir die tabelle so anschaue, können die diese 5070 Ti getrost weglassen, die wird niemand kaufen. würde gleich zur 5080 schwenken
Die 5080 ist doch nur eine 4090 mit zu wenig RAM, für die Leistung sind 16GB zu wenig was die zur sinnloseste Karte überhaupt macht.
Bevor man die kauft nimmt man entweder gleich die 5090 oder greift eher zur 5070ti die halbwegs passenden Speicher für ihre geschätzte Leistung hat.
Die 5080 macht nur Sinn wenn DLSS4 einen Upscaler für Texturen mitbringt um den VRAM zu entlasten.
Ich würde jetzt die Vorweihnachtszeit dazu nutzen. Sobald die neuen Modelle verfügbar sind wird es einen deftigen Abschlag auf die Gebrauchtpreise geben.Shio schrieb:Dito. Hängt bei mir aber auch ein bisschen davon ab wie sich die 4090 bei der 5080 und 5090 platziert.
Ich gehe aktuell nicht davon aus das die 5080 schneller als die 4090 wird. Ich sehs bei der Config einfach nicht.
Die Karte hat noch immer einen recht geringen Corecount gegenüber der 4090 und die Fertigung soll ja keine großen Sprünge machen (reine Rasterperf).
Bei Raytracing siehts mit hoher Wahrscheinlichkeit anders aus. IMO geh ich mal davon aus das die 5080 <10% unter der Rasterperf der 4090 und 10-15% in RT über ihr liegt.
Habe meine 4090 vor 2 Wochen verkauft und beschränke mich nun einfach 1 Monat auf die IGP oder eine meiner alten Schätze
Ob das stimmt, hängt ausschließlich von der Bereitschaft ab, in der zweiten Lebenhälfte einer Karte die Regler eben auch mal nach links zu schieben. Meine 4090 ist auf 6-8 Jahre ausgelegt, und wenn ich sehe, wie lange ich Vorgängerkarten genutzt habe, wird das auch überhaupt kein Problem sein - am Ende dann halt natürlich nicht mehr in Ultra-Max-Superduper-UHD. Erst recht kein Problem, da aufgrund eines weiterhin ständig wachsenden PoS, der Anteil älterer Spiele, die ich spiele, ebenfalls ständig wächst.cypeak schrieb:hehehe..wann hat das zuletzt den so gestimmt??
schafft es die 4090 dahin? immerhin ist die gpu jetzt gute 2 jahre alt..
Zuletzt bearbeitet:
sethdiabolos
Commodore
- Registriert
- Aug. 2004
- Beiträge
- 4.388
Maxminator schrieb:PS: war fast 7 Jahre bei festen 98FPS da ich ein 100Hz-IPS-Monitor hatte. Ok, mit G-Sync war es sehr erträglich - aber die 240Hz eines OLED-Panels stellt alles in den Schatten!
Glaube ich Dir, der Sprung von meinem 144Hz IPS zu meinem jetzigen 120Hz OLED-TV war auch spürbar, das lag aber weniger an der Hz an sich, sondern mehr an der Reaktionszeit, da die Pixel reaktionsschneller und das Bild daher schlierenfrei ist. Ich behaupte mal, dass zwischen 120Hz bei mir und 240Hz bei Dir eigentlich kein spürbarer Unterschied mehr vorhanden ist. Und wenn Du den Teiler gerade setzt, dann dürfte bei Dir 120 Fps genauso aussehen wie 240 Fps. Kannst Du ja vielleicht mal testen. Dürfte Strom sparen und die Alterung der OLED-Subpixel nach hinten raus schieben.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 210
- Aufrufe
- 17.761
- Antworten
- 388
- Aufrufe
- 24.403
- Antworten
- 224
- Aufrufe
- 18.618