News Nvidia GeForce RTX 5080 OC: Mit 3,2 GHz lässt sich der Leistungssprung verdoppeln

Begu schrieb:
@Kraeuterbutter
Leider völlig am Thema vorbei. Es geht darum, dass hier mit einer für mich nicht nachvollziehbaren Hartnäckigkeit zu wenig VRAM verteidigt wird. Hätte Nvidia damals nicht schon mit VRAM gegeizt, könnte man die 3080 auch heute noch bei mehr Spielen und Einstellungen einsetzen, aber der VRAM limitiert offensichtlich jetzt schon und das wird häufiger.
Ich fürchte, das gleiche Schicksal wird die 5080 teilen.

Und ja, ich unterstelle Nvidia, dass sie das absichtlich machen, damit man sich in ein paar Jahren gefälligst eine neue Grafikkarte kauft, wenn dann der Speicher zu klein ist, die reine Rechenleistung aber noch reichen würde. Beispiel RTX 3080.

Das komplette Thema hat mich AMD nichts zu tun. Die haben ihre eigenen Probleme.

/edit
damit mir nicht wieder jemand vorwirft, AMD zu übervorteilen, hier ein internes NVIDIA duell. 4060TI 8GB vs 16GB in Horizon Forbidden West WQHD
Anhang anzeigen 1576547
Das ist halt auch wieder ein Szenario dass so an der Realität vorbei geht.

Die 60er ist keine WQHD Karte.

Natürlich geht ihr dann irgendwann mal der VRam aus.

Gleiches für eine 80er Karte auf 4K.

Aber auch die ist dafür eben nicht gedacht -zumindest nicht in hohen Einstellungen ohne Framegen.

Natürlich bewirbt Nvidia die 4080 mit als für 4K geeignet. Selbes tut AMD mit der XTX.

Zwischen geeignet und empfohlen um damit jenseits der 60 fps auf hohen Settings zocken zu können, liegen Welten.

Ich bleibe dabei, die 5080 ist eine schlechte Karte aber die 16GB sind okay für 1440p.

Wenn du ne 4K Karte willst machen 4GB mehr VRam keinen deutlichen Unterschied weil der Rest der Karte ans Limit kommt.

Wäre es anders, würde die XTX die 4080 auf 4K deutlich abhängen (spar dir bitte hier wieder ein Beispiel zu suchen bei dem es so ist, im Querschnitt ist es nicht so).

Beide sind für 4K nur bedingt geeignet unabhängig vom Speicher.
Ergänzung ()

Rockbreak schrieb:
Die Gewinnmargen sind auch nur relevant wenn dein Produkt überhaupt in relevanten Stückzahlen dafür gekauft wird. 1 Mio pro Gpu wäre immer noch 0 bei 0 verkauften Gpus.
Die Nachfrage in professional Bereich übersteigt das Angebot weiterhin deutlich.

Sowohl AMD als auch NVIDIA sehen speziell in diesem Segment Zuwachs.
 
Fighter1993 schrieb:
eine Grafikkarte sollte locker 4 Jahre reichen, auch in Max. Das man jede Gen kaufen muss bei 80er mit WQHD ist bei den Preisen einfach ein Witz.
das ist deine erwartungshaltung - aber ich gebe dir recht, jedoch aus ganz anderen gründen.

wie ich es schon weiter oben im threadverlauf schrieb, finde ich dass die grafikqualität der spiele in den letzten jahren kaum oder garkeine verbesserungen erfahren hat, die anforderungen aber bei dem einen oder anderen titel dazu unverhältnismäßig hoch ausfallen und deswegen habe ich den eindruck dass man mit immer stärkerer hardware immer mehr die vernachlässigung der optimierung durch die entwickler ausgleichen muss.

gerade entwicklungen wie die unreal engine, welche zwar ziemlich bequem ist, aber auch massiv optimierungspotential liegen lässt, dazu features wie dlss und fsr, welche quasi "kostenlos" einen performanceboost (samt integriertem anti-aliasing) bieten haben in meinen augen sowas wie einen performance creep in den gameengines bewirkt...
Ergänzung ()

Hatsune_Miku schrieb:
Niemand erwartet unbedingt 32 oder 24GB, aber 20GB hättens schon sein dürfen...
dazu müssen die gpu's mit ihrem speicherinterface aber ausgelegt sein und speicherbausteine mit entsprechender kapazität müssen exitieren. z.b. gab es schon in der gddr5 jedec spec definierte bausteine mit 4, 6, 8, 12 und 16Gb (also 512MB, 768MB, 1GB, 1.5GB und 2GB), aber soweit ich weiß gab es schlicht keinen hersteller der 768MB oder 1.5GB bausteine gefertigt hat und die 2GB bausteine ware preislich nicht günstig.

viel anders ist es heute nicht, bis auf den punkt, dass so langsam bewegung bei den "krummen" 3GB bausteinen existiert (2GB ist eher so der standardbaustein bei gddr7) womit man an einem 256bit interface die kolportierten 24gb umsetzen kann.
wenn man 20gb speicher bieten will, muss man entweder ein 320bit SI entwickeln, und dieses mit 10x 2Gb bausteinen bestücken oder man hat ein 160bit Si welches mann im sog clamshell mode mit zweimal 5x 2GB bausteinen bestückt.
beim ersteren fall ist der chip selbst komplexer da nun weitere gatter für den speichercontroller nötig sind (welcher dann auch etwas höheren verbrauch verursacht) aber auch etwas höhere bandbreite ermöglich - im zweiten fall würde eine solche gpu an der speicherbandbreite verhungern...
im ersteren steigen die kosten für den gpu-chip selbst, sowie für weitere speicherbausteine...im letzteren fall hat man eine günstigere gpu, aber auch eine die wahrscheinlich weniger performance bieten kann...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GT200b und Fighter1993
Sehr interessanter Artikel, der 8auer und Igor haben auch ein aufschlussreiches Video dazu aufgenommen. Die zusätzlichen 10% sind also völlig relativ, eine 4080S kann man auch auf 3GHz+ übertakten, womit die 10% on top nahezu amortisiert werden. Zudem dürfte der Preis dafür einen höheren zweistelligen, wenn nicht sogar niedrigen dreistelligen, Mehrverbrauch in Watt generieren(steht ja im Text). Somit die Effizienz nicht nur flöten geht, sondern auch der Mehrverbrauch die Karte völlig unattraktiv macht (500W+?).

Für die letzten 15% Extraleistung durch Übertaktung braucht meine 4080S ausgehend vom Stocktakt@UV (2650MHz@0,9v; 230W) stolze 190W obendrauf, was 80% Mehrverbrauch entspricht !
(STRIX BIOS PT:420W; 3045MHz@1,1v; im 3dMark komplett ausgenutzt; mit Downclock).

Entsprechend wäre eine Ergänzung der zusätzlichen Leistungsaufnahme der 5080 nett mit einem ausgewiesenen RAM-OC Benchmark, um die Skalierung zu sehen :) Oder auch ein Undervoltingtest wäre super, denn die 4000er Serie hat bewiesen, dass Nvidia die Chips mit viel zu viel Spannung ab Werk versorgt, womit der Verbrauch um 40% zu hoch ist. Man kann nicht verstehen, warum Nvidia dies nicht optimiert hat vor Release, denn man hätte noch effizientere Chips bewerben können.

EDIT: Als Ergänzung, was ich sehr interessant finde, läuft mein System mit einem 550W Bequiet Dark Power Pro 10 + Bequiet 600W NT-Adapter+8600K OC @4,8GHz (~90W Peak) einwandfrei und ohne Ausfälle im 3D Mark bei voller Auslastung der 420W Powertarget. Die Effizienz ist ja bei der Netzteilleistung der Herstellerempfehlung meist völlig absurd. Es geht hier um die Qualität des Netzteils und die Spannungsspitzen. Ich habe nachträglich über mein Netzteil nachgelesen, dass es selbst bei 850W peaks nicht ausfällt. Also um Strom zu sparen ein hochwertiges Netzteil, dass die erwartete Leistungsaufnahme um ca 15% übersteigt, womit man im besten Effizienzbereich bzw der geringsten Verlustleistung spielt. 1000W Netzteile für eine 4090 oder 850W für die 5080 und solch ein Blödsinn...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: el_froggo
Legalev schrieb:
Persönlich würde ich auf die 5070ti noch warten.
5080 UVP wird es kaum geben.
Und du denkst das ändert sich bei der 5070TI? Da wird es noch schlimmer, da ja die Mehrheit hier schreibt "Einzig interessante Karte ist wohl die 5070TI, werde wohl auf die 5070TI warten" etc.
Kannst bei der 5070TI auch mit einem vierstelligen Betrag rechnen wenn du überhaupt eine bekommst.
 
Kraeuterbutter schrieb:
früher ging da teils viel mehr..
Naja, ich fand das schon ganz ansehnlich mit dem Ryzen 5 7500F für heutige Zeiten, ähnlich wie ja jetzt mit der RTX 5080. Aber alles kein Vergleich mit der best overclocking cpu ever namens Intel Celeron 300A 👌
 
Es wurde auch schon von einigen RTX 5080 berichtet, die nicht um 1Mhz schneller takten, wenn man am Powerlimit oder den Offsets schraubt. Hier scheint also eine große Variabilität zwischen einzelnen Exemplaren zu bestehen.

Ob das damit zusammen hängt, dass der Hotspotsensor nicht mehr vom Treiber exponiert wird?
 
Averomoe schrieb:
Fairerweise müsste man aber den Vorgänger ebenfalls ordentlich übertakten(...)
Jain, konnte man allerdings nicht. Mehr als 5% war da im Mittel nicht drinnen. Hier sind es bis zu drei mal so viel.
Hardware Unboxed hat die Vanguard getestet und die ist mit OC ca 15% schneller als die Stock, was sie fast so schnell wie eine stock RTX 4090 macht, die auch schlechter geht.
Averomoe schrieb:
und anschließend beide OCed-GPUs miteinander vergleichen; dass eine übertaktete GPU den Abstand zum Vorgänger vergrößert, ist trivial.
Gibt es ja zur Genüge. Die 4080 ließ sich halt kaum takten.
 
  • Gefällt mir
Reaktionen: Averomoe
die spannendsten Karten diese Season bleiben:

5070TI im Bereich 16GB wird die der Preis/Leistungs sieger obwohl ca. 20% langsamer als die 5080
4090 - mehr Vram und schneller als die 5080 bei fast gleichem Preis (2nd. Hand)
5090 - absolute Leistungsspitze für spürbaren Mehrpreis
 
Was mich bzgl. Artikel interessieren würde:
Mit welchen Hilfsmitteln / Programmen wurde die Übertakung der 5080 bewerkstelligt?
 
Ich seh mich irgendwie nicht bei ner 1100 € teuren Karte OC oder VBios Pfuscherei machen. Bei meinem Glück gehts schief. Paar % hin oder her.
MfG
 
Queediab schrieb:
Ich seh mich irgendwie nicht bei ner 1100 € teuren Karte OC oder VBios Pfuscherei machen. Bei meinem Glück gehts schief. Paar % hin oder her.
Bin ich bei dir.

Sollte nicht notwendig sein um die Karte auch nur halbwegs nicht wie eine Vollkatastrophe wirken zu lassen.
 
Rockbreak schrieb:
Und du denkst das ändert sich bei der 5070TI? Da wird es noch schlimmer, da ja die Mehrheit hier schreibt "Einzig interessante Karte ist wohl die 5070TI, werde wohl auf die 5070TI warten" etc.
Kannst bei der 5070TI auch mit einem vierstelligen Betrag rechnen wenn du überhaupt eine bekommst.
Kommt auf P/L drauf an.
Wenn ca. 10% weniger Leistung für angenommen 500€ weniger bräuchte ich nicht nachdenken.
Zum Glück habe ich eine 4080S
 
Amiga500 schrieb:
Wie hoch ist der Stromverbrauch dann? Reden wir nicht um den heißen Brei. Die 5000er Serie ist Schei**e
Das einzige was Schei*e ist, ist der hohe Preis und das rumgeflame über den angeblich hohen Stromverbrauch. Es gibt sogar RTX 4090 Besitzer, die kühlen ihren PC mit gleich 2 420er MoRas und undervolten dann ihre RTX 4090 um niedliche 150W einzusparen, opfern dafür 10-15% Performance einer überteuerten Karte, schwadronieren dann in Foren wie effizient und umweltbewusst man ist und ist stolz drauf dass man 50€ Strom in 2 Jahren gespart hat bei einer 2.000€ Karte, die gleichen fahren auch bei Glatteis mit dem Fahrrad zur Arbeit mit der Intention man rettet die Erde weil man kein Spurengas emittiert hat.

Wenn die RTX 5080 soviel OC Potenzial hat, dann mache ich mir nur noch über das limitierende Powerlimit sorgen, gerne darf ein Hersteller ein 450W Bios veröffentlichen. R.I.P EVGA
 
KarlsruheArgus schrieb:
32GB VRAM kriegst du bei 5090 und wen dir der Preis zu hoch ist, ist das deine Angelegenheit.
Und deswegen muss Nvidia bei ihrer zweitschnellsten Karte den Speicher gleich um 50% kleiner machen? 24GB wären mindestens angebracht gewesen. Haben ist immer besser als brauchen. Keine Ahnung, wie man diese Speicherpolitik verteidigen kann.
 
Averomoe schrieb:
Fairerweise müsste man aber den Vorgänger ebenfalls ordentlich übertakten und anschließend beide OCed-GPUs miteinander vergleichen; dass eine übertaktete GPU den Abstand zum Vorgänger vergrößert, ist trivial.
Denkfehler. Beim Vorgänger ging im Verhältnis nicht annähernd soviel OC.
 
@CrustiCroc Wenn 3,2-3,3 Ghz gehen, dann presst AMD ihre Karten mit bis zu 3,1Ghz default vermutlich richtig aus. Nvidia hätte bei der 5080 noch recht locker 10% Spielraum gehabt.
Warum man den nicht genutzt hat?
 
Die Leistung der GeForce RTX 5080 ab Werk ist ernüchternd, insbesondere im Vergleich zum direkten Vorgänger, der RTX 4080. Umso überraschter war die Redaktion, als ...
Ist das nicht normal, das man nonOC-Modelle künstlich klein hält, um mit den OC-Modellen saftige Aufpreise zu kassieren?

btw.
Ne ganz andere Geschichte ist die Yieldrate bei Vollausbau, may be man kann mehr Chips nutzen mit dem niedrigen Werkstakt der FE/Refs.
 
  • Gefällt mir
Reaktionen: -MK
Legalev schrieb:
Zum Glück habe ich eine 4080S
Wenn du eine 4080 Super hast wird die 5070TI für dich sowieso völlig uninteressant, denn es ist zu 1000% garantiert dass sie langsamer sein wird als eine 4080 Super. Wird sich zwischen einer 4070TI super und einer 4080 Super einfinden.
Ergänzung ()

GerryB schrieb:
Ist das nicht normal, das man nonOC-Modelle künstlich klein hält, um mit den OC-Modellen saftige Aufpreise zu kassieren?
Macht keinen Sinn, die Founders Edition kommt ja von Nvidia und an den OC Modellen der Custom Designer verdient Nvidia deswegen nicht mehr. Warum sollte Nvidia ihre Karte klein halten damit Custom Boardpartner sich ne goldene Nase verdienen? Die sind doch Nvidia scheißegal.
 
Rockbreak schrieb:
Wenn du eine 4080 Super hast wird die 5070TI für dich sowieso völlig uninteressant, denn es ist zu 1000% garantiert dass sie langsamer sein wird als eine 4080 Super. Wird sich zwischen einer 4070TI super und einer 4080 Super einfinden.
Ergänzung ()
Ich hab eh kein Interesse.
Wenn dann müsste ich ne 5090nehmen die ich nicht benötige und mir zu teuer ist
 
Zurück
Oben