News RTX 5000 Release: Die Nvidia GeForce RTX 5080 macht am 21. Januar den Anfang

Ich denke das macht auch vielen Mut eine 5090 zu Release zu kaufen 😌
 
Shio schrieb:
Glaub ich irgendwie nicht dran, aber habe jetzt auch noch keinen VRAM Test gesehen der auch auf unterschiedliche PCIE eingeht.

Gibt genug Teste mit x8 PCI Express Karten mit halbem Interface. Die Unterschiede sind teils recht deutlich.

SweetOhm schrieb:
MilchmÀdchenrechnung !
Ich hab auch eine : Wenn Du statt 100ÂŽ000 Karten nur noch 50ÂŽ000 verkaufst, rechnet sich es.
Merkst was ?

Wenn man sich am absoluten oberen Ende des Preises bewegt und diesen verdreifacht ist es sehr verwegen anzunehmen, dass man nur die HĂ€lfte der Kunden verliert. WĂ€re die erste Branche wo das klappt. Da fragt man sich, warum Nvidia nicht frĂŒher diese geniale Idee hatte.
 
NguyenV3 schrieb:
Ahh der beliebte FHD Trick, um etwas Chaos in die GPU Benchmarks der Highend Karten zu bringen.

Vielleicht ist 4K besser, um sicher zu gehen, dass die auch ordentlich ausgelastet sind. Nicht vergessen: Bei CPU Benchmarks sollte die Auflösung gering sein. Bei GPUs ist es dagegen umgekehrt.
ich könnte jetzt auch sagen ah der beliebte CP2077 trick ^^
 
  • GefĂ€llt mir
Reaktionen: eXe777, TheLizardator und SweetOhm
Raptor85 schrieb:
Die Strategie ist, den Kunden langsam an den Preis der 5090 heranzufĂŒhren.
Wenn man den Preis der 5080 schon wenig "gewöhnt" hat, ist die 5090 nicht mehr ganz so krass teuer. :D

Bis zum Release der 5090 weiß man dann auch klar, dass 16 GB VRAM mit RT in 4K vielleicht ein wenig knapp bemessen sind. Selbst wenn die Rohleistung an sich auf 4090-Niveau liegen sollte.
Erinnert mich irgendwie an den Vergleich mit dem Frosch in heißem Wasser: Wirft man ihn direkt rein, so springt er raus. Setzt man ihn aber in kaltes/lauwarmes und erhöht die Temperatur, so bleibt er drin und kocht.
UngefĂ€hr so scheint Nvidia seine Preise zu gestalten: Konstantes Hochschrauben von Generation zu Generation, aber man bietet ja noch "bezahlbare" Modelle fĂŒr den Pöbel an, welcher nicht aus Tech Reviewern a la Linus Tech Tips besteht.
 
  • GefĂ€llt mir
Reaktionen: eXe777, Araska, legenddiaz und 2 andere
Wilfriede schrieb:
Man muss aber schon sagen die 4090er Release KĂ€ufer haben alles richtig gemacht.

Sowas gab es glaub noch nie. Nach 2 1/2 Jahren kann man die noch zum Einkaufspreis verkaufen. Unglaublich... verrĂŒckte Zeiten.
Doch doch. Beim letzten Kryptohype vor 2-3 Jahren waren das schon der Fall. Ich habe damals meine 2.5 Jahre alte XFX AMD Radeon VII fĂŒr 1200Fr verkaufen können, welche ich zuvor fĂŒr 785Fr neu gekauft habe. Hab sogar einige Auktionen gesehen, bei denen die Radeon VII fĂŒr 1400CHF verkauft wurde.
 
  • GefĂ€llt mir
Reaktionen: Rockstar85
thepusher90 schrieb:
Geh mal auf das Subreddit "FuckTAA"
Achso, ja da war ich schon ist ein Haufen von substanzlosem nitpicking und eine tendenziöse Fokussierung auf Nachteile der Technik, welche mit TSR, DLSS und FSR gegebĂŒber den AnfĂ€ngen von TAA 2014-2016 weitgehend auf ein Minimum reduziert wurden und durch die temporalen Bildinformationen an die QualitĂ€t von SSAA heranreicht, mit einem Bruchteil der Rechenleistung.

Mal davon abgesehen, dass MSAA und ihre Funktionsweise mit deferred rendering und Beleuchtung/Texturen, Raytracing, AO und so ziemlich allem was moderne Grafik ausmacht nicht mehr wirklich funktioniert und nur Leistung fĂŒr miese QualitĂ€t verballert.
thepusher90 schrieb:
- Ein wahrer Augenöffner wenn es darum geht wie unscharf heutige Spiele sind...
Antialiasing macht das Bild durch die geglĂ€tteten Kanten softer ( das will man ja um Flimmern zu reduzieren) das ist auch bei SSAA so. Um den Look eines nur teilweise geglĂ€tteten Bildes, wie mit MSAA zu erreichen, kannst du verschiedene SchĂ€rfefilter drĂŒberlegen. Das ist dann Geschmackssache.
thepusher90 schrieb:
wenn es um Detailreichtum geht und vor allem wie schrecklich Ghosting mit TAA und den Upscalingmethoden geworden ist.
Halbwegs gut implementiert ist Ghosting kaum vorhanden. Die Nachteile von TAA und DLSS sind gegebĂŒber den optischen Vorteilen alter GlĂ€ttungsverfahren und des Rechenaufwands geradezu winzig, deshalb verwendet die Industrie auch nix anderes.

Es ist nur ein kleiner Ausschnitt des Bildes welcher mit MSAA in niedriger Auflösung vielleicht besser aussehen wĂŒrde. Sich gegeneinander bewegende Objektkanten bei ~30 FPS, wo TAA Konzeptbedingt dann schmiert, aber da muss man schon genau hinschauen und das Geflinmere mit MSAA, etwas wie in Crysis 3 ignorieren.
thepusher90 schrieb:
Das Subreddit ist voll mit vielen Bild und Videobeispielen von TAA/Upscaling VS MSAA oder auch nur SMAA.
Ich hab noch nichts gesehen was mich ĂŒberzeugt. SMAA struggelt massiv mit Motion aliasing und ist lĂ€ngst outdated, funktioniert gar nicht mehr.
thepusher90 schrieb:
Viele machen deferred Renderinng fĂŒr die Notwendigkeit von TAA und DLSS/FSR verantwortlich auf dem Reddit.
Forward Rendering hat gegenĂŒber Deferred Rendering zu große Nachteile und Limitationen was vor allem dynamische aber auch statische Beleuchtung betrifft.
Beleuchtungsberechnungen muss man fĂŒr jeden sichtbaren Teil eines polygons durchfĂŒhren ( nicht Auflösungsbasiert)und wenn man dann mehr als ein paar Lichtquellen hat und damit die Vertex Shader mit Arbeit vollstopft wird das nix. Unnötige Berechnungsarbeit die dann nicht mal am Bildschirm ankommt, da sie bei den Tiefentests entfernt wird. Dagegen kann man nur mit hartem LoD gegensteuern, was auch wieder nix taugt.

Es ist halt mit DF egal wie viele Polygone man auf dem Bildschirm hat. Mehrere Renderziele, also die Aufplittung der Grafikpipeline um dann in mehrere Puffer zu schreiben braucht man auch fĂŒr RT.
Heißt unterm Strich polemisch: FW Rendering nix gut.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: Fallout667 und thepusher90
NguyenV3 schrieb:
Das stimmt. VRAM ist halt nicht alles. Habe mich damals fĂŒr den 1060 6GB "SpeicherkrĂŒppel" anstelle der RX 480 entschieden.

Das Problem ist halt, dass das Zuschalten von Features wie RT und wohl auch DLSS den VRAM-Bedarf in die Höhe treiben kann - siehe hier: https://www.techspot.com/review/2856-how-much-vram-pc-gaming/#RC-f-png

Das fĂŒhrt aber zu einem gewissen Dilemma, dass wenn du die Features zuschaltest, damit das Spiel schöner oder schneller ist, dadurch dein VRAM ĂŒberlĂ€uft und du deshalb die Grafik wieder herunter drehen musst, du im Grunde deiner ursprĂŒnglichen Intention entgegen handelst.

Abgesehen geht es aber eben auch nicht mehr darum dass der VRAM grenzwertig ist, weshalb da nicht so viel verschoben werden mĂŒsste (denn das war er im Grunde schon bei der 4070S oder spĂ€testens 4070Ti und bei der 4080(S)) sondern dass die 5000er Karten ja (hoffentlich) ein gutes StĂŒck schneller werden als die bei denen er als knapp galt ohne ihn zu erhöhen.
D.h. insbesondere wenn du die GPU lĂ€nger und ggf. auch ĂŒber das erscheinen und sich etablieren der PS6 hinaus nutzen willst könnte das durchaus deutlich hĂ€ufiger der Fall werden, dass es nicht mehr wirklich reicht...
 
  • GefĂ€llt mir
Reaktionen: martin_m, MikePayne028 und SweetOhm
NguyenV3 schrieb:
Das stimmt. VRAM ist halt nicht alles. Habe mich damals fĂŒr den 1060 6GB "SpeicherkrĂŒppel" anstelle der RX 480 entschieden.

In ~97 % aller Szenarien war die schneller. Ansonsten die Texturen eine Stufe runter von Ultra Nightmare Max auf Ultra Nightmare gestellt. In 100 % aller FĂ€lle auch noch effizienter. Ist heute nach ĂŒber 7 Jahren noch im Zweitrechner aktiv.

Die RX 480 wÀre vermutlich keine Katastrophe gewesen. Sicherlich solide Karte. Die Nachfolger Refreshes sind dem Mining aber wohl noch stÀrker zum Opfer gefallen.
Da sah aber 1 Jahr spÀter mit dem 480Žer Refresh (580/90) mit ihren 8 GB wieder anders aus.
 

AnhÀnge

  • GPU Bench 2019.jpg
    GPU Bench 2019.jpg
    259,8 KB · Aufrufe: 60
  • GefĂ€llt mir
Reaktionen: MikePayne028
Glaube das Upgrade von einer GTX 1080 auf eine RTX 5080 werde ich mir endlich gönnen. Freue mich!
 
  • GefĂ€llt mir
Reaktionen: Player49, aluis, Fallout667 und 2 andere
PS828 schrieb:
Heißt halt nicht dass diese Lösungen die besten sind oder gar erstrebenswert wĂ€ren.
Doch, genauso ist es. Es sind die besten Lösungen, mit geradezu astronomischem Abstand. FĂŒr optisch schlechtere Ergebnisse die X fache Rechenleistung zu verschwenden nur damit man, um jetzt den klassischen Autovergleich zu bringen weiter einen Verbrenner- statt Elektromotor zu benutzen, ist nicht sonderlich clever.
PS828 schrieb:
Dass 5080 und co. Schnell wie Sau werden ist nicht bestreitbar aber ich habe immer mehr den Eindruck dass all die Rohrleistung irgendwo verpufft..
Ne, die wird durch die neuen Rendering und temporalen SuperSampling Verfahren effizienter genutzt als frĂŒher, womit mehr Platz fĂŒr mehr BQ geschaffen wird.

Und Pfusch bleibt Pfusch, auch optisch.
ErgÀnzung ()

PS828 schrieb:
Leider ist Bequemlichkeit viel zu simpel geworden und die Grafikkartenhersteller liefern die "Lösung" dafĂŒr die ihnen natĂŒrlich sehr gut in den kram passt weil der unoptimierte mist mit ihren "Features" den GPU Kauf alle zwei Jahre nötig macht :D
Die Bequemlichkeit sich aus irgendwelchen YouTube Videos und Reddit Threads fehlinformieren zu lassen und sich solche VTs zurechtzubasteln, muss man erst einmal hinbekommen.

Tatsache ist: Genau das Gegenteil ist richtig. Man ist stÀndig dabei unnötigen Rechenaufwand zu reduzieren und möglichst wenig unnötige Ressourcen zu verballern. Deshalb der Wechsel von Forward Rendering auf Deferred Rendering von ineffizienten GlÀttungsmethoden hin zu intelligenten und effizienten und hin zu Raytracing.
PS828 schrieb:
Und exakt das zeigt sich in Produkten wie der 5080 die mal wieder an "quality of life" und Langlebigkeitsgesichtspunkten entscheidend gebremst wird.
Ökonomisch ergibt es keinen Sinn auf ein 256Bit Interface 32GB bei der Karte zu verbauen. Die wird sie nie nutzen können. 20 GB wĂ€ren vielleicht optimal, 16GB sind immer noch genĂŒgend Speicher.
PS828 schrieb:
Bei dem erwarteten preis von weit ĂŒber 1000€ (evtl gar nĂ€her an 2000 als an 1000 wer weiß) will ich solche Sachen einfach nicht sehen.
Weil es fĂŒr dich niemals irgendwann in Frage kĂ€me aufgrund knappen Speichers mal einen Regler zu benutzen? WĂŒrde mich eher auf die Leistung fokussieren, die wird wesentlich entscheidender sein.
PS828 schrieb:
Ich möchte ein rundes Produkt zum fairen Preis. Leider ist das aber in der aktuellen Nvidia Dominanz nicht drin fĂŒrchte ich.
Was du forderst ist die Quadratur des Kreises. Fairer Preis ( was ist denn schon fair?), angestaubte GlÀttung, Veraltete Renderingverfahren, riesige Vram Buffer.
Tipp: Alte Spiele auf alten Karten zocken.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: ElliotAlderson und Fallout667
1700 Euro Minimum fĂŒr die 5080 incoming. 2700 € dann fĂŒr die 5090.
Bei den Spottpreisen fĂŒr die 5090 wird da RATZ FATZ alles weggescalpt und fĂŒr 6000€ bei eBay in Massen weiterverkauft!!! Goldesel Karte!!!
DafĂŒr MUSS nunmal das Sparschwein (was fĂŒr den gemeinsamen Sommerurlaub mit Family gedacht war) geschlachtet werden! MAN MUSS HALT PRIORITÄTEN SETZEN KÖNNEN!! NICHT NEIDISCH SEIN!! EINFACH MAL GÖNNEN!!!!
 
gedi schrieb:
Wird die typische NV-PrÀsentation. Ne 5080 schlÀgt ne 4090 durch DLSS 4.0. Es ist so traurig...
Was wĂ€re daran denn traurig, wenn DLSS 4 gute Ergebnisse liefert und man mehr Grafik fĂŒrs Geld bekommt? Also fĂŒr ~1300 statt 2000 Euro?
gedi schrieb:
Die drehen ihren Upscaler auf, um Àltere GPUs zu demontieren.
Der Upscaler funktioniert immer noch genauso auf einer Turing Karte.
Sich im voraus ĂŒber ungelegte Eier zu echauffieren, scheint in D zum Volkssport geworden zu sein?
gedi schrieb:
Entweder die machen es endlich Open Source, oder sie verkaufen in Europa keine eine einzige Karte mehr!
Was manche fĂŒr Vorstellungen haben ist wirklich sonderbar. Seinen Softwarestack Open Source machen widerstrebt irgendwie dem kapitalistischen Gedanken und auch dem Wettbewerb findest du nicht?

Dem Beitrag fehlt eindeutig der Satire Disclaimer.
 
  • GefĂ€llt mir
Reaktionen: Fallout667, Laphonso, Iconoclast und 2 andere
floTTes schrieb:
Closed Source (weil eben auch fĂŒr nVidia-Hardware) und durch Lizenzen geschĂŒtzt.

Bei Intel und AMD passt es doch auch, das sieht man bspw. in Linux, denn bei nVidia gibt es bis heute keinen vergleichbaren Support (da nicht open source) und man muss warten, bis es eine neue Treiberversion kommt, weswegen Steam OS und Bazzite auch noch keine Alternativen zu Windows als alternative Gaming OS sind.

Wenn Closed Source nicht im allgemeinen Interesse der Verbraucher, der ĂŒberwiegenden Gesellschaft und somit des Gemeinwohls sind sondern eine marktberrschende Stellung eines Konzerns eben sichert, sollte eine forcierte Öffnung durchaus fĂŒr Kartellregulierungsbehörden rechtlich machbar sein (wobei ein Verstoß dagegen dann finanzielle oder produkttechnische Konsequenzen nach sich ziehen könnte).

floTTes schrieb:
Die werden sich die Zugpferde schön erhalten oder fĂŒr sie passend zurecht legen. FĂŒr sowas muss es genĂŒgend, starke GrĂŒnde geben.

nVidia hĂ€tte dabei nichts zu melden, wenn die Regulierungsbehörden ĂŒberlegt agieren, denn nVidia mĂŒsste kuschen oder Huang & Co. können den Laden ansonsten fast komplett schließen.

Ich verstehe nicht diese (leider typische deutsche) BedenkentrĂ€germentalitĂ€t und das Zaudern bei vielen (am bekanntesten ist wohl der noch jetzige Kanzler, der auch seinen mit Helmlieferungen und Ă€hnlichen Verzögerungstaktiken die Kriegsentwicklung indirekt in der Ukraine nicht unbedingt positiv mitgestaltet hat), als ob man vor einem Konzern wie nVidia als Staat/Gesellschaft buckeln mĂŒsste, anstelle einfach zu machen und Tatsachen zu schaffen (so nach den dortigen Regeln GeschĂ€fte gemacht werden mĂŒssen und nicht nVidia oder andere selber den Markt nach eigenen Regeln beherrschen).

floTTes schrieb:
nVidia aus der EU verbannen? Welche Hardware/Software? Da gĂ€be es noch unzĂ€hlige Wege fĂŒr nVidia: Outsourcing, Schwarzmarkt, Ausnahmen, Konkurrenz, etc.

Damit erst einmal drohen, Verkaufsbann wĂ€re wohl die ultimative Restriktionierung/Eskalation, denn das könnte sogar zu einem Kollaps des Unternehmens fĂŒhren durch einen Börsenrutsch und Anlegerexodus (da kĂ€men Schwarzmarkt und andere Umgehungstaktiken viel zu spĂ€t, wenn es hart auf hart kommen wĂŒrde; man könnte höchstens noch versuchen gerichtlich versuchen auf Zeit zu spielen um den Schaden geringer ausfallen zu lassen), zumal nVidia (noch) nicht alternativlos ist.

NatĂŒrlich wĂŒrde man bei nVidia vorher kuschen, denn die EU ist immer noch (vor den USA und China) die Handelszone bzw. das HandelsbĂŒndnis mit dem grĂ¶ĂŸten Wertschöpfungspotential weltweit. Das einzige Problem was die EU/Europa oft hat im Vergleich zu den Wettbewerbern ist FĂŒhrungschwĂ€che durch Uneinigkeit bei den (nationalen) Interessen.

Wenn ich aber jetzt höre, dass Trump angeblich vom britischen Premierminister Starmer verlangt haben soll sich zwischen den USA (zusammen mit einer Ioslationspolitik) und der EU (als Handelspartner) zu entscheiden, dann kann man schon ahnen was auf die EU zukommen wird und wie Trump glaubt allen alleine seine Wirtschaftpolitik diktieren zu können (wogegen nur eine starke/einige EU hilft bei Verhandlungen und knallhart auch solche quasimonopolistischen Konzerne wie nVidia oder andere amerikanischen IT Großkonzerne einbezogen werden sollten (bspw. hinsichtlich Digitalsteuern u.a. als Verhandlungsmasse).

Es ist leider aus der Zeit gefallen und man ist mittlerweile in vielen westlichen Demokratien viel zu schwach, behĂ€big, bĂŒrokratisch und inkonsequent unterwegs im Gegensatz zu den autoritĂ€r regierten Staaten dieser Welt (egal ob Russland, China, Iran, Nordkorea, TĂŒrkei und von der kommenden US Administration ist da ersten Anzeichen nach auch nur rĂŒcksichtloses (wirtschaftliches) Eigeninteresse - egal wie isolierend - zu erwarten), die alle danach streben deren Macht nach deren Spielregeln aus zu dehnen.
Ob die USA (und deren Konzerne) sich noch an Demokratie- und Handelsregeln halten werden, muss man sowieso abwarten (die WTO ist auch ein ziemlich Papiertiger geworden, den kaum einer noch ernst zu nehmen scheint).

Da hĂ€tte ich leider eher Bedenken zu passiv zu verbleiben, als endlich auch einmal knallhart eigene Interessen zu verhandeln (in Bezug auf solche globalen IT Riesenkonzerne und deren Stellung) und den Druck und Verantwortung sowie Kosten (fĂŒr verursachte FlĂŒchtlingskrisen, das Weltklima, Kriegsverbrechen, Dumpingpreise, usw.) zurĂŒck zu geben und dann sollte man sich als EU auch militĂ€risch schleunigst unabhĂ€ngiger machen, weil man sich immer weniger auf andere verlassen kann.

Wie gesagt, ich hoffe, dass da kartellrechtlich noch in naher Zukunft bzgl. nVidia etwas passieren wird, darauf wetten wĂŒrde ich aber nicht, weil man so viel Jahre schon zugesehen hat anstatt behördlich zu regulieren und eine Marktbeherrschung zu unterbinden.
 
Zuletzt bearbeitet:
  • GefĂ€llt mir
Reaktionen: SweetOhm und Republican
floTTes schrieb:
Ich bin absolut bei dir wenn es um den VRAM-Hype geht. Der ist fĂŒr Gamer ĂŒbertrieben, u.a. geschĂŒrt von YouTubern, Influencern, Redaktionen ...
Lies dir den Test zu Indiana Jones auf CB durch, es ist leider RealitÀt.
 
  • GefĂ€llt mir
Reaktionen: SweetOhm und Shio
SweetOhm schrieb:
Und dann nur einen 7800X3D und ein B650 Board ?!? :D

Warum muss man wenn man genug Geld hat ĂŒberall das teuerste kaufen? In aller Regel kauft man das, was man braucht und wirft Geld nicht unnötig in Produkte, die man nicht braucht, nur weil man es sich leisten kann. Geld zu haben bedeutet nicht hirnlos zu konsumieren. Im gegenteil, dass ist der Grund, warum die meisten nie ein nennenswertes Vermögen aufbauen.

Mal ganz davon abgesehen, dass kaum einen Mehrwert hat, einen 7800x3D gegen einen 9800x3d zu tauschen, wenn man auf einem 120 Hz 4K OLED spielt.
 
  • GefĂ€llt mir
Reaktionen: SweetOhm, eXe777, Fallout667 und 2 andere
Wilfriede schrieb:
Man muss aber schon sagen die 4090er Release KĂ€ufer haben alles richtig gemacht.

Sowas gab es glaub noch nie. Nach 2 1/2 Jahren kann man die noch zum Einkaufspreis verkaufen.
Also wir wissen noch nichts konkretes und es sind erst "2 Jahre 3 Monate" und ich hoffe nicht, dass nach 2 1/2 noch ĂŒber UVP fĂŒr gebrauchte 4090 bezahlt werden.
 
mTw|Marco schrieb:
Was die meisten RAM-Heulsusen hier nicht verstehen, dass der RAM alleine nicht immer kriegsentscheidend ist.

Eine 5080 mit 16GB wird vermutlich selbst in 2 Jahren immer noch schneller sein als AMD Karte mit mehr Speicher oder kleinere Nvidia-Karten (eine 4090 mal ausgenommen) mit mehr RAM.
Das ist nachweislich Bullshit, auch deine Postings danach.

Es ist genau anders rum, siehe diverse Tests der RTX 2xxx/3xxx und 4xxx Series mit 6-10GB, wo die RT Überlegenheit mangels VRAM einfach untergeht und AMD Karten von 2020 die RTX Karten rasieren.
Bitte keinen technischen Unsinn posten auch wenn das in Zeiten von TikTok und Co in ist, wenn VRAM voll dann geht nix mehr, da kannste nvidia Marketingkram nachblubbern wie du willst.
 
  • GefĂ€llt mir
Reaktionen: Shio, eXe777, Öcher Tivoli und 2 andere
ZurĂŒck
Oben