News GB202 für RTX 5090: Nvidias größte GPU für Gamer wächst um 22 Prozent

N0Thing schrieb:
Hast du einen Link zur Hand, wo Nvidia dies zur RTX 5090 kommuniziert hat?
Natürlich hat @Simanova das nicht, ist ja auch absoluter Schwachsinn, dazu muss man nur einmal RTX 4090 in Google angeben und sich das erste Ergebnis direkt von Nvidia anschauen - da steht glasklar für was eine RTX 4090 selbstverständlich beworben wird:
IMG_0112.jpeg

Simanova schrieb:
Was viele offenbar nicht wissen, aber von Nvidia schon seit längerem kommunziert wird:
Eine RTX 5090 ist eine Enthusiasten GPU, die nicht primär für Gamer gedacht ist.
Sie deckt Anwendungen ab, in denen man die Leistung oder den Grafikspeicher braucht.
Einfach nein :p Lässt sich aber selbstverständlich nett zweckentfremden, hat aber wenig mit dem beworbenen (oder anders gesagt „kommunizierten“) Einsatzzweck zu tun.
Ergänzung ()

Zealord schrieb:
Wat ein absoluter Mammutschinken. Hab damals schon nicht erwartet, dass die Grafikkarten größer werden und mehr verbrauchen.

Hätte gedacht, unter anderem wegen der Veränderung der Welt hinsichtlich mehr auf den Verbrauch zu achten, dass Grafikkarten so bei 200 bis maximal 250W sich bewegen werden und nicht Richtung 600W+ gehen.

Wundert mich sogar sehr, besonders da ich u.A. beruflich sehr viel mit Gerätschaften zu tun habe welche durch EU Regulierungen deutlich im Verbrauch gesenkt wurden.
Sollte es da nicht eher um die Effizienz gehen, wo die Steigerung gerade im Bereich GPUs mehr als überragend ist?
Wo fällt die Grafikkarte eines berufstätigen Menschen groß ins Gewicht bei den paar wenigen Stunden die Woche, die man zum Zocken kommt?

Man sollte schon nicht immer nur sensationsgeil auf die „großen“ Zahlen („600W+“) gehen - wobei das ein Witz im Vergleich zu vielen anderen Geräten ist - wenn diese Geräte in der Regel nur eine sehr geringe Zeit unter Last laufen. Oder setzt du dich auch für das Beschränken der Leistung eines Toasters oder Föns aufgrund des Verbrauches ein? Das ist doch absurd :rolleyes:

Otto mit seinem kleinen 75W LED Aquarium sammelt da im Vergleich zur besten Grafikkarte für Consumer immer noch deutlich mehr kWh im Monat an, ein absoluter Witz da über die angeblichen „600W+“ einer zukünftigen handvoll RTX 5090 unter Last zu schwadronieren :p
 
Zuletzt bearbeitet:
Nighteye schrieb:
Die RTX 3070 8GB (gleicher Preis wie meine RX6800 nonXT) packt in 1440p in Star Citizen kaum stabile 60fps.
Dann halte ich mal fest: Du packst mit deiner RX6800 die in der Realität vielleicht 10% schneller als die 3070 ist 601 FPS. Während die 3070 nur 60 packt und du möchtest von anderen ernst genommen werden?

Hier sind reale Messergebnisse und da lässt festhalten, dass die 6800 etwa 5-15% mehr FPS packt und der Abstand sich je höher die Auflösung ist auf 20% und mehr ausbaut.
Dann muss ich an der Stelle eben einen Regler auf der 3070 nach links schieben, deshalb spiele ich mit der Karte auch nicht unbedingt schlechter, habe ich immer noch die BQ Vorteile mit DLSS.

Der Unterschied zwischen Minimum und Maximaler Grafikqualität ist in dem Spiel gering und die Speicherbelegung zwischen Radeons und GeForces massiv unterschiedlich, deshalb macht es wie bereits erwähnt keinen Sinn, von deiner Auslastung auf eine andere GPU zu schließen.

Screenshot 2024-11-24 050053.jpg

Du baust dir hier Luftschlösser und Spezialfälle auf, die in der Praxis nicht relevant sind.
Es macht kaum einen Unterschied ob ich für das Spiel eine 3070 oder 6800 verwende, wenn ich für die Karten die richtigen Settings finde. Wenn man so wie du vorgeht, bekommt man das Spiel auch auf der 3070 schneller und schöner.
Nighteye schrieb:
Kumpel hat die, und meint er hat average 39fps mit seiner RTX 3070 weil Vram Full.
Jetzt sind es schon 39 FPS gegen 601? Deine Vergleiche entbehren jeder Logik, weil ihr die gleiche Szene vergleichen müsst. 40 FPS wären auch auch einer 6800 völlig normal in Full HD.
Hier packt die 6800 nur 32 FPS im 99th Percentil, die 3070 halt 28 und das liegt nicht am Speicher, sondern an einem unoptimierten Game.
Nighteye schrieb:
Wir hatten ja schon dass beispiel. RTX 3070 zu release 35% schneller als GTX 1080ti 11GB.
Jetzt in Stalker ist die GTX 1080ti 11GB beim PCGH Test 3x so schnell.
Mit Ultra Details, die 1080 Ti packt dort dennoch nur 26 FPS und die 4060 Ti 8GB wird in dem Spiel trotzdem besser performen, wenn nicht alle Regler rechts stehen, also wird einem der Speicher der 1080 Ti in der Praxis wiederum nicht so viel bringen. Und eine 3070 ist keine 4060 Ti 8GB, weil diese nur mit 8x angebunden ist.

Taxxor schrieb:
Mit genug VRAM müsstest du aber dann ein Setting weniger reduzieren(Texturdetails)
Natürlich, muss ich mit weniger V-ram hier und a ein Setting mehr reduzieren, das ist aber nicht der Punkt.
Es wird so getan, als ob man gar nicht mehr spielen könne, dabei haben gerade GeForces mit DLSS so ein Tool an der Hand, wo man den Verbrauch massiv senken kann, ohne die BQ sichtbar zu reduzieren.
Das ist auch der Grund, warum ich selbst eine 3070 einer 6800 vorziehen würde.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ElliotAlderson, cruse und ThirdLife
Powl_0 schrieb:
Noch ein Beispiel eines mehrere Jahre alten Spiels.
Ich kann mich nur wiederholen.
Forbidden West kam doch erst vor wenigen Monaten raus ?? Ich kann mich nur wiederholen. ;)

Die 4090 kam btw. Herbst 2022 raus. Ich messe sie also an Spielen die damals raus kamen, denn schon damals wurde geflennt von wegen "450W ??? :heul: ".

Powl_0 schrieb:
Nö. Aber aktuelle Top Titel sind eben regelmäßig dabei, und da rennt die Karte oft genug ins Power Limit.
Bei mir nie ausser ich kriege irgendwie alle Rechenwerke ausgelastet. Und da muss der Titel schon brandneu sein oder sehr viel RT nutzen.

Powl_0 schrieb:
Was ist denn das für eine Argumentation? "Die Karte verbraucht gar nicht so viel, außer in den Spielen, in denen sie es eben doch tut."
Jo, zehn Titel oder so von 96.000 auf Steam. Natürlich spielst du NUR diese.

Powl_0 schrieb:
Weil sie in manchen Spielen mit weniger Verbrauch laufen kann, ist sie keine durstige Karte mehr?
Ja. Wie du sie betreibst ist ja letztlich deine Sache. Wenn dir 1440p60 genügen wird die Karte selten mehr als 200W sehen. Wer mehr will muss halt auch mehr zahlen. Da müssen wir uns jetzt aber klar werden was das Problem ist: keiner wills zahlen aber alle wollens haben.

Powl_0 schrieb:
Du argumentierst, man solle doch lieber auf den Verbrauch in realen Games achten statt sich von der TDP blenden zu lassen. Dann möchtest du aber genau solche Beispiele in realen Games nicht akzeptieren...
Ja weil du hierfür einzelne Games rauspicken musst.

Powl_0 schrieb:
Vielleicht nimmst du davon ja mit, dass das situationsabhängig ist.
Nein echt ?:rolleyes:

Powl_0 schrieb:
(Ja, Hand anlegen geht natürlich, mache ich auch. UV Profil usw, aber dann säuft das Ding immer noch mehr als jede andere Karte, da ich dann fairerweise auch UV vs UV vergleichen muss. Klar, Leistung kostet Leistung, aber für die meisten Leute ist da eben irgendwo eine Grenze überschritten.)
Stimmt so halt nicht. Vergleich dann doch einfach mal mit Settings die andere Karten betreiben können - oder willst du hier Äpfel mit Birnen vergleichen ? Es gibt wenig was an die Effizienz dieser Karte rankommt. Wenn zwischenzeitlich deine Ansprüche steigen und du deswegen mehr Strom rauslassen musst ist das allein dein Problem und nicht an der Karte festzumachen.🤷‍♂️
 
  • Gefällt mir
Reaktionen: Quidproquo77
Ein monolith also wo 60% der chipfläche fürs analog und si draufgeht
Das glaube ich nicht den für 512bit braucht man alleine 470mm²da wäre maximal gleiche alu menge möglich wie jetzt also 144.
Die 216 die geplant sind können nicht von 6% chipfläche geholt werden.
Demzufolge muss nvidia was am Si gedeichselt haben
mein verdacht es ist 256bit in dual channel mode
Wie bei cpu die auch nur einen 64bit si haben wird parallel doppelte daten per bit geladen. Das vergrößert aber die Latenz dafür sind mit 256bit dann effektiv 512bit die ankommen
folglich vergrößert sich der chip folgend 456mm² alu+288mm³ 256bit inklusive dual channel pins. 256bit +-15% das wären 40-60 Si zu alu
Guter schnitt aber die Latenz muss nvidia mit mehr cache auffangen daher dürfte der L2 um 18% steigen zu den von 144 zu 216 alu also +50% daher dürfte das bei 96mb aktuell auf 160mb gehen
Das ist ne Lösung dürfte aber wegen der Latenz die alu weniger auslasten Latenz ist aber taktabhängig und mit n4 sind potenziell 3,0ghz drin
Das wird also 170 *3*2*88=89tf/130tf oder +42% Tendenz Richtung +30%
nehme ich die 18% per chip mit auf gb203 128bit kommt da +30% L2 cache 84mb 84sm und 44tf oder +13% raus
folglich wären die chips
gb202 744mm² (+42% maximal)
gb203 431mm² (+13% maximal )
gb205 samsung sf4 288mm² 2,67ghz (+3% maximal)
gb206 sf4 117mm² (+-0%)

Das ist faktisch Stillstand in der perf. mit der sm Struktur aber das Si wird effektiv verkleinert
gut das ich den ad104 mit 46sm gekauft habe das ist noch frisch daher folgen Tests später der Einbau könnte sich um Wochen verschieben.
Das die preise zudem noch steigen werden dank Strafzöllen, lohnt das warten nicht.
Daher wird es maximal mit dieser Änderung doch ne rtx6060ti geben in n3 node bei doppelten alu per sm
womit dann 3,0ghz tsmc n3 node und 128bit si gr203 auf die perf des gb202 kommt.
Demzufolge dürfte sich noch ein gr205 lohnen mit dann der perf des gb203

Das gute ne rtx6060ti 40sm 176fp32 dürfte bei 3,0ghz 44tf landen mit 205w tbp und 18gb vram
Darunter wird es definitiv apu geben die dual channel Lösung bei gpu wäre als idee genial der haken ist aber die Latenz die damit gesteigert wird. und das ist unklar bei cpu dürfte das etwa ein ramclock cycle sein
vram hat Normalerweise etwa 0,6-1,5ns Latenz je nachdem wie weit die chips abstand haben vom package
mal sehen wie das umgesetzt wird.
 
Powl_0 schrieb:
Macht das Nvidias Vram Geiz besser?
Habe ich mit der Karte dann zwingend nur noch 1/10 der FPS und kann sie gar nicht mehr benutzen, weil in einem Edge Case der Speicher überläuft? Vielleicht liest du dir mal die Beiträge durch auf die ich geantwortet habe und erkennst an, dass ich mit keinem Wort den Vorteil eines größeren Speichers negiere, wohl aber seine Auswirkung in der Praxis, die völlig übertrieben und unwahr dargestellt wurde.
Powl_0 schrieb:
"Aber die anderen", ich kanns nicht mehr hören.
Ja, das ist so. Wenn du heute eine GPU kaufst, dann gibt es mehr Metriken als nur die Speichergröße.
Ich hätte auch gerne 24GB auf der 4080, habe aber durch das 256bit Interface nur 16GB zur Verfügung, weil 32GB Overkill gewesen wären. Man kann nicht alles haben. Und wenn ich damals eine RTX 3070 gekauft habe, liege ich dem RX 6800 16GB Benutzer auch nicht 24/7 in den Ohren, dass in Until Dawn mit HW RT oder in in Silent Hill mit HW RT oder mit Ray Reconstruction, oder mit DLSS Performance statt Quality dann die doppelten FPS bei gleicher BQ habe. V-ram hin oder her, brauchen die Spiele nicht.
Powl_0 schrieb:
Der Kellner spuckt dir in die Suppe, aber du findest das okay, weil im Laden nebenan würzen sie mit Hausstaub?
Dann hast du dir nun 10 Jahre lang in die Suppe spucken lassen. Wozu gehst du dann immer noch in dasselbe Restaurant?
Powl_0 schrieb:
Deine Vorschläge sind größtenteils nunmal noch schlechter als mich mit knappem vram abzufinden. Was soll das bitte sein? Nochmal merklich schlechtere Bildqualität bzw Hobby ganz aufgeben? Da kann ich nur noch lachen.
Ah also ist es vielleicht doch gar nicht so schlimm? 😆
Powl_0 schrieb:
Da redeten wir regelmäßig von 25-33% mehr vram im gleichen preissegment.
Natürlich, dafür hat man andere, meines Erachtens viel heftigere Nachteile beim Kauf einer Radeon.
Wenn man viel V-ram will, muss man also höher ins Regal greifen.
Irgendwo muss AMD auch noch Vorteile für sich verbuchen können und das ist momentan eigentlich nur die Speichermenge.
Powl_0 schrieb:
Aber hey, ich red ne wand an. Es gibt ja keine Probleme, wenn man sie einfach ignoriert und schönredet.
Ja, der liebe Nighteye tut so, als hätte er mit der rx 6800 den besten Kauf seines Lebens gemacht und hat 10x so viele FPS und die GeForce ist ständig im V-ram Limit und sein Kollege leidet angeblich so darunter.
Und dann kommst du und steigst in die Diskussion ein und tust so, ich würde sagen es gäbe keine Probleme.
 
Wenn der Chip um 22% wächst, dann gehe ich da von einem ordentlichen "Leistungs"-Zuwachs (in €) aus.
Meine Prognose: Da darf die Geldbörse sagenhafte 27-30% mehr leisten.
 
  • Gefällt mir
Reaktionen: ArrakisSand und metoer
syfsyn schrieb:
Ein monolith also wo 60% der chipfläche fürs analog und si draufgeht
Tut es nicht. Bei weitem nicht. Schau dir einfach mal ein Die Shot an.
Ich weiß nicht warum du das in jedes Forum andauernd schreibst und jedwede Fakten ignorierst.
syfsyn schrieb:
Das glaube ich nicht den für 512bit braucht man alleine 470mm²da wäre maximal gleiche alu menge möglich wie jetzt also 144.
Völlig absurd. Siehe oben. Ein 128 Bit Interface wäre dann ja 117 mm². Ein AD107 ist komplett gerade mal 160 mm² groß.
Ein GT200b hat ein 512 Bit Speicherinterface und ist komplett gerade mal 470 mm² groß.

Oder man nimmt den MCD von Navi 31. 8 Stück davon sind 512 Bit, 128 MB SRAM und 8 Interconnect, die man bei einem Monolith nicht hätte. Und selbst dann kommt man nur auf 300 mm².

syfsyn schrieb:
Wie bei cpu die auch nur einen 64bit si haben wird parallel doppelte daten per bit geladen.
Da ist nicht richtig. Ein Dual-Channel ist ein 128 Bit breites Interface und genau doppelt so groß wie ein Single Channel Speicherinterface. Wie gesagt, einfach mal Die Shots anschauen.


Der ganze Rest des Posts ist auch wertlos, da von völlig absurden werten ausgegangen wird.
Ein 512 Bit Speicherinterface hat etwa 70 mm² und nicht 470.
Hier ein Beispiel Die Shot. Wo sind da 60% analoge Blöcke?
1732428887910.jpeg

Ergänzung ()

syfsyn schrieb:
folglich wären die chips
gb202 744mm² (+42% maximal)
gb203 431mm² (+13% maximal )
gb205 samsung sf4 288mm² 2,67ghz (+3% maximal)
gb206 sf4 117mm² (+-0%)
Wie kommst du auf das schmale Brett die würden bei Samsung fertigen? SF4 aka 4LPP ist nicht mal so effizient wie TSMCs N6. Das Teil würde, wenn es denn 2.67 GHz mitmachen würde, über 450 W verbraten. Und die Fläche wäre dann auch erheblich größer, da 4LPP nicht annähernd an die Datendichte von N5/N4 kommt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: ArrakisSand
dernettehans schrieb:
Schon sehr dreist, dass der Abstand zwischen der RTX5080 und RTX5090 wieder mal viel zu groß sein wird. 16GB VRAM für die RTX5080 ist auch eine bodenlose Frechheit.

wie kriegst du die 16 denn voll? jetzt mal ernsthaft. Ich bin auf der Suche nach 'nem Game das die 16GB meiner 4080 vollpackt. (DQHD)

Die nächste GEN GPU's kommt raus, und die meisten Gamer zocken mit 8GB ohne Probleme.
Und ich mit meiner 4080 muss mich ordentlich ins Zeug legen um überhaupt mal > 8 GB zu kommen.

Was nicht heißen soll, das 16GB bei der 5080 ein geschickter Move sind, denn so wird ein Upgrade zur 5080 weniger attraktiv.
 
@Jan
Jan schrieb:
Die GB202 getaufte GPU soll 24 × 31 mm² messen und auf einem Package mit 63 × 56 mm² Kantenlänge sitzen.
Da gehört kein mm² sondern nur mm.
Ihr hab jetzt quasi etwas unkonventionell geschrieben die GPU misst 744m³ in einem Package von 3528mm³ :D
 
  • Gefällt mir
Reaktionen: Jan
Wow die neue 5090 wird der Hammer ! Bald können wir zuschlagen - ich freu mich schon so.
 
  • Gefällt mir
Reaktionen: freezer255 und cruse
ThirdLife schrieb:
weil du hierfür einzelne Games rauspicken musst
Reale Games zählen also nur, wenn du sie aussuchst? Meine aktuell, tatsächlich und ganz normal gespielten Spiele zählen nicht?
Lass mich raten: alle Spiele (und Einstellungen), die eine 4090 auslasten können gelten nicht und sind rausgepickt. Ist ja sehr praktisch für dein Argument.

Mache ich in Zukunft auch so. Ich habe immer Recht, wenn ich einfach alle Beispiele verbiete, die mein Argument widerlegen. Hätte ich da mal früher dran gedacht.
ThirdLife schrieb:
von 96.000 auf Steam.
Wenn wir das immer anhand aller jemals erschienenen Spiele messen, dann braucht keine Karte ihre volle TDP.
Ich hoffe du merkst selbst, warum das Käse ist.
Wow, alle Karten super effizient, weil sie x tausend Spiele auf Steam mit nur 10% TDP lupfen! (Lass uns einfach ignorieren, dass diese Spiele dann >10 Jahre alt sind oder irgendwelche 2D Indies ohne Anforderungen.)
ThirdLife schrieb:
Du stellst es aber so dar, als fährt die Karte generell ihre TDP nicht aus. Du nimmst deinen Beispielfall und bläst ihn als allgemeine Aussage auf, willst dann aber meinen Fall nicht zählen lassen.

Man scheint dich also doch erinnern zu müssen, dass dein Nutzungsszenario nicht das einzige ist.

Aber ich merk ja schon. Du fährst die Karte mit angezogener Handbremse in alten Spielen und deshalb ist sie für alles und jeden immer ein sparsames Effizienzmonster. Wieso hat Nvidia die Karte überhaupt so dick gebaut? Hätten sie halt dich gefragt, sie auf 200W limitiert und mit kleinem knuffigen Kühler rausgebracht. 4090 für 1440p60 kaufen, genau mein Humor...

Keinen Bock auf sowas. Liste und gut is.
Ergänzung ()

Quidproquo77 schrieb:
wohl aber seine Auswirkung in der Praxis, die völlig übertrieben und unwahr dargestellt wurde.
Wenn der Beleg klar da liegt, was ist dann unwahr? Ist ein Extrembeispiel. Die Aussage dahinter war aber auch nicht, dass so ein extremes Gefälle deshalb in allen oder vielen Spielen auftritt.

Es kam doch in dieser Diskussion oft genug auf, dass durch knappen Vram verschiedene Probleme in unterschiedlicher Stärke auftreten können.

Ruckler zwischendurch, automatisch reduzierte Bildqualität, Pop-In, und im härtesten Fall dann eben richtig harter Performanceeinbruch.

Aber hey, diese Nuance wird geschickt ignoriert und jetzt stehen wir hier. Zitier doch beim nächsten Mal nicht nur das heraus gepickte Extrem, sondern behalte den Rest der Beispiele im Kopf.

Quidproquo77 schrieb:
Quidproquo77 schrieb:
Ah also ist es vielleicht doch gar nicht so schlimm?
Quidproquo77 schrieb:
dafür hat man andere
Merkst du es selbst eigentlich nicht?
Weißt du, dass du Probleme bei Hersteller A nicht mit Problemen bei Hersteller B rechtfertigen und dann einfach still akzeptieren musst?

Du lässt keine Kritik zu, weil man auch anderswo kritisieren könnte oder weil es auch schlimmeres gäbe. Was ist da die Logik?

Mir geht diese unterwürfige Art sowas von auf die Nerven.

Quidproquo77 schrieb:
der liebe Nighteye tut so, als hätte er mit der rx 6800 den besten Kauf seines Lebens gemacht und hat 10x so viele FPS und die GeForce ist ständig im V-ram Limit und sein Kollege leidet angeblich so darunter.
Nö, so tut er nicht. Aber du darfst es natürlich gern so darstellen, wenn du dich dann besser fühlst.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: SweetOhm
Es wäre dringend Zeit, sich von dem inzwischen idiotischen ATX-Format zu verabschieden. Selbst damals, als BTX entworfen wurde, hatten CPUs bis zu 80 W, aber GraKa nur ca. 25 W.

Ist es denn niemandem möglich, z.B. mittels Riser-Cards ohne große Investitionsverluste neue PC-Formfaktoren zu entwerfen?

NVidia hat natürlich kein Interesse, dass ihre Bauteile möglichst lange halten.
 
Randnotiz schrieb:
Wenn die Tabelle akkurat ist, war mein Tipp von vor ein paar Sonntagsumfragen immerhin richtig, dass die 5090 definitiv über 32G VRAM verfügen wird.

Der 5070 hätte man dann aber schon locker 16G spendieren können und mit der 5080 auf 24 gehen können, dann ergibt die Zwischenstufe mit der 80, welche ja eigentlich das Flagschiff für Spieler ist, wenigstens auch Sinn.
Ich befürchte diese sinnvolle VRAM Aufteilung wird den Ti Modellen vorbehalten sein. Zum Release speißt man die Leute erstmal mit ner 16GB 5080 ab.
 
Powl_0 schrieb:
Wenn der Beleg klar da liegt, was ist dann unwahr?
Welcher Beleg denn? Ich Stelle mich ans Ende des Universums, blicke gen Himmel, kombiniere FG mit AFMF und komme so auf 600 FPS, während der andere Spieler auf einem Planeten rumläuft?

Wenn das für dich ein Beleg ist, dann Prost Mahlzeit.
Powl_0 schrieb:
Aber hey, diese Nuance wird geschickt ignoriert und jetzt stehen wir hier.
Spar dir bitte dein Strohmannargument.
Dass knapper Speicher Nachteile hat, hat hier niemand bestritten.
Powl_0 schrieb:
Zitier doch beim nächsten Mal nicht nur das heraus gepickte Extrem, sondern behalte den Rest der Beispiele im Kopf.
Nein, ich weigere mich solchen Stumpfsinn als "Beispiele" zu akzeptieren.
Was zählt sind echte Messungen.
Powl_0 schrieb:
Merkst du es selbst eigentlich nicht?
Weißt du, dass du Probleme bei Hersteller A nicht mit Problemen bei Hersteller B rechtfertigen und dann einfach still akzeptieren musst?
Merkst du es noch? Hier wird ein Nachteil eines Herstellers völlig undifferenziert und mit unwahren Aussagen über alle Maßen übertrieben und dann kommst du an uns bläst in das gleiche Horn.
Powl_0 schrieb:
Du lässt keine Kritik zu, weil man auch anderswo kritisieren könnte oder weil es auch schlimmeres gäbe. Was ist da die Logik?
Du liest einfach nicht den Beitrag auf den ich geantwortet habe. Sondern fängst aus einem Schnipsel davon eine neue Diskussion an und unterstellst mir Dinge die ich nicht sage.
Powl_0 schrieb:
Mir geht diese unterwürfige Art sowas von auf die Nerven.
Also wenn jemand sagt: "Haha, mit der Radeon kann man nicht mehr mit RT vernünftig zocken und muss neu kaufen" und ich komme und sag "mit etwas reduzierten RT und FG geht das sehr wohl auch noch ganz gut" , dann kommst du und sagst: "Du lässt keine Kritik zu!!"
Powl_0 schrieb:
Nö, so tut er nicht.
Na klar tut er das, aber darauf gehst du nicht ein.
Powl_0 schrieb:
Aber du darfst es natürlich gern so darstellen, wenn du dich dann besser fühlst.
Hier sagst du die Unwahrheit und da ist ist diese Debatte für mich vorbei.
 
Die 5090 wird am Ende die Einzige Karte sein welche tatsächlich einen größeren Vorsprung zum Vorgänger haben wird.
 
Spock37 schrieb:
Es wäre dringend Zeit, sich von dem inzwischen idiotischen ATX-Format zu verabschieden. Selbst damals, als BTX entworfen wurde, hatten CPUs bis zu 80 W, aber GraKa nur ca. 25 W.

Ist es denn niemandem möglich, z.B. mittels Riser-Cards ohne große Investitionsverluste neue PC-Formfaktoren zu entwerfen?

NVidia hat natürlich kein Interesse, dass ihre Bauteile möglichst lange halten.
1732437515424.png



Hier ist die ATX Spec von 1995. Viele Boards lassenmittlerweile die oberen Slots weg. Der erste Slot ist eigentlich in der Mitte des Boads, wo auch die Schraublöcher sind.

Wenn du dir Boards wie das X870 Taichi Lite anschaust:

1732438517895.png


Siehst du das die oberen 2 Slots fehlen. Dadurch kriegt man immerhin mehr Abstand zur CPU.
 
30 % Preissteigerung sollte drin sein.
Ich schätze mal eine RTX 5090 auf 2499 €. customs von Asus und Co bei 2800 bis 3000 €
 
Quidproquo77 schrieb:
die Speicherbelegung zwischen Radeons und GeForces massiv unterschiedlich, deshalb macht es wie bereits erwähnt keinen Sinn, von deiner Auslastung auf eine andere GPU zu schließen.
Dein Bench ist alt. Seit diesem Jahr stieg der Vram Bedarf massiv.
Vorallem seit dem Polaris Patch.
Gestern hatte ein Kumpel von mir seine Polaris in die Garage gerufen, er hatte sofort 11,5GB Vram voll in seiner Geforce 3060 12GB. Und er spielt nur 1080p. Hätte ich gewusst dass du mit so einem alten Schinken ankommst, hätte ich mir einen Screenshot von meinem Kumpel geben lassen.
Und er spielte nicht auf Maximalen Grafikdetails.
Quidproquo77 schrieb:
Natürlich, muss ich mit weniger V-ram hier und a ein Setting mehr reduzieren, das ist aber nicht der Punkt
Doch, genau dass ist der Punkt. Wer kauft sich ne RTX 5070 12GB für 800€ um dann auf Low Details 1080p rumzugurken ? Nur weil man es heute mit Software Cheats etwas kompensieren kann, macht dass noch lange keine gute Grafikkarte. 0% Zukunftssicher.
 
Czk666 schrieb:
Wer soviel Geld für eine Grafikkarte ausgibt und dann schon die dazugehörigen Features wie FG, rr, ... nicht voll benutzen kann, kann schon verlangen, dass genug vram drauf ist.


In dieser Kategorie sind 16gb ein absoluter Witz.
Hier wird mir zu sehr die schlechte Optimierung der Spiele auf den VRAM Bedarf gemünzt. Es verhält sich ja ähnlich mit DLSS, man hatte ja gehofft, es wäre ein Zusatz aber heute ist es ein Muss es zu aktivieren um annehmbare Performance zu erreichen. Wer sagt mir, wenn ich 32 GB VRAM habe, dass die Spiele dann der Optimierung des Speicherbedarfs nicht zum Opfer fallen. Begrenze den Vram und die Entwickler müssen um diese Begrenzung hin optimieren, man gebe ihn viel VRAM, dann gibt es kein Optimierungsbedarf.

Vergleichbar mit Filmen, geringes Budget und die Anstrengung einen guten Film daraus zu machen sind größer. Schmeiße ihnen Geld in den Rachen und die Filmemacher werden faul
 
Nighteye schrieb:
Dein Bench ist alt. Seit diesem Jahr stieg der Vram Bedarf massiv.
Vorallem seit dem Polaris Patch.
Gestern hatte ein Kumpel von mir seine Polaris in die Garage gerufen, er hatte sofort 11,5GB Vram voll in seiner Geforce 3060 12GB. Und er spielt nur 1080p. Hätte ich gewusst dass du mit so einem alten Schinken ankommst, hätte ich mir einen Screenshot von meinem Kumpel geben lassen.
Und er spielte nicht auf Maximalen Grafikdetails.
VRAM Belegung ist nicht gleich VRAM Verbrauch, das wurde schon oft genug gesagt und festgestellt. Nur weil ein Spiel 11,5GB belegt heißt es nicht, das es diese 11,5GB auch benötigt.
Nighteye schrieb:
Doch, genau dass ist der Punkt. Wer kauft sich ne RTX 5070 12GB für 800€ um dann auf Low Details 1080p rumzugurken ? Nur weil man es heute mit Software Cheats etwas kompensieren kann, macht dass noch lange keine gute Grafikkarte. 0% Zukunftssicher.
Wer sich eine RTX 5070 mit 12 GB kauft wird damit durchaus mehrere Jahre Spaß haben und auch in FullHD keine Probleme mit dem VRAM bekommen. Nur weil es eine handvoll Spiele gibt welche meinen mehr belegen zu wollen (ohne es zu müssen) ist es noch kein sinnvolles Argument das die 12GB zu wenig sind.

Ich selbst würde auch keine Karte unter 16GB kaufen, aber ich wechsel meine Hardware auch nur aller x Jahre mal. Aktuell läuft bei mir noch eine GTX 1080 :P

Wer 1080p spielt wird mit der 5070 nicht gleich in Probleme laufen, weder heute noch morgen.
 
  • Gefällt mir
Reaktionen: cruse
Zurück
Oben