Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Ich hoffe immernoch das der hohe verbrauch nur ein gerücht ist.
Das ist einfach der falsche weg und ohne wasserkühlung kommst nicht weit.
Ich meine, ich hab jeher eine genutzt aber das kann nicht sein.
Wie willste das ding mit luft kühlen ?
EVGA luftkühler sind schon groß und mächtig, aber da brauchst da 4 slots für kühlung
@Laphonso interessante Thesen.
Aber zu deiner 2# Nvidia These bin ich mir sich wird der Abstand nicht so hoch sein. AMD wird sicherlich was RT angeht die Performance bei RDNA3 deutlich steigern.
Auch DLSS und FSR weden bei der Performance und Bildqualität nicht mehr soweit auseinander liegen wie es jetzt noch der Fall ist. Irgendwann werden die Verbesserungen keine großen Sprünge mehr erlauben.
Die Preis/Leistung ist derart schlecht geworden, dass ich gerne ganz auf eine neue GPU verzichte. Ich zocke eigentlich gerne, aber das Ganze Brimborium um neue Karten zu Mondpreisen möchte ich nicht unterstützen. So bleibt es enen bei älteren Games oder niedrigeren Details auf einer 1070er und vielleicht etwas Gebrauchtes in ein paar Jahren.
Geht es anderen auch so?
Das hängt von der "Wertigkeit" Deines Gaming Hobbys ab in Deiner persönlichen Struktur.
Nach Feierabend und langen Arbeitstagen so ein "zoning out" zu haben macht mir bei Forza Horizon 5 z.B. in UWQHD mit Maxsettings mehr Spaß. Ich könnte das in full hd bei medium Settings schlicht nicht mehr genießen, denn Immersion und Atmosphäre entstehen bei vielen durch die Kombination der audiovisuellen Präsentation.
Mein Lieblingsbeispiel ist Metro Exodus. Raytracing on und off sind, wörtlich, Unterschiede wie Tag und Nacht.
Man "kann" auch das auf medium Settings ohne RT Spielen.
Aber es verliert wirklich an allem: An Atmospähre, an Wirkung, an Spannung, an Eindruck, und für mich(!) damit an Spielspaß.
Wer Metro Exodus ohne maxed Raytracing spielt (oder spielen musste), vor allem die Dämmerungs- und Nachtmomente, hat es nicht in voller Form "erlebt".
Ich kann und möchte jeden frame und jeden Effekt zusätzlich genießen. Ich bin also einer der Irren, die jede GPU Generation das Topmodel kaufen. Das ist nur ein (vergleichsweise günstiges) Hobby, keine rationale Lebensentscheidung.
Wenn Dir das alles nicht so wichtig ist, hast Du monetär die beste Ausgangslage, kaka11, weil Du den Wahnsinn des Ampere und RDNA 3 Launches entspannt beobachten kannst und eben noch länger mit reduced settings zockst. Da bin ich neidisch, ich kann das nicht.
Ich habe bereits 2 Anfragen im Freundeskreis, wann ich mein 3090 + 5950x System denn verkaufe, die "neuen GPUs kommen doch bald?" 🤣
EDIT und P.S.: Man "muss" auch bitte keine 1000 Euro GPU kaufen, um eine 1070 zu ersetzen mit einem deutlichen Leistungssprung. .
Wer Ampere und RDNA 2 übersprungen hat oder überspringen musste angesichts der Preise und Verfügbarkeit, hatte dann ja nochmal 2 Jahre Zeit, Geld zurückzulegen.
Bereits 30 Euro monatlich seit Ende 2020 sind dann ja (bis Herbst 2022) nochmal weitere ~ 700 Euro on top zu dem Budget, das man damals hatte. Plus ggf. Erlös aus dem VK der aktuellen GPU.
Aber zu deiner 2# Nvidia These bin ich mir sich wird der Abstand nicht so hoch sein. AMD wird sicherlich was RT angeht die Performance bei RDNA3 deutlich steigern.
Man darf an der Stelle auch nicht vergessen, das ein Teil der RDNA² Schwäche sich auch ein Stückweit darauf schieben lässt, dass viele Spiele RT erst auf Turing umsetzen konnten und AMD quasi erst 2020 ja RT ermöglichte.
Gerade Metro Exodus Enhanced zeigt da ja ein gewisses Bild, dass AMD nicht ganz so abgeschlagen ist, wie in manchen Spielen. In RT-Normal liegt die 3080 ca. 12 % in Front, RT-Ultra sind es 20 % und mit den Reflexionen sind es 28 %.
Gerade dieses Spiel hat eine gute RT-Umsetzung und hier liegt RDNA² im weiten nicht so krass zurück, wie in manchen anderen Spielen. OB RDNA² eine RT-Schwäche hat? Kann man so einfach nicht beantworten und man kann auch nicht sagen, dass in AMD-Spielen dann die RT-Effekte absichtlich beschnitten werden.
Der Blick auf RT bei AMD aktuell muss etwas differenzierter erfolgen: Ja, RDNA² zieht in RT gegenüber Ampere den kürzeren. RDNA² besitzt aktuell auch nur die erste Iteration der "RT-Kerne" und "RT-TMUs" von AMD.
Gleichzeitig werden und wurden viele Spiele aktuell primär auf die RT-Implemetnation von NVIDIA zugeschnitten und sind eher RTX statt DXR-Spiele. Dadurch wird das Bild auch noch zu ungunsten von AMD verschoben, wodurch die Schwäche noch verstärkt wird.
Wirkliche DXR-Spiele, die auf beiden Hardware-Implementationen entwickelt werden, laufen auch auf RDNA² gut, auf Ampere besser. Der Unterschied ist aber nicht mehr ganz so krass. NVIDIA hat einen Vorsprung, keine Frage, aber der Vorsprung wieder bei neueren Spielen mit der Zeit eher geringer werden als größer.
Liefern ja. Die frage ist nur ob sie auch richtig funktionieren. Ich selbst bin Pro AMD und mein PC ist komplett AMD (Ryzen und RX 6900 XT). Merke aber ,dass die Treiber eher mist sind und für eine Spiele AMD GPUs problematisch sind.
Vielleicht wirds ja wie bei Fermi.
GTX 480er waren extrem heiß und stromfresser (295 W)
GTX 580er besser aber noch unangenehm im Sommer (244 W)
GTX 680er waren Optimal (195 W)
GTX 980 (165 W) hat den Trend sogar noch fortgesetzt.
Wollen wir hoffen das wir also in 4 Generationen wieder so Sparsam sind wie wir es gewohnt sind
Die Specs der 7900XT sind schon Brutal, hoho
Wenn NV 21k Shader aus einem Chip ziehen will/muss, muss der Gigantisch groß sein und die Ausbeute sicher klein pro Wafer was die mit Vollausbau angeht, von daher sicher sehr viel teurer.
Das hängt von der "Wertigkeit" Deines Gaming Hobbys ab in Deiner persönlichen Struktur.
Nach Feierabend und langen Arbeitstagen so ein "zoning out" zu haben macht mir bei Forza Horizon 5 z.B. in UWQHD mit Maxsettings mehr Spaß. Ich könnte das in full hd bei medium Settings schlicht nicht mehr genießen, denn Immersion und Atmosphäre entstehen bei vielen durch die Kombination der audiovisuellen Präsentation.
Ich stimme dir zwar grundsätzlich zu, aber man kann seine Prioritäten auch anders und vielleicht sinnvoller setzen.
Ich z.B. hab mein Geld lieber in einen OLED gesteckt, als es Nvidia bzw. den Händlern in den Rachen zu schieben.
Und Irgendwelche RT Settings auf Max. zu stellen ist halt ein Witz im Vergleich zu dem, was ein OLED mit HDR in Sachen Bildqualität bringt.
Ich finds immer komisch, dass Leute 2000-3000€ alleine für ne GPU ausgeben und an nem LCD spielen. Während jemand der 399€ für ne komplette Konsole + 2000-3000€ für nen OLED hinlegt, wohl das deutlich bessere Bild hat.
Dank Upscaling bzw. DLSS und TAA-U reicht halt selbst mittelklasse Hardware locker aus, um einen 4K OLED mit 60+ FPS angemessen zu befeuern.
Am Ende muss natürlich jeder selbst wissen, was er braucht und haben möchte. Ich finds einfach nur wichtig, auch mal andere Anreize zu schaffen. Ne neue Grafikkarte ist nicht das einzige, was die Grafik geiler macht. Eigentlich eher noch im Gegenteil. Denn der Sprung auf den OLED hat mich selbst heute noch mehr begeistert als der 300% Leistungssprung, den ich als Jugendlicher mit ner neuen GPU mal gemacht habe (+300% war eben mein größter Leistungssprung bisher).
Laphonso schrieb:
Bereits 30 Euro monatlich seit Ende 2020 sind dann ja (bis Herbst 2022) nochmal weitere ~ 700 Euro on top zu dem Budget, das man damals hatte. Plus ggf. Erlös aus dem VK der aktuellen GPU.
Ich glaube viele vergessen bei der Sache, dass es hier wohl eher nicht um "ich kanns bezahlen" oder "ich kanns mir leisten" geht (solche Leute kaufen sich einfach ne Xbox Series S und gut ists), sondern eher darum, was vernünftig ist, was fair ist und was angemessen ist.
Ich sehe für mich z.B. prinzipiell kein Problem, ordentlich Geld für mein Hobby in die Hand zu nehmen und würde auch dafür sparen, wenn nötig. Im Vergleich zu anderen Hobbies ist der PC auch noch vergleichsweise günstig. Trotzdem vermeide ich es Geld für Produkte auszugeben, bei denen ich das Gefühl habe, keinen angemessenen Gegenwert zu bekommen oder über den Tisch gezogen werden.
Ich werde mir z.B. auch nicht das Spiel Forspoken kaufen, weil der Publisher 10€ mehr als üblich will.
Ganz ehrlich, was jucken mich schon 10€. Aber mir gehts hier ums Prinzip. Und ich finds irgendwie schade, dass so wenig Leute so denken.
ich glaube mit 8gb lockt man da keinen mehr hinterm ofen hervor. ende 2022 dürften die zeiten vorbei sein; den außer im einstiegsbereich dürften 8gb schlicht zuwenig werden im midrange bereich und darüber..
---
dazu bin ich auch auf die preise gespannt - riesige monolithische chips düften genausowenig billig sein wie multiple chips in 5/6nm welche dann auf einem interposer zusammengesetzt werden. wenn man dazu noch die inflation berücksichtigt welche in den letzten beiden jahren zusammen wahrscheinlich die 10% marke geknackt haben düfte und immernoch eher dürftige lage bei den leiferketten in der branche, kann ich mir kaum vorstellen dass wir hier neue "preisleistungs-sympathieträger" angeboten bekommen.
auch der stromverbrauch wird mMn. zurecht kritistiert; wir reden hier offenbar nicht über verbrauchssprünge von 10-15% und einer entsprechend gesteigerter effizienz, so dass unterm strich ein relativ großes performanceplus bei moderatem mehrverbrauch herauskommt - zumindest ist das die info die ich aus den zahlen herauslese.
sofern ich nicht irre, sind die tdp's/tbp's der "oberliga" zur zeit so:
6700xt - 230w
6800xt/6900xt - 300w
3070/ti - 220w/290w
3080/ti - 300w/350w
3900/ti - 350w/450w
wenn jetzt 450w oder gar 600w (das kann ich mir kaum vorstellen) im raum stehen, dann sollte man wirklich kritisch sein.
selbst wenn 450w nur bei den topmodellen fällig werden, so ist das bei amd ein sprung von 300w auf 450w und bei nvidia (wenn man die 3090ti außen vor nimmt) ein sprung von 350w auf 450w..
lange zeit konnte ein gaming-pc mit einem netzteil zw. 500-650w so ziemlich alles stemmen was an hardware verfügbar war, aber da gehen wir jetzt in eine ecke in der 750w+ netzteile eher regel als ausnahme werden dürften; angesichts dessen dass wir uns längerfristig generell von energieschluckern verabschieden wollen ist das eine bedenkliche entwicklung..
Einfach ein kleineres Modell kaufen und gut ist. Spart zudem auch noch Geld.
Alternativ das Powerlimit beschränken und die Karte ggf. noch undervolten. Der Performance-Verlust hält sich dabei erfahrungsgemäß in Grenzen, da die Karten dann einfach massiv effizienter werden.
W0lfenstein schrieb:
Wie willste das ding mit luft kühlen ?
EVGA luftkühler sind schon groß und mächtig, aber da brauchst da 4 slots für kühlung
Ich freue mich aus technischer Sicht schon richtig auf den Herbst/Winter!
RDNA3 und Lovelace für die GPUs, Raphael und Meteor-Lake für die CPU.
Kann die Tests von ComputerBase kaum erwarten!
Solange ich kein Tool zur Hand habe mit dem ich die GPU in den tiefsten Powerstate zwingen kann und automatisch bei Spielen hoch Taktet, werde ich keine AMD im System haben.
Hört doch endlich mit dem Gejammer auf, ich nutze jetzt seit über 3 Jahren eine 2080 auf UWQHD und war noch nie im VRAM Limit, nicht mal im Ansatz. 8GB sind für 90% der User absolut ausreichend und werden es auch eine Weile bleiben.
Ich weiß ja nicht was du spielst, aber mit einer 3070 in Forza 5, WQHD, höchste Einstellungen, kommt es zu Grafikfehlern und das Spiel wirft sogar eine Meldung aus, dass man zu wenig VRAM hat.
In Horizon Zero Dawn WQHD max settings kommt es zu ganz leichten Rucklern. Gut im in-game Benchmark bemerkbar.
Far Cry 6 WQHD mit HD Texturen erfordert mindestens 12GB VRAM.
Bei meinem Kollegen mit einer 2080 genau das gleiche Problem. Dann spielst du einfach die falschen (oder richtigen?) Spiele, wo du nicht ins Limit läufst. Nur sind das halt AAA Games, von denen ich denke, dass das typische Spiele für jemanden mit einer 549€ (UVP) GPU sind.
Das haben wir hier aber immer mal wieder, und ich verweise dann (wie viele andere) darauf, dass Hobbyausgaben oft irrational und mit Emotionen getrieben sind.
Wenn ich sehe, was andere im Freundeskreis für "Haus&Garten", Urlaube, Uhren, Auto(-Basteleien), Sportartikel, Klamotten und Freizeit ausgeben, finde ich mein PC Gaming Hobby samt Nutzungsdauer nicht wirklich "teuer".
Alles eine Frage der Perspektive, nicht ob man "recht" hat.
Dein Prinzip und mein Prinzip haben diametral verschiedene Ziele, und dadurch ist es so schwer, die "andere" Seite ggf. zu verstehen.
Ich verstehe aber, dass man es behämmert finden kann, überhaupt eine 3090 fürs Gaming gekauft zu haben um jetzt bereits wieder auf eine 4090 zu planen.
Es ist halt mein Daddelhobby.
Ich muss dafür aber auch nicht nach zig Slider Anpassungen suchen, damit ich irgendwie meine Mindest-fps erreiche zu reduzierten Grafiksettings.
Siehe oben, alles eine Frage der Prios. Oder wie Du sagst: Des Prinzips!
Mein Prinzip heißt "alle Settings und Slider auf Ultra", weil visuelle Immersion und Optik im Gaming einen wesentlichen Teil meines subjektiven Spielerlebnisses ausmacht.
Andere sehen in mir (oder meiner Gattung) halt die GPU Konsum Opfer. Das ist dann so
Ich verstehe aber, dass man es behämmert finden kann, überhaupt eine 3090 fürs Gaming gekauft zu haben um jetzt bereits wieder auf eine 4090 zu planen.
Es ist halt mein Daddelhobby.
Ich sag mal so, es werden sich neue Wege durchsetzen die Biester zu kühlen. Die 100 Watt mehr Verbrauch on TOP für beispielsweise einen Cyro Kühler machen den Braten dann auch nicht mehr Fett