Kuestennebel79
Lt. Commander
- Registriert
- Okt. 2019
- Beiträge
- 1.220
Ob die 5090 bei 2000 Euro liegen wird?
Ein 5080 für 1400 und 5070 für 1000 Euro wären auch gut denkbar.
Ein 5080 für 1400 und 5070 für 1000 Euro wären auch gut denkbar.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
JMP $FCE2 schrieb:Dass eine Grafikkarte nach 8 Jahren noch so gut brauchbar ist, wie heute die GTX 1070, das kam damals nicht vor. Nach spätestens 3 Jahren waren die Dinger nur noch als Briefbeschwerer zu gebrauchen.
Ja, da hat Grün gut ge🤡t. 1A!Nighteye schrieb:RTX3070 8GB
AMD würde sich das dann auch entsprechend bezahlen lassen.pookpook schrieb:Was ist wenn die 8800XT doch über 7900XT Leistung bei 3x RT Leistung und 500€ dann kauft kaum eine eine überteuerte 5070 mit 12GB.
In FullHD gebe ich dir recht, in WQHD und 4K, braucht man eine, wenn man nicht alles auf niedrig und mit 30fps zocken will.Firefly2023 schrieb:Ich weiß es! Ich weiß es!😂
Für kein einziges!
Das ist Quatsch. Man braucht auch für WQHD keine 5090.Syrato schrieb:In FullHD gebe ich dir recht, in WQHD und 4K, braucht man eine, wenn man nicht alles auf niedrig und mit 30fps zocken will.
Und an die Fraktion: aber es wird weiter gekauft bla bla bla. Wenn man in jedem Spiel auf WQHD 165fps erreichen möchte, will man ne 4090. Hätte AMD ein Gegenstück, würde ich mir die kaufen.
Das ist eigentlich ganz gut, dann wird die RTX 5070 TI auf dem gleichen Chip, wie die RTX5080 daher kommen und damit 16GB liefern.Vitche schrieb:Allerdings ist jetzt davon die Rede, dass die RTX 5070 mit dem GB205 auf einen deutlich kleineren Grafikchip setzen wird.
Ganz spontan fallen mit z.B. noch die 512MB Versionen der HD 4850 / 4870 ein...Tigerfox schrieb:AMD hatte aber auch Speicherkrüppel, meist aber technisch bedingt. Mir fallen die R9 Fury X ein, die HD3850 256MB (512MB waren Standard und die Karte hatte damit weniger Probleme als die 8800GT 256MB) und die R9 285 2GB bzw 385(X) 2GB. Erst Letztere gab es mit 4GB, die 2GB-Version war auch Mumpitz. Und jetzt neuerdings ganz unten die RX 6400/6500XT mit 4GB.
LeChuckie schrieb:Hallo nvidia, wir sind eine Generation weiter und erwarten mehr.
Tigerfox schrieb:Nö, mittlerweile ist das ein handfestes Handicap. Selbst bei 12GB findest Du in der aktuellen Generation hier bei CB Tests, wo 12GB zu wenig sind, also z.B. mit RT die Frameraten zu stark einbrechen, die Details ungefragt runtergeschraubt werden oder Fehler entstehen. Mit 8GB ist das inzwischen häufig der Fall und 8GB konnte schon bei der 3070(Ti) zu wenig sein.
Deine Aussage kann ich aus der Praxis so nicht bestätigen.Syrato schrieb:In FullHD gebe ich dir recht, in WQHD und 4K, braucht man eine, wenn man nicht alles auf niedrig und mit 30fps zocken will.
Mir auch.Firefly2023 schrieb:MIR fehlen richtig gute Spiele.
I could not care less, so (unter)scheiden sich die Geister.Firefly2023 schrieb:graphisch abliefern.
Klaaaar, Hanswurst der OEM-Fertigkisten kauft hört davon nichts und kauft trotzdem. 2/10 Gamern in meinem Umfeld haben Ahnung und wären (oder sind) dann dabei, der Rest... Kannste knicken, selbst wenn es viral geht, wir ""Freaks"" sind eine Minderheit.fortknox schrieb:Obwohl wir uns mit social-Media ganz einfach hätten zusammenschließen können. Per Hashtag #WithoutmeNVIDIA oder was weiß ich...
LeChuckie schrieb:nvidia, wir sind eine Generation weiter und erwarten mehr.
Kommt sehr drauf an, was man mit welchen Settings und in welcher Auflösung spielen will. Und ob ich mit den 9% mehr Leistung einer RX 6400 jetzt 55 statt 50 fps habe, macht den Kohl auch nicht fett. Selbst wenn die knapp über 60 fps erreicht, stelle ich mit einer APU halt 1-2 Settings etwas niedriger und spare mit die Zusatzkosten für eine dGPU.Tigerfox schrieb:Eine APU macht nie Sinn zum Spielen.
Nein, geht es nicht.CadillacFan77 schrieb:Wenn es PCIE 5.0 Lanes sind geht das schon in Ordnung.
Zum Speicher: überraschend ist das nicht. nVidia macht das schon immer so, selbst wenn Konkurrenz seitens AMD besteht.