Fighter1993
Admiral Pro
- Registriert
- Juli 2009
- Beiträge
- 7.279
? Erklär das mal genauer.Zealord schrieb:(Jeder der TOTK gespielt hat was wie lächerlich Cyberpunk 2077 und Hellblade sind)
Wo sind die guten PC Spiele Boss?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
? Erklär das mal genauer.Zealord schrieb:(Jeder der TOTK gespielt hat was wie lächerlich Cyberpunk 2077 und Hellblade sind)
Wo sind die guten PC Spiele Boss?
Ich hab gestern meine 4090 für 1700€ verkauft nach über 2 Jahren Nutzung. Vielleicht hole ich mir eine.Moritz Velten schrieb:Naja, ich glaube, ich warte noch 1 oder 2 Genetationen und werde sie mir vielleicht dann kaufen, wenn sie im Preis etwa gefallen ist.
Ja aber warum ist CP und Hellblade deshalb schlecht?Zealord schrieb:@Fighter1993 Oh vielen Dank. Schreibfehler. Was = weiss.
Weil Last gen FSR das ist was zur Zeit allen AMD Karten in so ziemlich allen Spielen zur Verfügung steht.. und nextgen FSR4 nur für eine Handvoll Karten in einer Handvoll Spielen zur Verfügung stehen wird..blackiwid schrieb:Warum vergleichst du Last Gen FSR min Current Gen DLSS, AMD hat doch auch mit der neuen Gen dann FSR 4 wo der Abstand wohl zwischen FSR3 und DLSS 3 / 3.5 und FSR4 und DLSS4 wohl (deutlich) gesunken ist.
Ok dann musst aber auch die jetztigen Tests dazu sehen das es zwar in einigen Aspekten deutlich besser ist aber in anderen eben auch deutliche verschlechterung, bis hin zu Games wo es schlechter ist als mit DLSS3.Blackfirehawk schrieb:Wärend DLSS4 für bis zu 6 Jahre alte Grafikkarten zur Verfügung steht und man das via Dateitausch und zukünftig via Treiber in allen Spielen überschreiben kann
Fake Frames interessieren keine Sau und schon garnicht MFG mit 3 Frames und hässliche Artifakte mit Input Lag. Es zählt die Rohleistung! Auch speziell in VR. So spart sich der Hersteller Hardwarekosten und verkauft Dir Fake Leistung.Cleaner57 schrieb:Warum sollten 25% Meheistung enttäuschen?
Ist doch schon eine tolle Leistung.
Dazu kommt noch dass man in manchen Games DLSS4 nutzen kann, und somit die FPS vervielfacht.
Hier machen wohl manche Leute etwas schlecht was sie sich nicht leisten können oder wollen.
shaboo schrieb:Ein Teil der Kritik mag tatsächlich neidgetrieben sein, aber eine geile Karte ist die 5090 - gemessen an einer 4090 - auch ganz objektiv nicht.
eine 4090 habe ich auch, also hat warscheinlich keiner von uns beiden einen ganz gesunden Menschverstand 😂Gaspedal schrieb:Es hat mit sich mit Leisten nichts zu sondern mit gesundem Menschenverstand. Habe selbst übrigens RTX 4090.
Laut Deine Signatur 1080??? Dann gurkst Du mit Leistungsbremse i7 8700k rum aber hast RTX 4090? Da stimmt was nicht, glaube nicht dass Du eine RTX 4090 hast und wenn: Rüste Deine CPU auf Ryzen 7 9800X3D und Du hast mindestens 60-100% mehr Leistung anstatt 25%.Cleaner57 schrieb:Ergänzung ()
eine 4090 habe ich auch, also hat warscheinlich keiner von uns beiden einen ganz gesunden Menschverstand 😂
blackiwid schrieb:Das heißt egal was du glaubst da Nvidia die Tester nicht überzeugen konnte haben sie schon verloren zumindest in der Runde vielleicht kommt dann in 6 12 24 Monaten irgend ein Feature das die Latenz dort kräftig senkt.... aber da kannst dann ja nicht sagen ok hattest am Ende recht weil es bei der 6090 dann geklappt hat... oder 2 Jahre Später per Treiberupdate.
Man sieht das z.B. an Gamingchairs, letztlich sind die schlechter für die meisten Leute wie deutlich Luftigere ergonomische Chairs sie haben aber deutliche Marktanteile gewonnen weil jeder noch so kleine Influenzer offenbar Kostenlos einen solche von den Firmen geschenkt bekommen hat und manchmal auch von den Kleine gekauft wurden weil sie die Optik ihrer Streamervorbilder nachahmen wollten, das zeigt das etwas nicht zwingend "wahr" oder so sein muss, wenn alle Influenzer etwas doofes machen dann machen viele Kunden das denen Nach, also selbst wenn du theoretsich recht haben solltest (was ich nicht so sehe aber egal), hat Nvidia schon verloren weil sie die Influezer mit dem Marketing nicht überzeugt haben.
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Doch, es stimmt.dohderbert schrieb:sorry aber das stimmt so nicht!
Ich sprach nicht von der Ti, sondern von der GTX 780 vs. GTX 680, siehe meine Links oben.CDLABSRadonP... schrieb:Ähemm. Die 980ti war selbst in gemischten Szenarien noch über 50% schneller als eine 780ti. Siehe hier:
https://www.computerbase.de/artikel..._480_580_680_780_ti_980_ti__1080_im_vergleich
Und das bei gleichem Powertarget...
Meine Signatur ist einfach nicht up to date.Gaspedal schrieb:Laut Deine Signatur 1080??? Dann gurkst Du mit Leistungsbremse i7 8700k rum aber hast RTX 4090? Da stimmt was nicht, glaube nicht dass Du eine RTX 4090 hast und wenn: Rüste Deine CPU auf Ryzen 7 9800X3D und Du hast mindestens 60-100% mehr Leistung anstatt 25%.
RTX 4090 hatte deutlich größeren Leistungssprung und war günstiger als 5090. Daher war es OK.
Nein, davon sprachst du nicht:Darken00 schrieb:Ich sprach nicht von der Ti, sondern von der GTX 780 vs. GTX 680, siehe meine Links oben.
Was du jetzt in deinem Posting schreibst, hat keine Auswirkung mehr auf das, was du bereits geschrieben hast.Darken00 schrieb:Die geringe Leistungssteigerung der RTX 5090 ist zwar etwas enttäuschend, aber bei weitem kein Einzelfall. Bei der RTX 20xx gab es auch nur einen ähnlichen Leistungssprung, ebenso bei der GTX 9xx.
Achtung, jeweils relative Angaben, keine Prozentpunkte.Darken00 schrieb:Doch, es stimmt.
Die RTX 2080 FE war im Vergleich zur 1080 FE im Performancerating im Schnitt 28 % schneller, siehe hier:
https://www.computerbase.de/artikel...hnitt_benchmarks_in_1920__1080_und_2560__1440
Die GTX 980 war im Vergleich zur GTX 780 damals 23 bis 30 % schneller, siehe hier:
https://www.computerbase.de/artikel/grafikkarten/nvidia-geforce-gtx-980-970-test.2591/seite-6
Die GTX 780 war im Vergleich zur GTX 680 zwischen 16 und 21 % schneller, siehe hier:
https://www.computerbase.de/artikel...test.2124/seite-3#abschnitt_leistung_mit_aaaf
blackiwid schrieb:Ok dann musst aber auch die jetztigen Tests dazu sehen das es zwar in einigen Aspekten deutlich besser ist aber in anderen eben auch deutliche verschlechterung, bis hin zu Games wo es schlechter ist als mit DLSS3.
Also ich habe DLSS4 schon in einigen Spielen getestet... DLSS Dateien die bereits verfügbar sind in den Ordner reinkopiert und via Inspektor das DLSS Profil J forciert.blackiwid schrieb:Und wenn du nur die DLL austauscht ohne das die Entwickler wie üblich bei diesen Technologien massive Anpassungen machen die von nöten sind wäre ich mir nicht mal sicher das die nicht im Schnitt sogar schlechter dann aus sehen aber bestenfalls halt leicht besser.
Versuch dich nicht herauszureden, das klappt eh nicht: Wer GTX / RTX nmXX schreibt, spricht gewöhnlich von der Verkaufsnamensgeneration. Wenn du etwas anderes meinst, musst du das kennzeichnen. (wie stets bei Namensdefinitionen, bei denen man nicht dem Mainstream folgt) Und nein, Suffixe spielen da keine Rolle.Darken00 schrieb:@CDLABSRadonP... Wenn ich "GTX 9xx" schreibe, meine ich auch die "GTX 9xx" und nicht die "GTX 9xx Ti". Ich sprach hier generell nicht von Refreshs, sondern von neuen GPU-Generationen. Was ich selbst gemeint habe, weiß ich ja wohl noch am besten, oder denkst du, du weißt besser, was ich gemeint habe?
Die damalige FE von Nvidia war eine Werks-OC-Karte; die Referenzwerte lagen darunter.Darken00 schrieb:Mir wäre neu, dass es eine andere Referenzkarte gibt als eine "FE"-Variante. Welches ist denn die RTX 2080 "Referenzkarte", von der du sprichst? Ich sehe sie im Test nicht.
3DCenter aggregiert die Daten aus den unterschiedlichsten Testergebnissen und versucht insbesondere, auch über Zeit hinweg einen weiterhin gültigen Index zu liefern. Der damalige Test hier war hingegen bloß eine Momentaufnahme. Beide haben dementsprechend unterschiedliche Ziele verfolgt.Darken00 schrieb:Im Übrigen ist es lächerlich, meine Verweise zu Computerbase-Tests mit Links zu 3Dcenter zu widerlegen. Wo sind wir hier gerade? Unterstellst du Computerbase, dass sie damals nicht korrekt getestet haben?
Nach 27 Monaten eine Mehrleistung von 25% die dann auch noch durch den höheren Stromverbrauch erzielt wird kann man schon enttäuschend bezeichnen.Cleaner57 schrieb:Warum sollten 25% Meheistung enttäuschen?
Ist doch schon eine tolle Leistung.
Ja das packt vielleicht noch die 5090 bei den meisten aber nicht allen Spielen und Settings, aber @MarcoHatFragen auf den ich geantwortet habe, hat das ja auch für die 4070 und das pauschal gesagt:ColinMacLaren schrieb:1) Reflex 2 ist noch nicht draußen.
2) Mit richtig guter Baseframerate ist Framegen ein Segen auf schnellen Monitoren. Richtig gute Baseframerate heißt für mich 120+.
Aber auch bei der 5090 ist das ja nicht durchgehend gegeben Wukong hast mit DLSS Quality selbst in 1440p nur 71fps und UHD 59, letztlich packt man in den wenigsten games in UHD zumindest >120fps nicht mal im Schnitt. Gibt da einige Ausreißer bei den Benchmarks die den Average hoch reißen wie F1 24 mit 250 fps Raster und 166 Raytracing, God of War und Outcast: A new Beginning.Und deswegen wird die 5070 auch schneller als die RTX 4090 werden
Wem glaub ich nun eher einem halbwegs neutralen Tester oder dir, der viel Geld in Nvidia investiert hat, Redakteure ist das schlimmstenfalls ein Arbeitsgerät das sie von der Steuer absetzen können. Wenn sie es nicht zumindest billiger oder wenn auch angeblich hier nicht geschenkt bekommen haben.Blackfirehawk schrieb:Und kann dir sagen das es durch die Bank durch ein Verbesserung der Bildqualität ist, vor allem in Bewegung, Details/LOD und Bildschärfe..
1. kostet die 4070 deutlich mehr wie ne 7800, 490 vs 650, außer du redest von den Nonsuper das ist aber ein Speichergrüppel das wird dir mit UE5 aber um die Ohren fliegen, außerdem ist das so ein Randargument, wir reden doch hier über die 50er gen und der Gegenspieler wird AMDs neueste Gen sein der zum Release eben FSR 4 können wird, punkt aus. Wenn du es dismissed wegen zu wenig spielen (das wissen wir noch nicht auch bei AMD kann man mitlerweile DLLs tauschen), dann kann ich das mit DLSS auch machen da sie ja auch incht 100% der Spiele unterstützen oder setzt du da willkürlich einen Cutoff point der Nvidia nicht betrifft aber AMD schon.Blackfirehawk schrieb:DLSS4-P vs FSR2-3.1 Nativ
40-50% mehr FPS bei gleicher Bildqualität
Sieht ja niemand nur das Negative, aber zwischen "beste Karte aller Zeiten" und "abgrundtief schlecht" ist die 5090 halt bestenfalls irgendwo in der Mitte; da ist nun mal sowohl nach unten, als auch nach oben noch allerhand Platz, nicht mehr und nicht weniger. Außerdem ist die Messlatte nun mal die Vorgängerin 4090, und das war halt eine nahezu perfekte Karte, die sich als einzige Schwächen den hohen Preis und die Tatsache geleistet hat, dass sie ihre Rohleistung nicht optimal auf die Straße bringen konnte.Cleaner57 schrieb:Natürlich kann man sich einfach drauf fokussieren, dass der Preis relativ gesehen zu hoch geworden ist, aber warum nur das Negative sehen?