Ist eine 2070 Super Custom stark genug?

rofl schrieb:
Danke für eure Beiträge,

also lt. den Benchmarks von PCGHW komme ich da gut hin mit der 2070S. finde es halt nicht ratsam den doppelten Preis für eine 2080Ti zu zahlen für 30% mehr Leistung da Verkaufe ich die 2070S lieber in 2 - 3 Jahren und rüste wieder um 500€ nach.

Was du bei den PCGH noch wissen musst ist das die immer den Worst Case benchen. Die Laufen also durch die Spiele und suchen besonders anspruchsvolle Szenen für die Graka und Benchen diese dann.
In 99% des restlichen Spiels wird man höhere FPS sehen.
 
  • Gefällt mir
Reaktionen: Aduasen
EIne 2080 TI im Allgemeinen macht nur Sinn, wenn man auch gerade jetzt die Leistung unbedingt braucht. Ansonsten immer eins/zwei Nummer tiefer greifen und dann im einem Jahr eine neue holen. Die TI hat ein so schlechtes P/L Verhältnis, dass es sich eher lohnt die Karte jedes Jahr zu wechseln und die "alte" wieder zu verkaufen.
 
  • Gefällt mir
Reaktionen: zhompster
hab nen 2700x und ne 2080ti und das system kommt bei 3440x1440x regelmaessig ans Gpu Limit.

Klar muss man nicht blind alles auf Ultra drehen, dann gehts meistens.
 
rofl schrieb:
finde leider kaum bis keine Benchmarks für meine Auflösung 3440x1440.
FPS skalieren nicht 1 zu 1 zur Auflösung.

Meiner Erfahrung nach kannst du allgemein davon ausgehen, dass du in 3440x1440 etwa 0,8x die FPS von 2560x1440 bekommst, und eigentlich immer mindestens 0,75x.
 
e_Lap schrieb:
hab nen 2700x und ne 2080ti und das system kommt bei 3440x1440x regelmaessig ans Gpu Limit.

Klar muss man nicht blind alles auf Ultra drehen, dann gehts meistens.

Dann kannst du da aber irgendwie nicht richtig einstellen .... machst du bei 3440x1440 noch Downsampling an und co?

Es gibt Optionen die machen in 1440p kaum noch sinn. Diverse Anti Alisings und Downsamplings machen da nahezu kaum Sinn. Eventuell 2x oder 4x AA. Aber 8 Fach oder mehr ist doch sinnbefreit. Das Bild wird nichtmehr schärfer xD .... man verbessert das Bild dadurch einfach kaum noch und diese Optionen fressen die GPU Leistung einfach total sinnlos auf.
 
Also ich spiele in 4k mit meiner 2070 sc von evga witcher3 mit allem auf ultra und hairworks on auf ca 40 fps, ohne hairworks meist um die 50 fps. In titeln wie witcher reichen doch 40 bis 50 fps locker. Bf v zocke ich aber lieber in 1440p komplett auf ultra dann mit zwischen 75fps und ca 100 fps. Durchschnitt dürften so ca 90fps sein.
 
Also ich spiele selbst in UWQHD mit einer RTX 2080, einem i7 8700k und 32gb 3200er RAM und kann alle Games auf Hoch bis Ultra ohne AA mit 40fps aufwärts i.d.R. über 60fbs spielen. Darunter befinden sich sowohl AAA-Titel als auch Indi Hits.

Nochmal zum Vergleich:
FHD 1920x1080 2.073.600 Pixel
WQHD 2560x1440 3.686.400 Pixel - ca. 78% mehr Pixel im Vergleich zu FHD
UWQHD 3440x1440 4.953.600 Pixel - ca. 34% mehr Pixel im Vergleich zu WQHD
UHD 3840x2160 8.294.400 - ca. 67% mehr Pixel im Vergleich zu UWQHD bzw. 125% mehr Pixel im Vergleich zu WQHD


Es zeichnet sich also ab, dass man sich bei UWQHD nicht an UHD orintieren sollte, da doch nochmal 67% mehr der Grafikkarte abverlangt werden.
Ich persönlich orientiere mich bei Test immer eher an die WQHD Ergebnisse und ziehe ein wenig ab, da in vielen Fällen keine Ergebnisse für UWQHD vorliegen.
 
  • Gefällt mir
Reaktionen: zhompster und Aduasen
Das problem ist das 3440 -1440p hor+ greift also erhöht sich die benötige vram menge an texturen womit da game designet wurde
Die meisten games werdena uf Konsolen freundliche 1080p designt in 256bit
da reichen 8gb problemlos aus (max 4gb vram auf 1080p)
Shwierig wird esd wenn um high end games geht
meist ubisoft diese arbeiten in 1440p und 512bit
erklärung
1 pixel = 8bit
2560*1440*8/512=57600 texturen
57600*512/8*2=7372mb mit diversen nachladeruckler
Nur blöd das bei hor+ texturen dazu kommen (größeres sichtfeld) macht als allein in 3440*1440p etwa 9584mb

Würde man skalieren auf 1080p verringert sich der vram nicht (Sichtfeld identisch aber es gibt deutliche streaming artefakte+ruckler)
Daher ist es entscheidend auf was ein game designet wurde
Auf ps4 ist es sicher 1080p mit max 512bit
Auf ps5 wird sicherlich 1024bit auf 1440p kommen
Der puffer von faktor 2 ist erforderlich weil viele games das bild streamen
das ist dynamisch und ist je nach engine von 1,2-2,5 fache an vram benötigt
Ubisoft liegt bei etwa 1,5 snowdrop, anvil, dunia dx11 bis dx12 sind die Modernste engines am markt
activision iwtech auf 2,5 aufgrund der basis von idtech3 von 1998 dx9 abgeändert in dx11 kompa modus
square enix, bsp tombraider ua etwa 2 dx12 und 11
capcom solide 1,5 (resident engige dx12)
bethesda idtech6 dx11 vulkan 2,0 (oldschool) creation engne dx9 3
erkennbar an prerender frames die voreingestellt sind
Ich meine nicht vbuffer für vsync oder opengl

So und nu, man kauft keine gpu alle 2 Jahre neu zumal die Leistungssteigerungen zu klein sind von 2016 bis heute hat sich am preis zu Leistung nur marginale 20% getan
Das ist rein marktorientiert was Leute bereit sind zu zahlen dank mining leider zu viel.
Dazu das noch massiv viele vega chips mit Verlust verkauft werden müssen kommt dazu. nvidia macht derzeit ihren höchsten Gewinn ihres Unternehmens
Und das alles nur wegen dieser speziellen situation von 2017, dazu kommt das amd schwächelt bei der Leistung.
Spannend wird es erst nächstes Jahr zu den neuen Konsolen und die ersten games mit min 12gb vram bedarf und das wird kommen.
 
syfsyn schrieb:
Das problem ist das 3440 -1440p hor+ greift also erhöht sich die benötige vram menge an texturen womit da game designet wurde
Die meisten games werdena uf Konsolen freundliche 1080p designt in 256bit
da reichen 8gb problemlos aus (max 4gb vram auf 1080p)
Shwierig wird esd wenn um high end games geht
meist ubisoft diese arbeiten in 1440p und 512bit
erklärung
1 pixel = 8bit
2560*1440*8/512=57600 texturen
57600*512/8*2=7372mb mit diversen nachladeruckler
Nur blöd das bei hor+ texturen dazu kommen (größeres sichtfeld) macht als allein in 3440*1440p etwa 9584mb

Würde man skalieren auf 1080p verringert sich der vram nicht (Sichtfeld identisch aber es gibt deutliche streaming artefakte+ruckler)
Daher ist es entscheidend auf was ein game designet wurde
Auf ps4 ist es sicher 1080p mit max 512bit
Auf ps5 wird sicherlich 1024bit auf 1440p kommen
Der puffer von faktor 2 ist erforderlich weil viele games das bild streamen
das ist dynamisch und ist je nach engine von 1,2-2,5 fache an vram benötigt
Ubisoft liegt bei etwa 1,5 snowdrop, anvil, dunia dx11 bis dx12 sind die Modernste engines am markt
activision iwtech auf 2,5 aufgrund der basis von idtech3 von 1998 dx9 abgeändert in dx11 kompa modus
square enix, bsp tombraider ua etwa 2 dx12 und 11
capcom solide 1,5 (resident engige dx12)
bethesda idtech6 dx11 vulkan 2,0 (oldschool) creation engne dx9 3
erkennbar an prerender frames die voreingestellt sind
Ich meine nicht vbuffer für vsync oder opengl

So und nu, man kauft keine gpu alle 2 Jahre neu zumal die Leistungssteigerungen zu klein sind von 2016 bis heute hat sich am preis zu Leistung nur marginale 20% getan
Das ist rein marktorientiert was Leute bereit sind zu zahlen dank mining leider zu viel.
Dazu das noch massiv viele vega chips mit Verlust verkauft werden müssen kommt dazu. nvidia macht derzeit ihren höchsten Gewinn ihres Unternehmens
Und das alles nur wegen dieser speziellen situation von 2017, dazu kommt das amd schwächelt bei der Leistung.
Spannend wird es erst nächstes Jahr zu den neuen Konsolen und die ersten games mit min 12gb vram bedarf und das wird kommen.

Nach deiner Aussage dürfte dann aber auch eine 2080 zu schwach für 4k sein aufgrund des VRAM, kann ich mir persönlich nicht vorstellen da man sonst in den Foren überall darüber lesen würde :confused_alt:
 
Eine 2080 ohne TI ist definitiv zu schwach für echte 4K.
Meine 2080Ti ist gut ausgelastet bei diversen Games und man muss teilweise mit den Settings schon runtergehen vor allem wenn Raytracing mit zum Einsatz kommt.

Das Ganze immer unter der Voraussetzung, soviel auf max. stellen wie möglich (beste Qualität).

Wenn man sich zurückhält und mit diversen Settings etwas haushaltet, dann kommt man mit einer 2080 auch hin.
M.E. ist aber 1920x1080 oder 2560x1080/1440 mit vollen Details einem 4K mit reduzierten Einstellungen vorzuziehen bei Games.
 
Ja klar wenn man auch das Game mit Raytracing genießen will ist es logisch das die Frames in die Knie gehen.

Persönlich sehe ich Raytracing als netten Zusatz aber die Technologie steckt halt noch in den Kinderschuhen sowohl bei der Hardware als auch in der Software bei der Implementierung.

Die Frage war explizit auf den VRAM bezogen
 
Das man bei einer rtx2080 4k rendern kann ist klar, nur muss ma dann die Texturen herunterstellen was effektiv die Bildqualität deutlich schlechter macht
4k mit 128 oder eben 256bit letzterer ist schon am limit mit 8gb vram ohne msaa und anderen filtern.
Alles was cpu beansprucht schatten Effekte sind quasi egal ob es 4k oder 1440p ist
Nur blöd das gerade Texturen die Bildqualität ausmacht.
Daher feiern die Leute ja dlss und ris
man sollte immer ein natives bild bevorzugen zudem sind die engines darauf ausgelegt immer dynamisch die qualität an den vram anzupassen Insbesondere Texturen. Egal was man einstellt.
frostbyte und ubisoft anvil agieren so
auch andere engines agieren so
man kann das bei einigen games deaktivieren
 
Klikidiklik schrieb:
Eine 2070 Super ist definitiv ausreichend für aktuelle Games in der Auflösung und bei Maxdetails.

Was wollt ihr immer mit den 4k vergleichen? Bei UWQHD hat die Graka ca. 30% weniger zu berechnende Pixel.

Bitte, erzähle nicht solche Märchen. Ich fahre selber 3440x1440 mit einer 1080 Ti, welche ein tick schneller als eine 2070 ist. Ich kann nichtmal im Traum daran denken, alle neuen Spiele mit dauerhaften 60 FPS bei Max Details zu spielen.
 
Immer wieder schön wenn hier Beiträge ohne Hinweis einfach gelöscht werden.

@Pisaro: Bitte lerne du erst mal richtig lesen. Es geht hier nicht darum die 60fps dauerhaft zu halten.
 
  • Gefällt mir
Reaktionen: maggel
Zurück
Oben