Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

xexex schrieb:
Der Grafikscore ist irrelevant wenn die CPU links 32% schneller ist.
Sehe ich anders. Wenn die Auswirkung der CPU auf den Grafikbenchmark sooo relevant wäre, wieso sind dann die Karten in allen Tests ungefähr gleich schnell je nach Test? Es sind gerade mal 2-5%, das ist durchaus realistisch. :rolleyes:
 
Capthowdy schrieb:
die Karte selbst ist maximal das, was die 2080 hätte sein sollen.

Wenn man Sprünge wie von Maxwell zu Pascal als normal und die Regel ansieht, kann man so denken.

Aber da könnte ich auch sagen, dass ich in spätestens 10 Jahren gefälligst ein fliegendes Auto haben möchte.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Smartcom5 schrieb:
Das zurückdrehen der RT-Effekte hat weniger mit Optik zu tun, sondern geschah seitens DICE vornehmlich um die Performance zu erhöhen und die Last zu reduzieren – und das weißt Du auch ganz genau.

nope weiß ich nicht, es wurde ja auch auf Gegenteiliges verwiesen. Aber selbst wenn man die Effekte an diversen Stellen auch Performance technisch optimieren muss, das wundert doch angesichts einer komplett neuen technik in einem Alpha Status doch nicht...

Edit:
Zero hat das ja gerade sinnvoll ergänzt.
 
Zuletzt bearbeitet:
xexex schrieb:
Verrechnet du das, ist die 2080 zwischen 12% und 15% schneller als die 1080Ti.
Dann zeige doch mal den Test in dem eine 2080 bei gleichem Takt 12-15% schneller als eine 1080 Ti ist. :rolleyes:
 
Zwischenablage-7.md.jpg
 
  • Gefällt mir
Reaktionen: Herr Melone, DanHot, edenjung und 11 andere
Capthowdy schrieb:
Sehe ich anders. Wenn die Auswirkung der CPU auf den Grafikbenchmark sooo relevant wäre, wieso sind dann die Karten in allen Tests ungefähr gleich schnell je nach Test? Es sind gerade mal 2-5%, das ist durchaus realistisch.

1537442501976.png

https://www.3dmark.com/compare/spy/3042865/spy/3610504

Schnellere Grafikkarte rechts, schnellere CPU links. Grafikkarte rechts verliert deutlich. Kannst du so bei fast jedem Benchmark sehen. 3D Mark ist stark CPU abhängig.

Capthowdy schrieb:
Dann zeige doch mal den Test in dem eine 2080 bei gleichem Takt 12-15% schneller als eine 1080 Ti ist.

Wofür? Am Ende interessiert nur Custom gegen Custom und es ist nur ein Bruchteil aller 2080er Karten den Markt. Es ist nur Unsinn einen Vergleich als "Argument" hervorzubringen, bei dem ein PC 30% schneller ist als der andere.
 
Zuletzt bearbeitet:
Aldaric87 schrieb:
Klar, sind natürliches alles Hater, wenn sie nVidia kritisieren. (selbst eine 1070 im Rechner).

Als ob das was man im Rechner hat etwas damit zu tun haben muss ob man Hater ist oder nicht.

Hellsfoul schrieb:
Ich bin echt am Grübeln, ob ich mir nicht doch so eine Karte hole und zwar nicht wegen den FPS in Spielen, sondern wegen dem Raytracing für vRay Renderer. Ich glaube für professionelle Tools sind die RT Cores ein super Geschwindigkeitsboost.

Könnte mit gut vorstellen dass die Nutzung der RT-Cores, bzw. Tensor Cores noch nachträglich eingeschränkt wird, oder (falls nicht definitiv schon geschehen) überhaupt zur anderweitigen Nutzung außer in Spielen freigeschaltet werden. Könnte sonst passieren dass zu viele Leute Gamingkarten kaufen und zu wenige die echten Semi-Profi Karten aus der Quadro-Reihe.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Smartcom5
Ich bin echt am Grübeln, ob ich mir nicht doch so eine Karte hole und zwar nicht wegen den FPS in Spielen, sondern wegen dem Raytracing für vRay Renderer. Ich glaube für professionelle Tools sind die RT Cores ein super Geschwindigkeitsboost. Aber erstmal abwarten, wie sich die Preise entwickeln. Ich glaube irgendwie aber nicht, dass die Warnungen der Reviewer fruchten werden.
 
Banned schrieb:
Wenn man Sprünge wie von Maxwell zu Pascal als normal und die Regel ansieht, kann man so denken.[...]

Ne, Maxwell zu Pascal war schon ein extremer Sprung. Da sind sich wohl die meisten User hier einig.
Mit Turing haben wir jetzt wieder einen kleineren, 'normaleren' Performance Sprung.

Da würde sich auch Keiner beschweren, wenn nicht der Preis zeitgleich extrem angestiegen wäre.

Und sämtliche Werbung mit Features gemacht wird, die momentan gar nicht nutzbar sind.

Und die Fachpresse im Vorfeld des Launches wie niedere Angestellte behandelt würde.

Wobei die letzten beiden Punkte zugegebenermaßen bei der Bewertung der Karten an sich irrelevant sind.
 
Zuletzt bearbeitet:
xexex schrieb:
Schnellere Grafikkarte rechts, schnellere CPU links. Grafikkarte rechts verliert deutlich. Kannst du so bei fast jedem Benchmark sehen. 3D Mark ist stark CPU abhängig.
Bitteschön, CPU Vorteil liegt hier bei der 2080. Ändert am Ergebnis kaum etwas.
https://www.3dmark.com/compare/spy/3445854/spy/4442417

Wo sind hier deine 12-15%? Hatten wohl keine Lust zu erscheinen, hm? :rolleyes:
 
  • Gefällt mir
Reaktionen: Celinna und Chef 17.02
xexex schrieb:
Wofür? Am Ende interessiert nur Custom gegen Custom und es ist nur ein Bruchteil aller 2080er Karten den Markt.
Interessiert eben nicht, denn die 20X0 FEs haben einen sehr ordentlichen Kühler im Gegensatz zu Pascal. Da dürfte eine Custom nicht groß besser sein.
 
  • Gefällt mir
Reaktionen: Lübke82 und SchorschSepp
Interessieren euch diese synthetischen Benchmarks wirklich so sehr? Ich gucke mir lieber die Spieleperformance an und da liefert die 2080 ti in UHD 35% mehr min FPS im Vergleich zur 1080 ti.
 
  • Gefällt mir
Reaktionen: Lübke82 und Banned
"Hochgezüchtet" ist schon mal lächerlich zum Einen und zum Anderen FE als eine Art Abwertung für Turing zu benutzen, als wären die FEs genauso schlecht wie früher. Hast du die Tests überhaupt gelesen? Offensichtlich nicht, ich bin raus. :rolleyes:

Schon jetzt steht allerdings fest: Partnerkarten werden es bei dieser Generation damit richtig schwer haben, denn bei der Leistung scheint es ohne Temperatur-Bremse bei der Referenz wenig Spielraum zu geben. Was bleibt, sind das immer noch vorhandene aber deutlich kleinere Potential bei der Lautstärke und die Optik – inklusive RGB-LED-Beleuchtung, die Nvidia nicht bietet.

Die RGB-Beleuchtung der Customs wird Turing dann bestimmt nochmal einen ordentlichen Performance-Boost bringen, was? :rolleyes:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Herr Melone, Celinna, DanHot und 3 andere
HerrRossi schrieb:
Das stimmt mW. nicht, das soll auch mit Nvlink auf Geforce RTX funktionieren.

pcgh sagt ausdrücklich NO
 
xexex schrieb:
Ich warte auf bezahlbare 80" Fernseher, G-Sync ist für mich absolut uninteressant und 4K macht für mich mit einer kleineren Bildschirmgröße keinen Sinn. :cool_alt:

Die Aussage war in Zusammenhang mit kleinen Schreibtischen = nachvollziehbar.
Gerade mein CHG70 hat einen sehr großen Fuß. Da ist Wandmontage für Manche das einzig Sinnvolle.
(mir ist 1440p@HDR im Arbeits/Spielzimmer auch ausreichend)
Ergänzung ()

HerrRossi schrieb:
Ja, habe ich jetzt auch gelesen. Sehr mies.

Vor Allem TFlops>1080ti und dann nur 8GB Vram bei der 2080 ist net so schön.
Wenn, dann doch bitte proportional den Vram mit erhöhen und nicht verkleinern.
(auch wenns dann 2019 nur ne 1/2 neue Lederjacke gibt)
Ergänzung ()

ZeXes schrieb:
Von NAVI erhoffe ich mir 1080TI Leistung zum Preis von 300-400€. Das würde mir auch völlig reichen.
Ich kann mir einfach nicht vorstellen, dass NAVI genauso viel Leistung, wie VEGA 64 bieten wird. Das wäre etwas zu wenig. Man will ja schließlich den Kunden einen Anreiz zum wechseln geben.
Wenn Navi nur ein Polaris-Nachfolger wird in der Größenordnung von Geforce2060 dann erwarte ich eher RX56
Leistung für 299,-€. und das wäre doch für Viele ausreichend lt. STEAM.
Forza4.jpg

https://www.overclock3d.net/reviews/software/forza_horizon_4_pc_demo_performance_impressions/4
Und das Ganze ohne Performanceeinbuße mit HDR.
 
Zuletzt bearbeitet:
Ist eigentlich eine blower sinnvoll? Oder ist das quasi egal bei den rtx?
Habe nen guten airflow im gehäuse.
 
Zurück
Oben