Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

Mich interessiert, ob bzw. in wie weit die RT und Tensor Kerne für Nicht-Spiele-Software zugänglich sind. Viel bild-verarbeitende Software (z.B. von Adobe) konnte, nach Anpassung daran, sehr von CUDA profitieren. Ob die neuen Kerne abermals Renderzeiten und schnellere oder qualitativ bessere Bildverarbeitung ermöglichen?
 
Für den Preis können sie die Teile gerne behalten.
 
Sleight88 schrieb:
Sehen spiele mit dlss in full hd wirklich wie 4k aus? Das wäre ja der hammer.
Also mir ist kein einziges Feature bekannt, das aus einem Nativem FHD [1080p] Monitor einen UHD [2160p] Monitor macht, oder auch nur annähernd ein solches Bild auf einen 1080p Monitor zaubern würde! Ein FHD Monitor bleibt immer ein FHD Monitor, man kann bei älteren Spielen durch DSR [Downsampling], die Bildqualität verbessern, aber auch beim DSR macht man aus einem FHD Monitor, keinen WQHD oder UHD Monitor.
 
  • Gefällt mir
Reaktionen: dennisis
Zotac2012 schrieb:
Also mir ist kein einziges Feature bekannt, das aus einem Nativem FHD [1080p] Monitor einen UHD [2160p] Monitor macht, oder auch nur annähernd ein solches Bild auf einen 1080p Monitor zaubern würde! Ein FHD Monitor bleibt immer ein FHD Monitor, man kann bei älteren Spielen durch DSR [Downsampling], die Bildqualität verbessern, aber auch beim DSR macht man aus einem FHD Monitor, keinen WQHD oder UHD Monitor.

Aber das steht doch im cb artikel zum testsample. Ich vermute das durch dlss die kanten so gut geglättet werden dass es wie in 4 k kaum sichtbar sind.
 
  • Gefällt mir
Reaktionen: Ben81
Rikimaru schrieb:
test der 2080 lässt die verkaufszahlen in die höhe schießen! (verkaufszahlen der 1080ti):evillol:
Mich würde Mal eine Umfrage interessieren warum Leute sich eine 1080TI/2080TI kaufen, spielen sie alle wirklich mit so einer hohen Auflösung das es sich lohnt 100Watt mehr Strom zu verballernen und deutlich mehr geld zu bei der Anschaffung zu bezahlen?. Ich habe alleine schon deswegen keine 1080 genommen, ich weiß noch was meine 580 damals gefressen hat und wenn man sein Strom selber zahlen muss merkt man das schon. Klar macht mich das nicht wirklich Arm, aber von nichts kommt nichts. 😁
 

Anhänge

  • 2018-09-19 19_35_03-Window.png
    2018-09-19 19_35_03-Window.png
    36,9 KB · Aufrufe: 511
  • Gefällt mir
Reaktionen: inge70, RaverXX und xexex
Deleo schrieb:
Mich würde Mal eine Umfrage interessieren warum Leute sich eine 1080TI/2080TI kaufen, spielen sie alle wirklich mit so einer hohen Auflösung das es sich lohnt 100Watt mehr Strom zu verballernen und deutlich mehr geld zu bei der Anschaffung zu bezahlen?.
Nun es gibt Leute, die einen WQHD/UWQHD/UHD Monitor haben.
Darüberhinaus gibt es Leute, die sich einen WQHD/UWQHD/UHD Monitor kaufen wollen.
Und da braucht man schon "etwas" Power. Und die Paar €, die man mehr für Strom zahlt, hätte man so oder so für irgendwas anderes ausgegeben (in meinem Fall etwas sinnloses) :)
 
  • Gefällt mir
Reaktionen: Baya
Deleo schrieb:
Mich würde Mal eine Umfrage interessieren warum Leute sich eine 1080TI/2080TI kaufen, spielen sie alle wirklich mit so einer hohen Auflösung das es sich lohnt 100Watt mehr Strom zu verballernen und deutlich mehr geld zu bei der Anschaffung zu bezahlen?. Ich habe alleine schon deswegen keine 1080 genommen, ich weiß noch was meine 580 damals gefressen hat und wenn man sein Strom selber zahlen muss merkt man das schon. Klar macht mich das nicht wirklich Arm, aber von nichts kommt nichts. 😁

Mich würde nicht wundern wenn deine 1070 mit den von dir genutzten einstellungen mehr als die 1080ti oder 2080 ti verbraucht. Deine 1070 läuft wahrscheinlich auf 100% bei deinen settings. Eine 1080ti würde deutlich weniger last brauchen und vielleicht bei 50% laufen.
 
Sleight88 schrieb:
Mich würde nicht wundern wenn deine 1070 mit den von dir genutzten einstellungen mehr als die 1080ti oder 2080 ti verbraucht. Deine 1070 läuft wahrscheinlich auf 100% bei deinen settings. Eine 1080ti würde deutlich weniger last brauchen und vielleicht bei 50% laufen.
ne läuft sie nicht, GPU und CPU laufen meisten bei 34- 60% 🤣 Mir hätte eigentlich sogar ne 1060 gereicht. Der CPU läuft immer auf 3,4 GHz also nicht mal alle kerne.
Edit:So, mal eine Zeit lang beobachtet, VRam 20-25% und Strom liegt so bei 30% in WoW auf Ultra Setting.
 
Zuletzt bearbeitet:
Bright0001 schrieb:
In den letzten 10 Jahren war Deutschland praktisch immer näher an 0 als an 3%, zwischen 2011 und 2018 liegt die tatsächliche Inflation bei rund 10%, und nicht bei deinen vorgeschlagenen (1,03^7) 23%. Zudem sind Diskontierungssätze (ich gehe mal davon aus dass du diese mit "in der Wirtschaft" meinst) hier völlig irrelevant, wir wollen nicht den Barwert einer Grafikkarte aus dem Jahr 2020 berechnen, sondern die Kaufkraft die man aufwenden müsste um eine 580 zu kaufen. Und wir können festhalten; Die Zeiten in denen ein Schüler sich den aktuellen Stand der Technik leisten konnte sind vorbei, es Beginnt die Zeit in der ein Geringverdiener in Vollzeit ein Monatsgehalt aufbringen muss um den gleichen (relativen) Leistungsstand zu erreichen.

Es war nur als einfaches Beispiel gedacht. Trotzdem sollte man eben nicht vergessen das 420 Euro 2011 nicht 420 Euro sind 2018. Und mit iwelchem Auf und Abzinsen und Barwerten wollte ich schon niemanden nerven^^.

Aber die Preisentwicklungen sieht man ja genauso bei Handys, allen voran Apple. Naja^^
 
ZeroZerp schrieb:

Lauf mal nach Sylvester durch die Stadt, durch den ganzen Staub und Dreck glänzt da kaum noch was. CNN hat leider! genug Videomaterial von Kriegsgebieten.

Das erinnert doch sehr an das erste Farcry mit dem BonBon look. Als Techdemo schön und beim zocken nichts neues.

Bei sowas wie Cyberpunk 2077 könnte der Stil eher passen.
 
Sleight88 schrieb:
Aber das steht doch im cb artikel zum testsample. Ich vermute das durch dlss die kanten so gut geglättet werden dass es wie in 4 k kaum sichtbar sind.
Im Artikel steht auch, das die RTX Turing Modelle die bis jetzt getestet wurden, für FHD nicht zu empfehlen sind, weil diese ihr Potenzial nicht abrufen können, da unter FHD die Grafikkarten durch das CPU Limit ausgebremst werden!

DLSS ist ein Kantenglättungsfeature, wie gut es auf einem FHD Monitor aussieht, das ist auch immer eine subjektive Betrachtung und Empfindung des jeweiligen Users. Es gibt viele User die auch in dem DSR Feature deutlich mehr sehen, als ich es z.B. empfinde.

Der Vorteil wird bei einer WQHD oder UHD Auflösung der sein, dass die Kantenglättung über die TC gerechnet werden und somit die GPU entlasten, was natürlich ein Vorteil ist, weil die Kantenglättung direkt über die GPU sehr Leistungshungrig ist. Daher haben die RTX Turing Modelle auch mit DLSS klare Vorteile bezüglich FPS gegenüber Pascal, Voraussetzung ist halt, dass dieses Feature auch im Game implementiert ist!
 
  • Gefällt mir
Reaktionen: Luxmanl525
Danke für den Ausführlichen Test ;)
 
Hardware Unboxed hats auf den Punkt gebracht.
- 2080 bringt 1080 Ti Performance zum 1080 Ti Preis .... das hatten wir eigentlich schon seit ueber 1,5 Jahren ....

Zudem ist mir aufgefallen, dass die minfps bei der 2080 oft der 1080Ti hinterherhinken.
 
  • Gefällt mir
Reaktionen: Rock Lee, Celinna, Zockmock und eine weitere Person
Also Stand jetzt wird die 2080 in den Regalen liegen wie Blei.

Quasi minimal langsamer als eine Custom 1080Ti bei auch noch vorhandenen Aufpreis. Weniger Speicher mit weniger Bandbreite krönt das ganze.

Das ist Marketing der übelsten Sorte. So wird der Handel die vollen Pascal Regale los. Sind die Regale dann leer, wird der Preis der 20xxer fallen.

Ich bestelle dann mal in aller Ruhe ne 1080Ti
 
Bairok schrieb:
Aber die Preisentwicklungen sieht man ja genauso bei Handys, allen voran Apple. Naja^^
Dass Apple seit jeher versucht (bzw. es schafft) die Preise nach oben zu drücken heißt nicht, dass das eine allgemeine Entwicklung ist. Denn wie bei fast eigentlich allen technischen Geräten besteht der Fortschritt in mehr Leistung zum gleichen Preis, oder geringerem Preis für die gleiche Leistung. Das gilt für Smartphones, CPUs, HDDs und natürlich Grafikkarten. Und wenn der Preis plötzlich schneller steigt als die Leistung, dann kann man festhalten dass das reine Abschöpfung ist.

Und ja; Es ist Kernprinzip eines freien Marktes möglichst viel abzugreifen. Heißt jedoch nicht, dass ein Verbraucher das beklatschen oder gar verteidigen sollte.
 
Schafmuhkuh schrieb:
Also Stand jetzt wird die 2080 in den Regalen liegen wie Blei.

Was ich so mitbekommen habe, tut sie das aber ganz und gar nicht. ;)

Das meine ich ganz wertungsfrei (denn jeder muss selbst wissen was er sich kauft und was ihm das wert ist), aber der Run auf die RTX 2080 hat bereits begonnen.

Liebe Grüße
Sven
 
Da ergeben sich für mich paar Fragen.

- Unterstützen die Karten Monitore mit DVI (Dispayport-DVI-Adapter)?

- Wie verhalten sich die Karten bei Speicher voll? Mikroruckeln die dann auch so stark wie ältere Karten oder ist es hier schwächer wegen mehr Speicherbandbreite? Und lässt dann die Leistung nach, sodass die 1080TI dann näher an die RTX2080 rankommt? Während die RTX voll ist, kann die alte TI noch mehr Speicher belegen.

- Bei welcher Temperatur throttelt die Karte? Ich meine nicht die Temperaturtargets, sondern wenn sie mit Standardtakt den Throttle hat. Die 1080 hat da bei 94°C dicht gemacht.

- Welche Spannungsstufen sind da? Laufen die höchsten Stufen mit rund 1,05V? Mehr? Weniger?

- Wie skaliert GTA5 auf der Karte?

- Wie skaliert Minecraft mit Shader auf der Karte? Das ist auf Open-GL-Basis, nichts mit DX12, Raytracing und DLSS oder wie das nochmal hieß.

- Lassen sich Biose von anderen Karten flashen, besonders zwischen "A-Versionen" und "B"-Versionen"?

- Lassen sich Original-Biose editieren? Dann müsste man nicht wie bei Pascal Biose von anderen Karten nehmen. (Auf meiner Zotac 1080 AMP ist das Bios einer Gigabyte Extreme.)
 
Zurück
Oben