Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

Vitec schrieb:
Generell testen ja alle anderen Seiten, soweit ich weis mit offenen Benchtables.
Hardware Unboxed hat in einem Gehäuse getestet. Auch die 35 Spiele einen Tag danach. Ein Test im Gehäuse, wie hier auf CB ist besser, als auf einem offenen Aufbau.
Vitec schrieb:
Andere Seiten haben teilweise auch eine Custom 1080TI genommen als vergleich.
Das ist auch richtig so. Kaum jemand hat die FE und die neuen sind ja dazu noch übertaktet. Aber Computerbase hat ja auch die OC Ergebnisse der 1080ti FE, das sind wohl eher realistische Werte.

Ein ausgewogener Test braucht Custom Karten der 1080&ti, sowie ein Gehäuse. Dann spiegelt er die Realität am ehesten wieder.
 
  • Gefällt mir
Reaktionen: xexex
Jan schrieb:
Das steht letztendlich auch bei uns so im Fazit. ;)

Womit wir wieder bei: "Zwei Doofe, ein Gedanke" wären... :lol::daumen:
Ergänzung ()

edenjung schrieb:
Der überaus schmackhaft sein muss.

Aufgewärmter Eintopf ist immer besser, aber bei einer Grafikkarte?
 
  • Gefällt mir
Reaktionen: usb2_2 und xexex
Die üblichen Gehäuse, wie Fractal Design und be quiet!, die hier oft empfohlen werden von der Kühlung alle in Ordnung sind. Solange es nicht das Phanteks Evolve ist geht das.
 
Zotac2012 schrieb:
Und das dies dann Wasser auf die Mühlen der Kritiker ist, was die RTX Turing Modelle betrifft, kann ich auch verstehen. Die werden dann genau so argumentieren, wie wir das ja gerade erleben, wenn es Nvidia nicht mal zum Release schafft, ein solches Game mit den neuen Features zu präsentieren, wie soll das dann erst in der nahen Zukunft aussehen.

Ja da ist was dran. Gemessen an der Tatsache, dass RTX "ten years in the making" war, ist die nicht-Einbeziehung von Spielentwicklern bis zum letztmöglichen Moment schon etwas bitter.

Bezogen rein auf die neuen Features ist das ein Paperlaunch erster Güte.
 
  • Gefällt mir
Reaktionen: Toprallog
nospherato schrieb:
Falls man Wünsche äußern darf. Könntet ihr vielleicht 1-2 Läufe (egal welche Games, muss ja nicht der ganze Parkour sein) bei Intel und Ryzen dann auch mit entsprechend optimiertem Speicher laufen lassen bitte? (Beim 2000er Ryzen Test hattet ihr ja z.B. die the stilt settings drin, sowas für Intel und Ryzen)

:daumen::daumen: Jau, jeder Ryzen-Enthusiast hat mind 3200MHz mit guten Timings am laufen. Also bitte 2600x/2700x auch mit OC/Optimierten-Ram-Settings testen.
 
  • Gefällt mir
Reaktionen: Darklordx
Zotac2012 schrieb:
Aber Nvidia ist auch zum großen Teil schuld an diesem Dilemma. Wenn ich schon eine Grafikkarte wie die RTX Turing auf den Markt bringe, mit diesen innovativen Features wie Raytracing und DLSS, dann hätte ich mir auch gerade bei den aufgerufenen Preise von Nvidia gewünscht, dass man in jeder Packung ein Spiel mit beigelegt hätte, wo man auch genau diese beiden Features auch direkt zum Release spielen und testen kann.

Die sind nicht nur zu großen Teilen schuld, sondern die Alleinschuldigen. Die hätten sich vielleicht mal mit den Softwareentwicklern absprechen sollen, anstatt ihnen zwei Wochen vor irgendwelchen Vorstellungsterminen ihre Karten hinzuknallen und ihnen zu erzählen, dass sie jetzt mal eben Raytracing für Vorführung XY integrieren sollen. Wenn sie wirklich 10 Jahre an dem Ding hingebaut haben, dann muss das langfristiger geplant sein und besser funktionieren.

Microsoft ist mit der DX12 Erweiterung noch garnicht am Markt. Man hat also mit Alpha Software auf einer Alpha API mit einer Alpha Technik gearbeitet.

Das dann rauszuhauen ist dekadent - und Hochmut kommt vor dem Fall.
Wir sehen ja, wie schnell es sich verbreitet hat, dass Raytracing nur mit 1080P mit 25-50FPS funktioniert.
Aber so liefen die ersten Vorführungen nunmal.
Zu Recht blöd gelaufen für nVidia.

Dann könnte ich als Unternehmen auch sagen, schaut Euch an, was die neue Technik kann, wie es aussieht, um dann auch zu verstehen, warum man solche höheren Preise aufgerufen hat und was der Mehrwert dieser neuen Technik ist. Aber das jetzt Kunden / User zu Hause sitzen, viel Geld hingelegt haben für diese neue Technik und haben keine Chance diese Live zu erleben, weil es im Moment noch kein Spiel gibt, das man diese Feature abrufen und nutzen kann, das ist einfach Katastrophal!

Eben davon spreche ich. Der größte anzunehmende PR- Gau. Man muss kein Hellseher gewesen sein, um zu sehen, dass es so kommt.
Es muss ein Hammer- AAA Titel mit dieser Technik ausgestattet werden, wo alles bis aufs letzte optimiert ist und die Grafik der Vorgänger wie ein Drahtgittermodell dagegen aussieht, damit man begreift, dass das "der neue Shit" ist. Stattdessen zeigt man das, was die User nicht sehen wollen. Unausgereifte, fehlerhaft implementierte langsame übertriebene und unnatürlich aussehende Alpha- Demos.

Und das dies dann Wasser auf die Mühlen der Kritiker ist, was die RTX Turing Modelle betrifft, kann ich auch verstehen. Die werden dann genau so argumentieren, wie wir das ja gerade erleben, wenn es Nvidia nicht mal zum Release schafft, ein solches Game mit den neuen Features zu präsentieren, wie soll das dann erst in der nahen Zukunft aussehen.
Eben- Die Sympathie und der Sog eines Produkts kommt mit der Vorstellung dessen oder garnicht mehr zustande.
In meinen Augen hat nVidia diesmal ordentlich in die Kloschüssel gegriffen.

Etwas gutes hat es dennoch. So wird zumindest des Preisgefüge sicherlich einer erneuten kritischen Prüfung seitens nVidia standhalten müssen.

Wenn die Dinger in den Regalen liegen bleiben (wird sich die nächsten Monate zeigen), dann werden sie ihren Kurs überdenken.
Hoffentlich ziehen sie die richtigen Schlüsse, nämlich nicht, dass die Kunden per se gegen Innovation sind oder die RTX Technik, sondern die Art und Weise des Launches suboptimal war und man einfach DEUTLICH bessere Argumente für diesen Preissprung bringen muss, als sie derzeit vorliegen.

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Herr Melone, Iscaran, E1nweg und 4 andere
Jan schrieb:
Ich finden diesen Kommentar auf Heise genau passend
Ergänzung ()


Das steht letztendlich auch bei uns so im Fazit. ;)

Ihr und Heise seit wieder einer Meinung? Muhaha... okay sorry, der war Flach.

Jan schrieb:
@Volker [...]
und da wird es Ergebnisse in Full HD geben, wo die 2080 hinter der 1080 liegt.

Woha. Das klingt spannend. Schon eine Idee wann @Volker damit fertig ist? Wochenende?
 
Bei der Generation Maxwell -> Pascal hat ja ein Wechsel noch Sinn gemacht (rein von der Performance)
75% Mehrleistung von Ti zu Ti.
Diese Generation kann ich aber getrost auslassen. Nicht mal 25% in meiner aktuell bevorzugten Spieleauflösung. Das ist ein DESASTER!

Pascal Ti -> Turing Ti = Overall gerade mal 35%, bei Auflösungen die ich die nächsten 3 Jahre ganz sicher noch nicht fahren werde.

Lächerlich!
 
Als 4K Spieler hätte ich schon gerne eine 2080Ti, aber nicht zu DEM Preis. Bei Gott nicht. Sollte mir eine günstige 1080Ti vor die Flinte laufen... :utminigun::mussweg:
 
ZeroZerp schrieb:
Wir sehen ja, wie schnell es sich verbreitet hat, dass Raytracing nur mit 1080P mit 25-50FPS funktioniert.
Aber so liefen die ersten Vorführungen nunmal.
Zu Recht blöd gelaufen für nVidia.

Das Problem scheint doch auch gewesen zu sein, dass man weder mit den Entwicklern noch sonst mit wem richtig kommuniziert hat. Die Entwickler sprachen mit Reviewern/Techseiten unabhängig voneinander und haben diese These noch mehr untermauert indem sie die Angaben gemacht haben, 60 FPS unter FHD als Ziel zu haben.

Entweder hat nVidia den Entwicklern nicht mitgeteilt das sie sich solche Aussagen sparen sollen, oder man muss einfach befürchten das es je nach Anzahl der genutzten RT Effekte eben wirklich nur zu diesen FPS Werten kommt.

Bisher kann zudem auch einfach nichts gegenteiliges behauptet werden, da man es ja schlicht nicht durch den Benchmark jagen kann.

Für "10 Jahre" Entwicklung und Vorbereitung mit den finanziellen Mitteln die nVidia zur Verfügung stehen, ist das ein Versagen auf ganzer Linie.
 
  • Gefällt mir
Reaktionen: Herr Melone, Celinna, E1nweg und 3 andere
nagus schrieb:

Hier kommt man sogar nur auf 1% Vorsprung beim Test 1080ti zu 2080:
Ein Video von Hardware Unboxing
Screenshot_20180921_100941.png


Auffällig ist, das Computerbase keine Spiele getestet hat, in denen die 1080ti schneller ist als die 2080.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Deatheye
Hier ein super Kommentar auf heise.de zum Bluff der RTX Serie um Käufer mit eventuellen Zukunftsfeatures zu melken.

Und hier ein Kommentar jemandem auf Amazon:

"Die 2080 Kostet genau so viel wie die 1080 Ti.
Man bekommt Tensor Cores und Raytracing.. als features soll es Deep Learning Super Sampling (DLSS) geben.. welches die Antialiasing Last von echtem Supersampling (das wären mit 2x 50%) von der GPU nehmen soll.
In der Realität war es aber garnichts. denn DLSS im FF XV Benchmark sieht schlechter aus als Temporäres Anti Aliasing (welches keinerlei "Leistung" benötigt.) Daher war eine 1080 Ti mit gleichem Takt schneller als die 2080 mit DLSS.

Raytracing ist bisher garnicht in Erscheinung getreten da weder Shadow of the Tomb Raider bis heute RT unterstützt noch andere Spiele DLSS wie angegeben.

Also bleibt nur noch die GPU übrig.
32 bit FPUs sind und bleiben gleich schnell.. ob sie aus einer gtx 260 oder Titan V kommen. es geht um die Anzahl und Taktgeschwindigkeit.

Die RTX 2080 ist massiv "Factory overclocked"(1.95 GHz bei Betriebstemperatur) damit sie mit der 1080 Ti mithalten kann.. nur kann man jede 1080 Ti mit 2 klicks problemlos auf 2Ghz bringen.

Nun zu den Fakten.
RTX 2080 = 2944 Cuda Cores bei 2GHz
entspricht einer Rechenleistung von 11,776 Tflops

GTX 1080 Ti = 3584 Cuda Cores bei 2Ghz
entspricht einer Rechenleistung von 14,336 Tflops

2080 Ti 4352 Cuda Cores bei 2 Ghz (was kaum erreichbar ist da die Karte in ein Powerlimit rutscht)
entspricht einer Rechenleistung von 17,4 Tflops was ungefähr einer Titan V entspricht..

damit ist die 1080 ti deutlich schneller als die 2080 was man in Benchmarks ebenfalls sehen kann.
neben 35 Game Benchmarks eines Australischen Youtubers wo die "Stock" 1080 Ti identisch ist mit der 2 GHz 2080 sind synthetische Benchmarks bei gleichen Takt mehr aussagend.

Im Userbenchmark wurden bisher 541 Grafikkarten über 60 Millionen mal getestet.
Das beste ergebnis der 2080 bei 2100 Mhz und 15 Ghz Speichertakt (das ist so ziemlich das Limit was diese Karte wohl erreichen kann) waren 506 FPS im Schnitt.
Die 1080 Ti bei 2000 Mhz ohne Speicherübertaktung (11GHz) liegt bei 601 FPS

Also ist die 1080 Ti mit übertaktung gut 15-20% schneller als die 2080 die ebenfalls übertaktet ist.

Dazu gibt es weder mehr Speicher noch sind die Karten Preiswert.

die 2080 Kostet genau so viel wie die 1080 Ti, ist langsamer und hat eine Technologie die vielleicht in 3-5 Jahren mal interessant wird.

Die 2080 Ti ist so schnell wie die Titan V (im schnitt 33% schneller als die 1080 Ti) kostet aber auch bis zu 500€ Mehr als die 1080 Ti.

Turing scheint wohl eher eine "Notlösung" und ein Test gleichzeitig zu sein.
Raytracing und Tensor Cores einbauen, neue bisher nutzlose Technologien wie DLSS und Raytracing testen aber dafür keinen Deut schneller als bereits existierende Karten. "

Ich hätte es kaum besser ausdrücken können.

Darklordx schrieb:
Als 4K Spieler hätte ich schon gerne eine 2080Ti, aber nicht zu DEM Preis. Bei Gott nicht. Sollte mir eine günstige 1080Ti vor die Flinte laufen... :utminigun::mussweg:

Ich sags ja für 4 K Spieler, besser 2 x GTX 1080 Ti zum Preis einer RTX 2080 als 1300 Euro für eine 2080 Ti ;).
 
  • Gefällt mir
Reaktionen: Deatheye, niV. und russianinvasion
Zotac2012 schrieb:
Man muss aber auch sagen, AMD hat es ungleich schwerer, weil man sich im CPU Bereich mit Intel [dem noch Primus in dem Bereich!] und im GPU Bereich mit dem Primus Nvidia rumschlagen muss. Man kämpft also an zwei Fronten jeweils gegen die Klassenbesten, die zudem auch deutlich mehr Kapital zur Verfügung haben.

Da muss AMD auch immer auf der Hut sein, nicht zwischen diesen beiden Fronten aufgerieben zu werden. Im CPU Bereich treibt man Intel derzeit ordentlich vor sich her, im GPU Bereich fehlt noch so eine Innovation, wie es der Ryzen im CPU Bereich ist.

Damit hätten sie ja rechnen können, als sie ATI gekauft haben. Strategische Unternehmensentscheidungen sollten keine Ausrede darstellen.
Die F&E Abteilung von ATI war damals nicht so schlecht. Aber wenn man dann Synergien nutzen will und teure Chip Ingenieure freisetzt, muss man sich nicht wundern, dass man den Anschluss verliert.
Fakt ist: im GPU Bereich liefern sie nicht. Die Konsequenzen sehen wir.
 
Aldaric87 schrieb:
Das Problem scheint doch auch gewesen zu sein, dass man weder mit den Entwicklern noch sonst mit wem richtig kommuniziert hat. Die Entwickler sprachen mit Reviewern/Techseiten unabhängig voneinander und haben diese These noch mehr untermauert indem sie die Angaben gemacht haben, 60 FPS unter FHD als Ziel zu haben.
Naja- Was sollen sie denn auch anderes machen? Der Entwickler wird einen Teufel tun und sich mit großen Sprüchen vor nVidia zu stellen, nur um dann selbst unter Umständen unter die Räder zu kommen.

Was für ein Flickwerk das ganze ist, sieht man doch geradezu beispielhaft an der Battlefield 5 Demo.
Da wurde DAS Hauptfeature, mit dem Raytracing quasi zu dem wird, was es sein soll, weil man eben nur einen Bruchteil der Rays verschiessen muss um auf ein sauberes Ergebnis zu kommen, auf den ALUs anstat den 10x schnelleren Tensor- Cores berechnet (Denoising). Somit tappt sogar der Entwickler im Dunkeln, wie es mit der Leistung aussehen kann/wird.

Im Netz gibt es diverse Quellen und Leaks, wo man hinter vorgehaltener Hand davon spricht, dass zum Zeitpunkt des Erscheinens der Demos von SOTTR Metro und Battlefield die Bibliothek fürs Denoising noch garnicht fertig war/zur Verfügung stand.

Da kann man echt vom Glauben abfallen.

Entweder hat nVidia den Entwicklern nicht mitgeteilt das sie sich solche Aussagen sparen sollen, oder man muss einfach befürchten das es je nach Anzahl der genutzten RT Effekte eben wirklich nur zu diesen FPS Werten kommt.
Und das muss man sich mal vorstellen - Über alles üben sie Kontrolle aus, NDAs, Maulkörbe etc. und die mit einer friss oder stirb- Mentalität angetriebenen Entwickler lässt man freien lauf...

Wie gesagt- Die Verwantwortlichen bei nVidia müssen lange Zeit betrunken gewesen sein.

Für "10 Jahre" Entwicklung und Vorbereitung mit den finanziellen Mitteln die nVidia zur Verfügung stehen, ist das ein Versagen auf ganzer Linie.

Amen

Grüße
Zero
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Celinna und CBL
Taxxor schrieb:
Ist aber auch 2080 gegen 1080Ti, das Bild von nagus war 2080Ti gegen 1080Ti

Habe ich im Text erwähnt, danke!
 
Zurück
Oben