Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

Deleo schrieb:
Denke ich auch, in meinem System also in der Mitte mit Abstand zu allen Komponenten habe ich Kostante 34 Grad. Ich denke es hat sogar Vorteile, da die Luft nicht komplett durch die Karte muss um hinten abgeleitet zu werden, sondern praktisch direkt zu alles Seiten abweichen kann. Muss ja ein Grund sein warum die Karten generell kühler laufen.

Diese offenen Karten laufen kühler weil sie Vampire am PC-Gesamtklima sind und die Gehäusekühlung einfach anderen Lüftern überlassen. Das ist für die Festplatten und Mainboardkondensatoren in der Nähe eine zusätzliche Belastung die auf die Lebenserwartung geht.

Hier ein Test dazu:
Die GPU Temperatur nimmt mit Dual Slot Kühlern zwar bis zu 7 Grad unter Last ab, im Vergleich zur geschlossenen Blower-Design Karte, dafür aber nimmt die CPU Temperatur um 11 Grad zu, Mainboard 9 Grad und Innengehäuse um 7 Grad!

Sich für minimale GPU-Mehrleistung so eine offene PC-Heizlüfter Karte einzubauen, ist eigentlich nicht effizient. Der Stromverbrauch aller Lüfter und Lärm kann darüber nur zunehmen.
 
@Jan

Es wäre grundsätzlich erfreulich eine gute Custom 1080 Ti in den Test mit aufzunehmen. In anderen Reviews sieht man ganz schnell, dass die 2080 dann hinter der 1080 Ti landet.
 
  • Gefällt mir
Reaktionen: CBL und Jan
GerryB schrieb:
Außerdem hat ja Lederjacke wiedermal die Ramverdopplung per NV-Link nur für die Quadros freigegeben.
Das stimmt mW. nicht, das soll auch mit Nvlink auf Geforce RTX funktionieren.
 
  • Gefällt mir
Reaktionen: Lübke82
Duke00 schrieb:
wird ein Sli Test mit der neuen nv Link Bridge folgen ? Würde mich interessieren ob die neue Generation wivon der besser skaliert

Das werden wir uns beizeiten sicherlich ansehen. Aber weil allein Bandbreite kein Allheilmittel sein wird, ist nicht davon auszugehen, dass sich das Fazit zu SLI auf Basis aktueller Spiele groß ändern wird. Dafür müssten Entwickler das erst wieder selber auf die Agenda stellen.
 
xexex schrieb:
Das liegt in erster Linie daran, dass die Schreibtische in den meisten Fällen nicht von Jahr zu Jahr von alleine wachsen.

Größere Auflösung bedeutet nicht zwangsläufig größeren Monitor.
27" WQHD würde für die meisten erstmal ausreichen. Ich halte FHD im Gamingbereich ebenfalls für eine Steinzeitauflösung.
 
milliardo schrieb:
Das hat er nicht vergessen zu erwähnen, weil er die ganze Präsentation lang ausschließlich von RT gefaselt hat. :rolleyes:

Hat er eben nicht. Am Ende der Präsentation sprach er von den Preisen und den normalen Leistungswerten.

Beim Preis der 2070 erwähnt er beiläufig, dass die 2070 schneller als die 1080 Ti ist. :rolleyes:
 
  • Gefällt mir
Reaktionen: DanHot
werpu schrieb:
Jepp das ist auch der einzige Wechsel wo es wirklich Sinn macht...
Ich wechsle von Vega-APU zu einer 2080 Ti :D Vorher hatte ich auch eine 1070, die war mir für UHD aber viel zu schwach, mit der 2080 Ti werde ich hoffentlich flüssig mit hohen bis sehr hohen Einstellungen in UHD zocken können. Ich möchte ein paar Spiele auch modden, hoffentlich geht sich das leistungsmäßig in UHD auch noch aus. Die 1080 Ti fällt in UHD gerade in den min FPS doch oft stark ab, das macht die 2080 Ti laut diverser Tests deutlich besser.
 
  • Gefällt mir
Reaktionen: Lübke82
GerryB schrieb:
Deswegen kommen dann nächstes Jahr die BIG-Monis an die Wand.

Ich warte auf bezahlbare 80" Fernseher, G-Sync ist für mich absolut uninteressant und 4K macht für mich mit einer kleineren Bildschirmgröße keinen Sinn. :cool_alt:

Dieses Jahr sind aber zunächst einmal 70" Panels an die 1000€ Preismarke gerutscht. Also in 2-3 Jahren dürfte es soweit sein, wenn den Herstellern nicht neues einfällt außer die Bildschirme immer grösser zu machen. Bis dahin gibt es auch halbwegs bezahlbare Grafikkarten für diese Auflösung.
 
sleuftdude schrieb:
Aufruf an alle Gamer....Investiert doch mal in nen gescheiten Monitor als in eine überteuerte Grafikkarte.

Weil die Pixeldichte meinstens für den Arsch ist. Warum bringt mir 4K beispielsweise bei 70 Zoll wenn das Bild nachher trotzdem aussieht wie auf einem 40 Jahre altem Röhren Fernseher aus 30cm entfernung?

Pixeldichte ist das Wichtige, zumindest einer der Wichtigen Faktoren, nicht wieviele Pixel allgemein auf dem Monitor existieren.
 
Aldaric87 schrieb:
Klar, dass hat Huang bei der Präsentation nur vergessen zu erwähnen.

Warte..wie war das am Ende der Präsentation? Die 2070 ist schneller als die 1080 Ti.. das waren genau seine Worte.

Worum ging es bei der Präsentation? Genau, um RT und DLSS!

Also mit RT ist die 2070 definitiv schneller als die 1080Ti (wenn auch nur vllt. mit 30 FPS, da macht die 1080Ti wohl eher 5 FPS wenn überhaupt). Auch mit DLSS wird die 2070 schneller als die 1080Ti sein.
 
Nureinnickname! schrieb:
Weil die Pixeldichte meinstens für den Arsch ist. Warum bringt mir 4K beispielsweise bei 70 Zoll wenn das Bild nachher trotzdem aussieht wie auf einem 40 Jahre altem Röhren Fernseher aus 30cm entfernung?

Wo ist das Problem? Es gibt auch 4k Monitore in "normalen" Größen. Oder man nimmt sich nen Ultrawide in 34"/35" (entspricht der Höhe von 16/9 in 27") und zockt mit 3440x1440 in 21/9 mit 120Hz. Da rechnet sich ne RTX 2080TI ganz schnell :D
 
raphe schrieb:
Ich denke der Shrink ist nicht passiert, da nVidia den TikTok-Zyklus einhalten will und nach einem Shrink (Pascal) ein Architektur-Redesign (Turing) kommt. Wenn man beides mach kann man ja nur einmal Geld verdienen.
Ich denke der Shrink ist nicht erfolgt, weil die Chipfertiger einfach noch nicht so weit sind.
Gestern las ich, dass NV Turing mit 10nm geplant hat, es aber Probleme mit der Umsetzung gab. Daher haben sie die 16nm leicht optimiert und als 12nm noch mal verwenden. Ich glaube das war bei Hardwareluxx...

Das Interesse seitens NV daran ist durchaus plausibel. Kleinere Struktur = Kleinere Chips = Mehr Chips pro Wafer = geringere Fertigungskosten. Bei gleichem Preis, mehr Gewinn. Oder niedrigere Preise und mehr Absatz. Entwicklungskosten mal außen vor. Außerdem wäre entweder ne geringere Leistungsaufnahme oder ein höherer Takt möglich gewesen. Nvidia hätte sich wahrscheinlich für letzteres entschieden. Das hätte nochmal mehr Performance gegeben. Ich denke nämlich nicht, dass sie absichtlich Potenzial haben liegen lassen.

Das hat nun nicht geklappt, also haben wir riesige Chips, bei riesigen Kosten und entsprechend hohen Preisen. Das NV keine ernstzunehmende Konkurrenz in dem High-End Segment hat, ist auch nicht hilfreich.
 
Aldaric87 schrieb:
Hat er eben nicht. Am Ende der Präsentation sprach er von den Preisen und den normalen Leistungswerten.

Beim Preis der 2070 erwähnt er beiläufig, dass die 2070 schneller als die 1080 Ti ist. :rolleyes:

Ich kann mich zwar nicht daran erinnern dass Lederjacke auch nur ein einziges Wort zur klassischen Renderingleistung verloren hat, aber wenn du das sagst....

Lederjacke denkt eben auch an die Hater. :)
 
  • Gefällt mir
Reaktionen: Krautmaster
Mich würde auch mal ein Vergleich zwischen Ryzen und Coffee Lake inkl. aller Sicherheitspatches mit den RTX-Karten interessieren.
 
Nureinnickname! schrieb:
Weil die Pixeldichte meinstens für den Arsch ist. Warum bringt mir 4K beispielsweise bei 70 Zoll wenn das Bild nachher trotzdem aussieht wie auf einem 40 Jahre altem Röhren Fernseher aus 30cm entfernung?

sitzabstand ist bei solchen diagonalen das zauberwort.
 
milliardo schrieb:
Lederjacke denkt eben auch an die Hater. :)

Klar, sind natürliches alles Hater, wenn sie nVidia kritisieren. (selbst eine 1070 im Rechner).

Wenn eine 2080 schon von einer Custom 1080 Ti geschlagen wird, muss man sich schon fragen wo sich eine 2070 dann Leistungstechnisch einordnen soll, wenn man 640 € dafür verlangt. Bei der 1080 ? Naja die gibt es auch günstiger in guten Customs.

Krautmaster springt natürlich drauf an und gibt dir einen Like. Aber er verzapft in den letzten Wochen auch überdurchschnittlich viel Mist hier in den Foren. Was erwarte ich da nur ! :daumen:
 
  • Gefällt mir
Reaktionen: Birke1511, gesperrter_User und SchorschSepp
Die 2080RTX hat nur 8GB Vram !
Dann nehm ich doch lieber ne 1080TI Custom mit 11GB Vram und hab auch noch 200€ für ne große SSD über !
 
  • Gefällt mir
Reaktionen: DanHot
timohepolis schrieb:
Größere Auflösung bedeutet nicht zwangsläufig größeren Monitor.

Richtig! Deshalb würde ich jederzeit von einem 1080p zu einem 2160p Monitor wechseln wenn:

1. Die Monitore in einem Preisrahmen von 100-200€ angelangt sind
2. Alle Applikationen problemlos die 200% Skalierung beherrschen
3. Die Grafikkarten spielend mit 2160p umgehen können.

1440p ist bei gleichen Bildschirmgröße hingegen ein Krücke, mit einer höheren Auslösung werden meine Augen nicht besser und eine 150% Skalierung ist krumm und wird in vielen Anwendungen unscharf. Es wird also noch ein paar Jahre dauern, bis High-DPI Monitore im Massenmarkt eine größere Verbreitung finden.
 
Zuletzt bearbeitet:
Zurück
Oben