Test GeForce RTX 2080 & 2080 Ti im Test: Heute mehr Leistung und viel Zukunft

@ZeroZerp das dürfte wurscht sein, denn wenn ich das richtig verstehe ist das ein feature das erst mit den turings bei nvidia daherkommt - also stehen da eher 8gb nvidia turing vs. 8gb amd vega
(oder irre ich mich?)
 
Zuletzt bearbeitet: (typo)
cypeak schrieb:
ich schreibe es gerne auch das zehnte mal hin: nvidia ist ein kommerzielles unternehmen das geld verdienen möchte und kein gamer-wohlfahrtsverein...deal with it!

Die wollen Geld verdienen ?? Meine Güte, das war mir so noch nie bewusst - dachte immer die machen das alles aus reiner Nächstenliebe - Danke für die Aufklärung ^^ :freak:
 
  • Gefällt mir
Reaktionen: B0n3cru5h3r
cypeak schrieb:
@ZeroZerp das dürfte wurscht sein, denn wenn ich das richtig verstehe ist das ein feature der erst mit den turings bei nvidia daherkommt - also stehen da eher 8gb nvidia turing vs. 8gb amd vega
(oder irre ich mich?)
Stimmt schon- Bei Nutzung dieses Features wird der Entwickler sicher ein Auge drauf haben, dass da auf den "größeren Karten" im Allgmeinen dann keinen Speicherüberlauf gibt...

Grüße
Zero
 
@anexX offenbar muss man das stets wiederholen, denn einige jammern hier derart als hätte nvidia gegen irgendein gesetz verstoßen...
 
Wie Leute immernoch auf den Shrinkwahn und diese zahlen reinfallen... diese 12 oder kommenden 7nm sind diverse Zwischenlagen, die Recheneinheiten und Cores selbst sind teils noch zwischen 20- über 30nm, die gehen immer mit dem kleinsten Nenner in das Marketing!

Das sollte eigentlich mittlerweile bekannt sein, bis wirklich die wirklich rechnenden Recheneinheiten bei realen 7nm sind können noch 10 oder mehr Jahre vergehen, weil umso komplexer was ins Silizium soll desto schwieriger ist es dies immer kleiner zu fertigen.
 
Luxmanl525 schrieb:
Klar kam zum Ausdruck, daß ohne die besagte Schittstelle, die erst mit der nächsten Windows 10 Version Einzug halten soll, sowieso Null geht im Bezug auf

Bei deiner Aussage kommt es aber rüber als wäre die nächste Windows "Version" noch Jahre entfernt. Dabei geht es aber um das diesjährige Oktober Update, was vor der Tür steht.
 
Damit spielte er wohl eher drauf an, dass es ja doch manchmal zu Verzögerungen kommt beim Updates.
 
  • Gefällt mir
Reaktionen: Luxmanl525
Hallo zusammen,

@ xexex

xexex schrieb:
Bei deiner Aussage kommt es aber rüber als wäre die nächste Windows "Version" noch Jahre entfernt. Dabei geht es aber um das diesjährige Oktober Update, was vor der Tür steht.

Aber nur, wenn nichts dazwischen kommt. Und hierauf bin ich eingegangen bzw. wollte ich darauf aufmerksam machen. Was wenn da noch ein Fehler gefunden wird? Aufgrund derer die Veröffentlichung zurück gestellt wird. Oder eben ein grundsätzlicher Fehler in der für Oktober avisierten Windows 10 Version gefunden wird? Die wird dann zurück gestellt, wäre ja nicht das erste Mal. Das würde für RT bedeuten, es würde noch weiter nicht genutzt werden können. Wie gesagt, es wäre dann schon beinahe mehr als Fiktiv zu Nennen.

@ Aldaric87

Aldaric87 schrieb:
Damit spielte er wohl eher drauf an, dass es ja doch manchmal zu Verzögerungen kommt beim Updates.

Ich bin sehr dankbar für deinen Einwurf. Du hast den Nagel auf den Kopf getroffen und vor allem gezeigt, daß es noch Leute gibt, die wirklich mitdenken können und des Lesens sehr wohl mächtig sind.

So long....
 
Luxmanl525 schrieb:
Aber nur, wenn nichts dazwischen kommt.

Dafür ist es jetzt zu spät. Die heutige Version im Slow Ring beinhaltet gerade einmal noch zwei bekannte Bugs und steht für alle Geräteklassen im Slow Ring bereit.
Bekannte Probleme in der Windows 10 17763
  • Der Task-Manager meldet keine genaue CPU-Auslastung.
  • Die Pfeile zur Erweiterung von „Hintergrundprozessen“ im Task Manager blinken ständig und seltsam.
https://www.deskmodder.de/blog/2018...3-steht-fuer-die-insider-im-fast-ring-bereit/

Natürlich kann immer irgendwas passieren, das Update ist aber diesmal praktisch fertig und wird bereits seit fast einem Monat ohne Time Bomb und Watermark ausgeliefert.

In der Vergangenheit gab es zwar auch schon nach dem ersten Rollout noch Verzögerungen und diese sind auch diesmal nicht ausgeschlossen, für Wahrscheinlich halte ich sie nicht. Letztlich kann auch jeder mittlerweile das Update herunterladen und installieren, wenn er bereits so eine Karte besitzt.

Ist aber auch egal...

SKu schrieb:
Wenn sich hier aber Leute für eine 2560x1080er Auflösung eine 2080 Ti in den Rechner knallen, dürften sie sich aber auch nicht wundern, dass die Karte im klassischen Renderbetrieb nicht wirklich mehr Leistung auf den Tisch bringt als der Vorgänger, weil da eher andere Komponenten limitieren.

Die Aussage kapiere ich nicht!

Ich spiele in 1080p, habe in meinem PC derzeit einen i7-8086K und eine 1060. Wieso sollte eine 2080Ti nicht mehr Leistung bringen?

Es soll Menschen geben die kaufen sich eine Karte, spielen damit ein paar Jahre und kaufen sich dann ein Upgrade der zu ihrem Budget passt, um wieder ein paar Jahre mehr damit zu spielen. Die ewige Diskussion darüber zu welcher Auflösung eine bestimmte Karte passt ist völliger Schwachsinn!

Wenn ich das Geld hätte und mir meine jetzige 1060 zu langsam wäre, würde ich sofort zu einer 2080 greifen und hätte für die nächsten 5-7 Jahre Ruhe. Muss ich dann deshalb zunächst mein TV entsorgen und mir unbedingt ein 4K Gerät zulegen? Ist die Grafikkarte dann zu schnell für mein Ausgabegerät?

Es gibt zig Faktoren nach denen sich jemand eine Grafikkarte zulegt. Die aktuell genutzte Auflösung ist nur eine der vielen.
 
Zuletzt bearbeitet:
xexex schrieb:
Die Aussage kapiere ich nicht!

Ich spiele in 1080p, habe in meinem PC derzeit einen i7-8086K und eine 1060. Wieso sollte eine 2080Ti nicht mehr Leistung bringen?

Weil nicht nur die GPU ein limitierender Faktor ist.
Angenommen Software X läuft mit der 1060 im CPU-Limit. Dann wird sie das auch mit der 2080 Ti. Kann man halt die Regler mehr nach rechts schieben, mehr FPS gibt es aber trotzdem nicht. Eine 2080 Ti ist für 1080p ein ziemlicher Overkill. Selbst in 1440p wird es je nach Spiel auch kein 8700K in der Sonderedition schaffen.

Nehmen wir mal Origins in 1440p. Da liefert die 2080 Ti 13,5% höhere min. fps als die 1080 Ti im Schnitt. Es gibt aber Szenen, da limitiert die CPU ohne Gnade auf Verluste. Dann sind die FPS der 2080 Ti auf einmal gleich mit denen der 1080 Ti, weil die CPU eben nicht mehr liefern kann.

Jetzt hat NVIDIA aber mit Turing auch das Mesh Shading eingeführt. Damit könnte die CPU massiv entlastet werden. Bis das aber Gang und Gebe ist, ist Turing der 1. Generation schon wieder hoffnungslos veraltet.
 
dlss, rt...kommt halt in 3-5 Jahren.
Preis: Nvidia lotet aus, was das Opfer zu zahlen vermag. Mal schauen ob es sich lohnt, dann machen sie seiter so.
Performance: ok
ZG: für User der 9er Generation und darunter, empfehlenswert. Rest, nein.

Fazit: P/L Sieger: 1080(ti)...am besten gebraucht.
 
  • Gefällt mir
Reaktionen: CBL
t3chn0 schrieb:
Komisch, ich spiele in 2560x1080P @ 160Hz und mir war die 1080Ti bei BF1@Ultra Settings gerade so stark genug, hätte aber auch mehr sein können. Genau das bietet die 2080Ti jetzt.

Wer natürlich casual spielt und das mit 60Hz, dem reicht auch eine 1060, die ich ja auch noch hier habe als Ersatzkarte.

Wer Ultra Settings in FPS (also Shooter) eingestellt hat, der hat sicher Freude mit den zusätzlichen Details, wie Vegetation und versteckten Snipern (gerade bei BF1) 😏

Hab auch ne 1060 und 1440p mit theoretisch 144 Hz, G-Sync, komm auch auf ~100 fps mit high Settings, außer Effekte, die sind auf low - passt einwandfrei.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: aldaric
@poly123

Na, hier meinen zwei, drei Granaten das man in nem Shooter alles auf rechts stellen muss.

Es bleibt dabei: Ab Vega56/GTX 1070 kann man angenehm auf 1440p spielen. Regler bedienen kann jeder, vor allem in kompetitiven Spielen. Das man jede GPU in nahezu jeder Auflösung ans Limit bringen kann ist klar.
 
  • Gefällt mir
Reaktionen: E1nweg und poly123
@StefVR
Hättest du meinen Kommentar paar Seiten davor mal angeguckt dann würdest du mir das mit 4k nicht vorhalten.

https://www.computerbase.de/forum/t...istung-und-viel-zukunft.1824511/post-21736371

Und gerade die extrem vorteilhafte Turing Spieleauswahl von CB habe ich auch in meinen vorherigen Posting kritisiert.

Ich habe nicht von Seriös gesprochen... sondern von Objektive.

Ich bin zwar kein Deutschlehrer aber ein unobjektiver Artikel kann trotzdem noch Seriös sein.

Zum Ram Argument gebe ich dir aber natürlich recht, auch wenn schneller DDR4 Ram bei Intel CPU's viel weniger ins gewicht fällt wie beim Ryzen.
 
Zotac2012 schrieb:
Diesmal hat man die RTX 2080Ti schon gezwungenermaßen bringen müssen zum Release, denn die RTX 2080 ist gegenüber der GTX 1080Ti von der Leistung her zu schwach. Man sieht ja jetzt schon die Reaktionen, was die Leistungswerte der RTX Serie ohne DLSS und Raytracing betrifft. Was wäre erst los, wenn nur zum Release eine RTX 2080 und 2070 gekommen wäre?
Naja, das ist doch lediglich eine Sache der Namensgebung. Man hätte die 2080 Ti auch einfach 2080 nennen können und aus der 2080 hätte man die 2070 gemacht. Dann wäre der Leistungsprung ziemlich groß gewesen, wenn man das Modell der Vorgängerserie zum Vergleich genommen hätte.
 
Retro-3dfx-User schrieb:
Wie Leute immernoch auf den Shrinkwahn und diese zahlen reinfallen... diese 12 oder kommenden 7nm sind diverse Zwischenlagen, die Recheneinheiten und Cores selbst sind teils noch zwischen 20- über 30nm, die gehen immer mit dem kleinsten Nenner in das Marketing!

Das sollte eigentlich mittlerweile bekannt sein, bis wirklich die wirklich rechnenden Recheneinheiten bei realen 7nm sind können noch 10 oder mehr Jahre vergehen, weil umso komplexer was ins Silizium soll desto schwieriger ist es dies immer kleiner zu fertigen.


...in 10 Jahren ist "unser" Silizium vorrat aufgebraucht, wenn die Menschheit auf E -Autos umsteigt! :rolleyes:;)
 
Aldaric87 schrieb:
@poly123

Na, hier meinen zwei, drei Granaten das man in nem Shooter alles auf rechts stellen muss.

Es bleibt dabei: Ab Vega56/GTX 1070 kann man angenehm auf 1440p spielen. Regler bedienen kann jeder, vor allem in kompetitiven Spielen. Das man jede GPU in nahezu jeder Auflösung ans Limit bringen kann ist klar.

Das ist ja wohl relativ. Nach der Präsentation von der RTX-Reihe habe ich mit dem Gedanken gespielt mit den LG 34GK950F-B zuzulegen samt Vega 64. Allerdings bezweifle ich, dass Vega ausreichend Leistung zur Verfügung stellen wird, damit es für mich nicht ruckelt.

Andere Überlegung wäre es den Monitor zu kaufen, den alten günstig zu verscherbeln und dann auf AMD mit 7nm zu hoffen.
 
SKu schrieb:
Angenommen Software X läuft mit der 1060 im CPU-Limit.

Sowas passiert wenn du zwingend Benchmarks mit V-Sync Off durchführst, aber nicht wenn du mit 60 oder von mir aus 144FPS spielst. Wenn ich mir heute FFXV wieder raushole und alle Regler nach rechts schiebe laufe ich im GPU Limit und die CPU langweilt sich.

Packe ich mir eine 2080 in den PC wird sich vermutlich sowohl die CPU als auch die GPU langweilen.

Warte ich noch ein paar Jahre, kann ich mir sicher sein, dass irgendwann auch die Grafikkarte wieder bei 100% Auslastung liegt und wenn es die CPU als erstes erwischt, dann rüste ich die CPU nach.

An der Auflösung brauche ich in der ganzen Zeit nichts zu ändern, meine Augen werden sich definitiv nicht mehr verbessern sondern eher nur noch verschlechtern.

Soll ich mir stattdessen lieber eine 1070 einbauen? Dann bin ich in zwei und nicht 5 Jahren im GPU Limit und sollte ich mir doch in der Zwischenzeit einen neuen TV mit 4K kaufen müssen, habe ich mit Bananen gehandelt.

Die Auflösungsdiskussion ist und bleibt schwachsinnig, da sie zwar Leute mit hohen Auflösungen zwingt, eine leistungsfähige Grafikkarte anzuschaffen, aber umgekehrt irrelevant ist. Niemandem hat es je geschadet eine leistungsfähige Karte mit einer niedrigen Auflösung zu nutzen. Wenn man Lust hat, nutzt man die "Reserven" einfach für DSR und freut sich über eine verbesserte Bildqualität.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: betzer
Nvidia macht alles richtig,
die Neue Gen Teuer am Markt bringen um zu sagen ihr alter Müll ist besser(1080ti vs 2080) und die Leute kaufen selbst 2 Jahre später noch eine ti um 600€ weil die neue Gen x80 ein wenig teurer ist.

Die 2080 wird es wenn die Lager der alten Rotze leer sind mit 500€ geben, die TI wohl um die 700€


Nvidia versteht wie man es macht, die Kunden werden anscheinend seit 2011/12 immer dümmer:D


Ich bin kein Fan von irgendwas, mich interessieren nur die Strukturen dahinter und ich als Kunde besorge mir das was ich will und warte darauf das ich das bekomme, weder Amd, Intel noch Nvidia sind die Caritas...
Das sind Firmen die mein Geld wollen
 
  • Gefällt mir
Reaktionen: Toprallog und uwei
Du wirst die 2080 Ti nicht für 700 € sehen, außer es gibt schon einen Nachfolger am Markt. Das ist naives Wunschdenken.
 
  • Gefällt mir
Reaktionen: betzer, Tock und Tweakit
Zurück
Oben