News Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti

Wadenbeisser schrieb:
Gegen die Raytracing Beschleunigung an sich habe ich nichts denn für die Licht- und Schattenberechnung eröffnet das neue Möglichkeiten. Wogegen ich was habe ist die Umsetzung ... gehört in standardisierter Form in eine Schittstelle die für alle gilt und nicht nur den Mittelsmann für irgendwelche herstellerspezifische Schnittstellen spielt denn so ist der Umgehung und Ausgrenzung wieder Tür und Tor geöffnet. (ooch sprechen wir al für "Optimierungen" die herstellereigene Schnittstelle an....)

Ja gut, einige behaupten die Einfuehrung von RT-Raytracing ist ueberfaellig, da bei Rasterisation nicht mehr viel geht. Wie spuerbar allerdings der Unterschied ist, haengt wohl auch davon ab wer da codiert/programmiert bzw. was die Entwickler koennen.

Falsch ist es sicherlich nicht, es stueckweise einzuefuehren, aber wenn ich mir anschaue, dass GPUs in Sachen AR/VR-Anforderungen (Stichwort Rohleistung) grossen Nachholbedarf haben, meist - im Gegensatz zu CPUs - in Spielen etwa die limitierende Komponente sind und 4K/UHD in Ultraeinstellungen bei aelteren (nicht einmal topaktuellen) Titeln wie GTA V oder Total War - Warhammer (2) nicht fluessig machbar sind (da man dort die doppelte Leistung einer Titan Xp benoetigt), dann finde den Zeitpunkt der Einfuehrung eher verfehlt als gut gewaehlt.

So etwas forderndes wie Raytracing (was natuerlich durch den Platz fuer die Kerne weniger Platz fuer eine insgesamt leistungsfaehigere GPU-Architektur laesst) kann man bringen, wenn GPUs nicht in mehreren Bereichen limitieren, aber natuerlich hat nVidia die Tensor-/AI-Technik, die man teuer und bedingt sinnvoll auch in Gaming-GPUs jetzt schon verbauen kann und nebenher eben Hardware-Raytracing-Kerne.

Dass der proprietaere Ansatz von nVidia ebenso kommt, war natuerlich zu erwarten, denn so kann man die ganze Marktmacht ausspielen und dem (/evt. in 2020 den) anderen das Leben/den Einstieg schwer machen, wofuer der Gameworks-Krempel natuerlich das beste Beispiel ist oder die Tatsache, dass man immer noch an G-Sync festhaelt.

So gesehen hast Du natuerlich Recht, Open-Source waere hier der richtige Ansatz (auch einfacher fuer die Entwickler) gewesen und eigentlich bietet die Microsoft-Loesung ja das, aber nVidia wollte wieder etwas eigenes zum vermarkten und verfolgt die Durchsetzung der proprietaeren RTX-Loesung (idealerweise unter Ausschluss und/oder Benachteiligung der Konkurrenz).
 
Leli196 schrieb:
Sind aber eher Indizien, als Belege.

Ja ein zwei Jahre altes Video und das einzige was er hat ist Fallout 4 nachdem ein Patch Feature hinzugefügt hat. Das hat wohl weniger mit der Treiber-Version als mit den Feature zu tun.
Das ist ja auch das was er unterstellt: Effekte/Feature die über GaneWorks implementiert werden entziehen sich der Kontrolle der Entwickler und liegen aktueller Hardware vermutlich besser als älterer was im Interesse von Nvidia wäre.
Das tangiert den Mythos Nvidia würde über Treiber bremsen leider aber nur peripher.

Schau du meckerst über Linus und ich gebe dir recht der Typ labert ziemlich viel Mist wenn der Tag lang ist. Ich sage ja mir wäre was anderes auch lieber aber quasi niemand beschäftigt sich wirklich damit.
Vermutlich weil Videospiele immer recht kurzlebig sind und aus Vorahnung was Linus ja z.B. als Resultat hatte. Viel Test-Aufwand für wenig Ergebnis im Grunde.
Aber der Typ da oben macht nicht mal eigene Tests sondern plappert nur Hörensagen nach. Das ist noch viel weniger eine Quelle als Linus zumal auch das Thema etwas anderes ist.
 
Die Geruechtekueche zur Leistung einer RTX 2080Ti in 4K/UHD (bei Ultraeinstellungen) brodelt uebrigens wieder:
Coming straight to the performance segment, the GeForce RTX 2080 Ti is said to deliver smooth 60 FPS in multiple PC games at 4K resolution. No detailed benchmarks were run as there are multiple NDA’s that tech writers are currently under with NVIDIA. All they can talk about is what they were able to play at the event without much messing around. In addition to the 4K gaming performance, it is also stated that some games (which they obviously can’t name explicitly) were able to run well over 100 FPS at 4K and using Ultra settings.
We have multiple reports on the performance of the new cards with RTX enabled and the game ran at around 50-60 FPS on average on a single GPU.
No resolution or settings are mentioned but other tech pubs are mentioning that the demo was running at 1080p resolution and performance isn’t that optimized yet.
Yes, the NVIDIA GeForce RTX 2080 Ti sounds awesome according to this preview but there are also other articles out there which clearly state that the early performance impressions of RTX games aren’t that great. NVIDIA solely talked about how good RTX is and how great it looks, they didn’t even slightly mention the performance of their latest cards (which to be honest are ludicrously price), neither in RTX titles or those without it.


Interessant auch die Spekulation, dass eine RTX 2070 gar keinen TU 104 Chip haben koennte, sondern auf einem TU106 Chip basieren koennte (und man deswegen den nVLink Port dort wegrationalisiert haben koennte):

With Pascal, NVIDIA removed the SLI connector from GeForce GTX 1060, which was occupying the most popular segment for graphics card owners. The criticism had no meaning to NVIDIA, it was a business decision to avoid cannibalizing GTX 1080 sales (two 1060 would be faster than 1080).
The story continues. The GeForce RTX 2070 might not even be using TU104 GPU, but a mid-range TU106 instead. The card clearly has a different board and different Device ID. It seems that the whole GPU segmentation has shifted and we are now paying more for the same GPU-classes than before.
 
Zuletzt bearbeitet:
Vote with your wallet kann ich nur sagen.

Habe bis 980ti immer zu Speerspitze gegriffen. Mit 1080ti bin ich dann nicht mehr mitgegangen und bei einer 1080 aus der 2. Reihe gebleiben.

Mit dem Rtx Release wirds dann halt 2070 und die dritte Reihe, wenn überhaupt . Meine Schmerzgrenze für nen Single Gpu ist mittlerweile um Faktor 2 überschritten worden.

Hätte ich nicht gedacht als ich noch vor ein paar Jahren die damals geniale Amd Speerspitze 5870 für 349,- geordert habe.
 
  • Gefällt mir
Reaktionen: PRAXED, elkechen und lanoo
ThePegasus1979 schrieb:
Ich finde bei der ganzen Diskussion hier echt schade, dass es jetzt Personen gibt, die NVidia Käufern die Schuld geben, da diese AMD Karten nicht gekauft haben zu Zeiten als diese besser waren. Besonders schlimm daran ist, dass es zum Großteil Personen sind die noch nicht laufen konnten, als die Mehrheit hier schon ihre 5. ATI Karte hatten.

Weißt du, zu sagen AMD ist schuld das NVIDIA die Preise anzieht ist genauso geil. Wir sagen nicht die Nvidiakäufer sind direkt schuld sondern lassen genau dieses "es gibt ja keine Konkurrenz"Geblubber nicht durch. Die gab es. Und gibt es bis weilen immer noch. Wenn 2GB-RAM + nichtig sind und Freesync sowiso nichts wert ok. Aber dann schieb nicht AMD die Schuld hin. Du fandest die 6GB 1060 dann besser als die 580 oder den 3GB-Shader-Speicherkrüppel als die 580, auch ok. Aber dann wunder dich eben nicht über Nvidias Firmen/Preispolitik. Du hast entschieden wo dein Fokus liegt, ist nicht AMDs schuld.
Nvidia kommt mit seiner Firmen/Preispolitik immer wieder durch.
GPP? Kein Stresskann man machen.
3.5GB in der 970? Gerne.
1060 3 GB still und leise mit weniger Shadern? passt.
Karten werden jährlich teurer? Wer die Marktmacht hat macht die Preise. Auch ok. Aber da liegt der Punkt Nvidia macht die Preise, ergo Nvidias Schuld.

Sprich es ist nicht so dass wir sagen Nvidia-Fans sind schuld. Wir sagen nur das ihr die Schuld nicht auf AMD schieben solltet, nachdem ihr das offenbar so für euch entschieden habt.

BTW hatte ich sowohl ne ATI 4xxx 5xxx und auch noch 2 Modelle vorher.

Ich mein, ist dir zu teuer? Mecker nicht und kauf den scheiß nicht.So einfach. So mach ich das, bin zufrieden. Wenn du sagst du brauchst so ne Karte weil XYZ, dann bist du selber schuld und du hast Nvidia recht gegeben, dass der Preis passt. Aber dann sind genau 2 Komponenten an deiner Misere schuld. Nvidia weil sie die Preise machen und DU weil du sie zahlst. Klarer Fall von schade. Ich seh da jetzt nicht wo das Problem liegt.

Ich hab die erste Vega-Charge verpasst, dann waren die Karten zu teuer. Also hab ich gewartet. Fertig. Damit hab ich nen für mich annehmbaren Preis gezahlt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King, Mantis Kerensky, duskstalker und 3 andere
Siegfriedphirit schrieb:
Wollen die nur noch fette Kohle machen? Wie bei den CPUs 16 Kerne - nein 24 Kerne , nein 32 Kerne ... eion Ende nicht abzusehen. Der Stromverbrauch steigt und steigt. Keine Anwendung und auch kein Spiel kann die Leistung wirklich benötigen-außer wenn sie miserabel programmiert wurden.

Also gerade bei CPUs/APUs bekommst du doch von 30-x1000€ genau die Leistung, die du brauchst/möchtest. Nur weil jetzt mal mehr Kerne im Mainstream ankommen, muss man ja nicht zwanghaft aufrüsten. Kein Vergleich zum GraKa Markt.
 
ronrebell schrieb:
Vote with your wallet kann ich nur sagen.

Habe bis 980ti immer zu Speerspitze gegriffen. Mit 1080ti bin ich dann nicht mehr mitgegangen und bei einer 1080 aus der 2. Reihe gebleiben.

Mit dem Rtx Release wirds dann halt 2070 und die dritte Reihe, wenn überhaupt . Meine Schmerzgrenze für nen Single Gpu ist mittlerweile um Faktor 2 überschritten worden.

Wow dann zeigst du es Nvidia ja richtig! Wenn du den kastrierten Performance-Chip, der von der Leistung im Bereich einer 1080 sein wird, für mehr Geld, als eine 1080 kostet, kaufst. Und das obwohl du schon eine 1080 hast. Denen gibst du es richtig!
 
  • Gefällt mir
Reaktionen: Mcr-King, Grundgütiger, Cenek und 2 andere
McLovin14 schrieb:
Wow dann zeigst du es Nvidia ja richtig! Wenn du den kastrierten Performance-Chip, der von der Leistung im Bereich einer 1080 sein wird, für mehr Geld, als eine 1080 kostet, kaufst. Und das obwohl du schon eine 1080 hast. Denen gibst du es richtig!

Drum der Zusatz „wenn überhaupt „
Musst komplett lesen, nicht ausm Kontext reißen.
 
  • Gefällt mir
Reaktionen: v_ossi, elkechen und lanoo
Cr@zed^ schrieb:
Und wenn?
Die 5870 war der GTX 480 deutlich überlegen, gekauft wurde *mal überlegen* - ach ja die GTX480.
Die HD7970 war der GTX 680 mindestens ebenbürtig, aber gekauft wurde, ja richtig, die GTX 680.

Also das ist leider völlig falsch, laut Tests hier auf CB war die GTX480 quasi immer ein gute Stück schneller als die HD5870. Die GTX480 war in Sachen Leistungsaufnahme und Kühlung schlechter, ja. Das hat NV damals auch zu spüren bekommen in Sachen Marktanteil. Der GTX680 war zum damaligen Zeitpunkt auch die HD7970 nicht gewachsen, erst mit der später erschienen HD7970 GHz Edition hatte AMD eine ebenbürdige Karte.

AMD hat es leider die letzte Jahre nie geschafft eine konstant gute Leistung zu bringen. Es gab immer Ecken und Ösen, die NV eben jetzt über Jahre (ca. 8 Jahre) nicht hat. Bei NV weis man was man bekommt und das nutzt NV jetzt gnadenlos aus. Es reicht für AMD eben nicht mal eine gute Karte im Portfolio zu haben, nein AMD muss überall Konkurrenzfähig sein und nicht über 30€ weniger Kosten punkten. Das muss AMD jedes Jahr aufs neue schaffen mit jeder Generation. Wenn AMD das 5 Jahre geschafft hat und mal AMD und mal NV über alle Leistungsklassen +-5% vorn/hin liegt, dann wird man sehen, dass sich auch die langfristigen Marktanteile verschieben.
 
projectneo schrieb:
Also das ist leider völlig falsch, laut Tests hier auf CB war die GTX480 quasi immer ein gute Stück schneller als die HD5870.

Zu Überlegenheit gehört aber mehr, als bei der Geschwindigkeit hier und da die Nase vorn zu haben.
Ansonsten wären die Netburst Pentium 4 auch den Athlon 64 überlegen gewesen.
Letztlich wird wohl niemand bestreiten, dass die 5870 die wesentlich bessere Grafikkarte war, als die GTX480. Die Effizienz war einfach in einer anderen Liga.

AMD hatte auch danach durchaus immer wieder die unterm Strich bessere Grafikkarte. Allerdings oft nicht in jedem Leistungssegment. Wenn man z.B. um jedes Frame auf einem WQHD- oder 4k-Display oder VR-Headset ringt, dann kamen in den letzten Jahren leider praktisch nur Nvidia-Karten in Frage.

Aber genau da könnten die neuen 2000er von Nvidia jetzt halt auch enttäuschen, weil Nvidia sich entschieden hat, dringend für Rohleistung benötigte Chipfläche für hochspezialisierte RT- und Tensor-Cores abzuzwacken.
Was nutzen einem hübsche Raytracing-Lichteffekte, die scheinbar selbst bei FullHD die Framerate deutlich unter 60FPS drücken, wenn man eigentlich auf etwas wartet, das bei 4k möglichst konstant 3-stellige Frameraten bringt?
Dass AMD in absehbarer Zeit in diesem Bereich aushilft, ist ja leider auch unwahrscheinlich.

Deshalb kann ich den Frust vieler High-End-Enthusiasten gut nachvollziehen. Zumal ich selbst auf ein UWQHD-Display mit >120Hz (und HDR usw.) schiele, für das ich dann auch eine neue Grafikkarte mit möglichst viel Leistung bräuchte.

Diese Monitor-Anschaffung würde mich dann wegen der G-Sync/FreeSync-Problematik auf mehrere Generationen auf einen Hersteller festlegen, weshalb ich die Entwicklung im GPU-Markt gerade sehr genau (und nicht ohne Sorge) beobachte.
 
  • Gefällt mir
Reaktionen: duskstalker
Herdware schrieb:
Deshalb kann ich den Frust vieler High-End-Enthusiasten gut nachvollziehen. Zumal ich selbst auf ein UWQHD-Display mit >120Hz (und HDR usw.) schiele, für das ich dann auch eine neue Grafikkarte mit möglichst viel Leistung bräuchte.

Diese Monitor-Anschaffung würde mich dann wegen der G-Sync/FreeSync-Problematik auf mehrere Generationen auf einen Hersteller festlegen, weshalb ich die Entwicklung im GPU-Markt gerade sehr genau (und nicht ohne Sorge) beobachte.

Das ist halt aber ein Enthusiasten-Problem. Ich kenn genug Leute die mit ner Vega/1080 in 4K und QHD+ zocken. Die Nvidia 2xxx Serie ist aber nunmal ein Problem über mehrere Segmente. Abgesehen davon haben Enthusiasten auch Titan-Karten gekauft. Ergo sollten 1000€+ doch nichts neues für das Segment sein. Ich mein, die Titan V wurde als akzeptabel genommen. Ich dachte da schon ich bin im falschen Film.
 
Herdware schrieb:
Diese Monitor-Anschaffung würde mich dann wegen der G-Sync/FreeSync-Problematik auf mehrere Generationen auf einen Hersteller festlegen, weshalb ich die Entwicklung im GPU-Markt gerade sehr genau (und nicht ohne Sorge) beobachte.

Ich nutze aktuell auch einen Freesync Monitor mit einer Nvidia Karte (vorher AMD), so riesengroß ist der Unterschied bei einem 144Hz Monitor nicht. Klar, es ist das i Tüpfelchen, aber der Unterschied 60Hz zu 144Hz ist deutlich größer, als nicht-Freesync zu Freesync.
 
Jetzt wird noch jedem größeren Twitch Streamer ne 2080Ti in den Rechner gedübelt, damit die ganzen Lemminge ja unbedingt diese überteuerten Karten kaufen müssen. Marketing kann Nvidia.
 
  • Gefällt mir
Reaktionen: v_ossi und Zockmock
Sehe ich das richtig das die neuen Karten nicht mal HDMI 2.1 / VRR haben?
Wäre echt toll gewesen wenn sie beides mit an Bord hätten. Aber jede wette
nächstes Jahr kommt eine neue Karte mit 2.1 ohne VRR - wegen G-Sync.
 
  • Gefällt mir
Reaktionen: Mcr-King und PRAXED
timboboy123 schrieb:
Abgesehen davon haben Enthusiasten auch Titan-Karten gekauft. Ergo sollten 1000€+ doch nichts neues für das Segment sein.

Es gibt wohl "Enthusiasten" und "Enthusiasten". ;)

Ich würde mich selbst durchaus als Enthusiast bezeichen. Ich habe schon sehr viele teure High-End-Grafikkarten gekauft (angefangen mit Matrox und Voodoo2-Karten :)) und sogar in einem Anflug von Größenwahn mal eine Extrem Edition-CPU (C2D X6800). Aber im Normalfall ziehe ich doch irgendwo eine gewisse Grenze beim Preis. Es ist nicht einfach "nach oben offen". Nicht unbedingt, weil ich es mir nicht leisten könnte, sondern es setzt halt irgendwo die Vernunft ein, bzw. will ich auch völlig unbeschränkte Preistreiberei nicht unterstützen.

Ca. 500-600€ für High-End-Karten ala 780Ti (meine aktuelle), GTX580, GTX8800 oder auch Radeon X850XT, 9800XT usw. ... das habe ich noch mit mir machen lassen. Die Titan fand ich aber doch so überteuert, dass ich von Anfang an dankend abgelehnt habe, und dass jetzt die 2080Ti in oder sogar über Titan-Preisregionen liegt, stößt mir entsprechend übel auf.

Sieht leider so aus, als wären meine Enthusiastentage gezählt. Diese Preisentwicklung (zumal wohl bei eher stagnierender Leistung) setzt dem ein Ende. Da kann/will ich nicht mehr mithalten.
Es sei denn ein anderer GPU-Hersteller springt als Retter ein und bringt wieder echte High-End-Leistung zu nicht völlig abgedrehten Preisen.
 
  • Gefällt mir
Reaktionen: Mcr-King, [SET]-=JENNER=- und elkechen
als wären meine Enthusiastentage gezählt
.....Du kannst immer noch Enthusiast sein und eine GTX1080ti im Abverkauf kaufen. Wird nicht mehr lange dauern. Wenn die Leistungsdaten stimmen die im Raum grassieren, dann wird die "alte" Klasse sehr bald deutlich im Preis fallen - nicht weil nVidia die billig verhökern will, sondern weil die Händler die Lager räumen wollen.
Geht mir seit Tagen auch durch den Kopf, aber ich hätte eigentlich schon gern eine neue Graka mit RTX - aber ganz sicher nicht zu 700 € oder mehr!
 
Apocalypse schrieb:
Tun sie ja auch in der Quadro Serie, die UVP für die RTX 8000 waren iirc 9999 Dollar °_^

Das Zitat ist nicht von mir.
 
elkechen schrieb:
wenn dem so ist,ist es schon sehr bitter bei den Preisen.


Nvidia Geforce RTX 2080 Ti Performance - Tomb Raider teils nur mit 30 bis 40 fps in Full HD

Ein Video von der Gamescom zeigt, wie schnell Shadow of the Tomb Raider dort mit einer Geforce RTX 2080 Ti von Nvidia läuft. Das Ergebnis fällt durchwachsen aus.

https://www.gamestar.de/artikel/nvi...nur-mit-30-bis-40-fps-in-full-hd,3333728.html

Wäre echt lächerlich... die ganze Präse war eigentlich lächerlich. Jetzt erklärt sich auch die Grafik, wo die 2000er Serie so krass besser ist als die 1000er Serie. Die 1000er kann null mit Raytracing umgehen und die neue kann es etwas.

Wie war das noch gleich.... die 2080Ti ist teils 800% schneller als eine 1080Ti... achja... betrifft natürlich Raytracing!

Beispiel TombRaider
RTX ON 1080p
2080Ti ~35Fps
1080Ti ~5Fps

RTX OFF 4k
2080Ti ~120Fps
1080Ti ~110Fps

So siehts nämlich aus.... 1080Ti aktuell 700€ und 2080Ti 1250€! 550€ Aufpreis für 10% mehr Leistung und Features die in 5 Spielen implementiert werden und eh nicht richtig Lauffähig sind, da zu schlecht.


Sind natürlich alles nur Vermutungen und bin sehr gespannt auf die ersten Tests.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King, elkechen und Weby
Zurück
Oben