News Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti

frost21 schrieb:
Inflation lasse ich nicht gelten: lt. diesem Rechner müsste man für 500€ aus dem Jahre 2010 heute 550€ Zahlen.
Was hat ein amerikanisches Unternehmen mit der in Deutschland seit Jahren fast nicht vorhandenen Inflation zu tun? :rolleyes:

Die Inflation in den USA liegt seit 2010 im Schnitt bei über 2%, aber rechnen wir mit mit glatten 2% seit 2010:
500*1,02*1,02*1,02*1,02*1,02*1,02*1,02*1,02=585,83€

tnevermind schrieb:
"Nvidia gibt für die GeForce GTX 1080 Ti Founders Edition eine unverbindliche Preisempfehlung von 819 Euro an. Ab dem 10. März um 19:00 Uhr deutscher Zeit kann die Grafikkarte entweder bei Nvidia selber, oder von den klassischen Bordpartnern im Online-Handel erworben werden. Händler haben gegenüber ComputerBase verlauten lassen, dass ausreichend Ware am Lager verfügbar sein wird. "
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/4/

2 Jahre Später, der direkte Nachfolger 1259€ bzw. 849€ für die 2080. Hab ich was verpasst oder stimmt das mit der Inflation nicht mehr so recht

Die 1080 FE hat vor gut 2 Jahren angeblich 789€ gekostet
http://www.pcgameshardware.de/Nvidi...98/News/GTX-1080-GTX-1070-Preis-Euro-1196578/

Die 2080 FE soll 849€ kosten
https://www.computerbase.de/2018-08/geforce-rtx-2070-2080-ti-vorgestellt/

Inflation in den USA
https://tradingeconomics.com/united-states/inflation-cpi

=> passt relativ gut
 
  • Gefällt mir
Reaktionen: Oneplusfan
Taxxor schrieb:
Ja man bekommt sie voll, weil Spiele sie eben nutzen wenn sie da sind. Langsamer läuft es mit 6GB aber nicht, sonst lägt die 1060 ja overall hinter der RX580.

FHD Karte ist untertrieben? Wenn ich mir mal aktuelle Benches hier auf CB in 1440p ansehe, dann sehe ich, dass sich sowohl RX580 als auch GTX1060 in vielen Titeln abseits der Performancemeister wie Battlefield oder CoD so im Bereich zwischen 25 und 40fps bewegen

Bei den Texturen ist es dir egal wenn nicht die volle Qualität da ist, kostet ja keine Performance, bei 1440p bist du dann aber nicht bereit selbst die Details etwas runter zu setzen für 60+ FPS?

Wirkt ein wenig schizophren auf mich. 1070ti, vega 56 etc rennt deutlich angenehmer auf 1440p, also würde ich die RX580/GTX1060 auch ehr für FHD high-fps einstufen, wobei medium FPS dann eben auch auf 1440p läuft. Die RX570 ist ja auch noch eine solide FHD Karte, die schafft dann aber tatsächlich ehr nur kinematische FPS in 1440p ;-)
 

steve von hardware unboxed ist der meinung, dass turing ohne raytracing zwischen 15 und 20% mehr leistung zu pascal bringt.

wenn man bedenkt, dass der "12"nm prozess eher ein 16nm prozess ist und sich abseits von RTX-Recheneinheiten (1/3 bis hälfte vom die) kaum was getan hat (~10-20% mehr cuda cores) bei gleichem bzw. sogar weniger takt, muss man sich überlegen, wo denn genau hier leistung herkommen soll?
 
  • Gefällt mir
Reaktionen: Mcr-King
Aber kommt es nur mir so vor, oder sehen die ganzen Texturen, die Modelle und auch die ganze Szenarie komplett steril und irgendwie nicht hochwertig in BF5-RT Demo aus? Das Feuer wirkt wie vor zehn Jahren. Man sieht kaum Partikeleffekte oder Shadereffekte. Mich hat das ganze eher abgeschreckt.

Fraglich auch, wieso zudem null Benchmarks oder einfache Balken (innerhalb der PPT) zum normalen Rasterizing gezeigt wurden (DX1x).

Alles sehr komisch ...
 
  • Gefällt mir
Reaktionen: McTheRipper und Mcr-King
Serphiel schrieb:
Nachdem ich nun einige Kommentare hier gelesen habe muss ich sagen das ich überrascht darüber bin das so einige sich wenig beeindruckt über den Effekt von RT zeigen.
Man kann ja jetzt sehr geteilter Meinung darüber sein ob es das Geld wert ist oder ob die Leistung der kleineren Karten überhaupt spielbare Ergebnisse für längere Zeit liefern, keine Frage.
Aber losgelöst von der Geld und Leistungsfrage finde ich, dass optisch die Unterschiede und Möglichkeiten beachtlich sind.
Gerade wenn es um spiegelende oder durchsichtige Oberflächen geht ist der Unterschied zu RT deutlich zu erkennen aber auch was Schatten und Lichtquellen angeht.
Schon klar die Leute reden RT jetzt klein. Das ist der Anti-Markting-Manöver zum Marketing-Manöver von Nvidia. Ich kann verstehen warum man das tut von einem menschlichen Standpunkt aus gesehen aber von einem faktischen aus ist die reine Restarisierung bei diesen Effekten einfach bald am Ende.[...]

Habe mir jetzt nicht die 15+ Seiten, nach deiner Antwort durchgelesen, aber es geht mir (und evtl. einigen Anderen) nicht darum RT schlecht zu reden. Das wäre ja fast schon dumm, denn RT ist physikalisch korrekt und keine "Trickserei" um den Game Engines Schatten und Reflexionen "vorzugaukeln".

Problematisch ist doch, dass NVidia das jetzt so verkauft, als wären Spiele ohne RT kaum noch spielbar und unter einer RTX 2070 läuft nix mehr.*
Wer auf der Konsole spielt, hat überhaupt keinen Berührungspunkt mit RT und trotzdem Spaß und alle Spiele vor dem gestrigen Montag sind nicht auf einmal "hässlich". Zumal die höchsten Einstellungen immer "zu viel" Leistung kosten für das, was sie bringen.**

Wenn die neuen Karten in "alten" Spielen also "nur" 30% mehr fps bringen, ist der Aufpreis schon enorm und wenn in neuen Spielen dann "nur" 30fps@1080p drin sind (was die Videos vom neuen Shadow of the Tomb Raider andeuten), ist das... naja.

Zumal; was bleibt von den Effekten außerhalb der Trailer? Schatten sehen jetzt auch nicht so grausam aus, dass ich mir immer gewünscht hätte, dass sich da endlich was ändert. Und bei Reflexionen ist es je nach Spiel ähnlich.

Raytracing ist sicherlich der "richtige" Weg, aber wenn er mit den aktuellen Nvidia Preisen und dem eingeschränkten Nutzen in aktuellen Spielen verbunden wird, bleibt davon mMn nicht so viel übrig.

Ich persönlich habe jedenfalls lieber ein "hässliches" aber flüssiges Battlefield V ohne RT auf einer <500€ Karte, als ein subjektiv nur minimal schöneres RT Battlefield V auf einer 1000€ Karte.

*zur Veranschaulichung des Problems offensichtlich übertrieben.
**mMn
 
  • Gefällt mir
Reaktionen: BorstiNumberOne, duskstalker und Mcr-King
Smartin schrieb:
Ich kann mich echt nur amüsieren, was hier gepoltert wird. Gerade die AMD Fans scheinen sehr vergesslich zu sein. Was hat seinerzeit die Vega56 (etwa Leistungsniveau der 1070) bzw die Vega64 bei der Einführung gekostet und wo lagen die Preise bis vor 1,5-2 Monaten? Waren es gute 900 Eur für Vega64? Aber das war in Ordnung?

Vega 56 kostete 399€ und Vega 64 499€. Was der Handel, bedingt durch den Mining-Boom, aufgerufen hat, ist unerheblich. AMD hat nur mehr Karten verkauft, aber nicht durch gestiegene Endkundenpreise profitiert.

NVidia hingegen erhöht die UVP signifikant in Regionen, die jenseits aller Vernunft liegen. Deshalb hoffe ich, dass möglichst viele Kunden ihr Hirn einschalten und dieser Firma einem Denkzettel verpassen mit dem einfachsten Mittel: Verzicht!
 
  • Gefällt mir
Reaktionen: Thraker, lanoo, alkaAdeluxx und 5 andere
Den richtigen Sprung in der Performance gibt es erst wieder mit 7nm. War doch alles abzusehen.
Die Zielgruppe sind hier eindeutig die Aktionäre :rolleyes:
 
Weil der Vorteil der RTX Karten fast ausschließlich auf RT-features liegt. Hier gehts eben um einen Schwenk auf eine neue Technologie, und das ist der erste Schritt.

Da zeigt man dann keine bescheidenen 20% Leistungssteigerung in einem Balken, sondern eben lieber 6x (600%) soviel Leistung in RT-Tasks.
 
Finde die Preise auch zu hoch wie schon fast frech. Aber was einige hier ablassen ist kaum auszuhalten... nVidia leitet das Ende des Gamings auf dem PC ein... wtf^^

Es gibt halt einige Schlaumeier die dachten sich ein 4k Monitor muss her. Haben sich ne 1080ti gegönnt und festgestellt dass die Karte schon zu Beginn auf 4k eher am Limit ist. Wer sich ein 4k Monitor für Gaming gekauft hat ist einfach nur selber schuld. Full HD oder wenn es gehoben sein muss WQHD sind die erste Wahl.

Man sieht es ja auch an den ersten Ray Tracing Benchmarks. Alles über Full HD scheint utopisch wenn man dies nutzen möchte.

Was ich sagen möchte ist eigentlich nur dass man auch z.B. mit einer 1050ti auf Full HD sehr gut daddeln kann. Ich hatte vor einiger Zeit noch ne 380er mit 4GB und Far Cry 5 lief auf Full HD mit ALLEM auf max. Butterweich. Ist aber auch ein sehr gut optimiertes Spiel. Dennoch konnte ich mit der 380er alles gut bis sehr gut spielen. Hie und da musste der Regler halt mal etwas nach links wandern.

Finde es einfach etwas lächerlich wie einige ne voll 4k taugliche Grafikkarte fordern. Am besten noch für 300 Euronen ansonsten ist das PC Gaming am Ende^^... Sorry aber so einfach ist dies nicht. Ich würde aber auch etwas den Miesepeter schieben wenn ich mir für +-800 Euro ne Karte kaufe die auf 4k nicht mal die Frames erreicht die eine 150 - 200 Euro Karte auf Full HD bringt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: BorstiNumberOne
Gibt es eigentlich schon Infos wann erste Tests erscheinen?
 
Smartin schrieb:
Ich kann mich echt nur amüsieren, was hier gepoltert wird. Gerade die AMD Fans scheinen sehr vergesslich zu sein. Was hat seinerzeit die Vega56 (etwa Leistungsniveau der 1070) bzw die Vega64 bei der Einführung gekostet und wo lagen die Preise bis vor 1,5-2 Monaten? Waren es gute 900 Eur für Vega64? Aber das war in Ordnung?

Das ist nicht korrekt.
Damals war Mining Boom.
Der Markt hat die Preise getrieben und die Händler haben ganz fette Gewinne eingestrichen.
AMD hat davon nichts gesehen.

Die UVP der Vega64 lag bei 499 Euro, die UVP der Vega 56 bei 399 Euro.

Das war ein fairer Preis, wenn man sich die Chipfläche ansieht und weiß das teurer HBM Speicher verbaut ist.
 
  • Gefällt mir
Reaktionen: Thraker, lanoo, DarknessFalls und 8 andere
also gnaz ehrlich, fixiert qar ich auf die 2070 aber mie war klar das bei hohen preisen nichts wird, dann hätte ich ne 1070 ti geholt aber jetzt werde ich aus prinzip mir ne vega 64 holen, so ne bescheurte preispoltik kann nur von den ammis kommen
 
  • Gefällt mir
Reaktionen: nap und modena.ch
franeklevy schrieb:
Aber kommt es nur mir so vor, oder sehen die ganzen Texturen, die Modelle und auch die ganze Szenarie komplett steril und irgendwie nicht hochwertig in BF5-RT Demo aus? Das Feuer wirkt wie vor zehn Jahren. Man sieht kaum Partikeleffekte oder Shadereffekte. Mich hat das ganze eher abgeschreckt.

Fraglich auch, wieso zudem null Benchmarks oder einfache Balken (innerhalb der PPT) zum normalen Rasterizing gezeigt wurden (DX1x).

Alles sehr komisch ...

Ich gehe davon aus dass die die Settings runterschrauben mussten in Battlefield V damit das spiel nicht ruckelt, denn wie heute ans Licht gekommen ist ist RayTracing ein ULTRA performance fresser. Also Ray Tracing auf 2080 Ti in 1080p (ja ich spreche von Full HD aus dem jahre 1999) kriegt nur 30-40 fps hin

Würde dumm aussehen eine Demo laufen zu lassen die ruckelt, deswegen gehe ich davon aus die haben irgendwelchen mix aus low und medium settings genommen damit die demo flüssig läuft
 
Pille1002 schrieb:
Siehe Standbild der Battlefield V-Demo:

Die Reflexion des Feuerscheins ist eindrucksvoll aber sie würde auf der Innenseite des (im Bild linken) Autoscheinwerfers bei echtem Raytracing garnicht entstehen sondern bei dem Winkel von der anderen Seite des Lampenreflektors verdeckt werden.

BS den sich die Leute aus den Fingern saugen wegen der 1250€.
Der Panzer steht eine ganze ecke vor dem wagen bzw. der Lauf auch ein gutes Stück wo das Feuer vom Flammenwerfer rauskommt.

Es wird in alle richtungen geheult.
"mimimi Fehlerhafte RT"
"schaut schlechter aus"
"kaum schneller als eine Pascal"
"AMD wo bleibt die konkurenz zum Preisdumping"
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: lalelu
duskstalker schrieb:

steve von hardware unboxed ist der meinung, dass turing ohne raytracing zwischen 15 und 20% mehr leistung zu pascal bringt.

wenn man bedenkt, dass der "12"nm prozess eher ein 16nm prozess ist und sich abseits von RTX-Recheneinheiten (1/3 bis hälfte vom die) kaum was getan hat (~10-20% mehr cuda cores) bei gleichem bzw. sogar weniger takt, muss man sich überlegen, wo denn genau hier leistung herkommen soll?

Sehe ich genauso. Es reicht ja eigentlich schon die Recheneinheiten zu vergleichen, da es immer noch eine ähnliche Struktur ist. Es sieht für mich aus als wäre es ein "arglistiger" Versuch von nVidia die Gewinnmarge zu maximieren...
 
@ Pille1002
Die nackte Warheit ist:
Die neuen "Geforce RTX" sind garkeine "Raytracing Revolution" - da wird garnicht alles "realtime" gerendert sondern ....... aber sie würde auf der Innenseite des (im Bild linken) Autoscheinwerfers bei echtem Raytracing garnicht entstehen sondern bei dem Winkel von der anderen Seite des Lampenreflektors verdeckt werden.
Nun Du und ich waren beide beim rendern bzw. programmieren nicht dabei und können hier nicht 100% sicher sein, aber Deine Argumentation ist schon schlicht falsch.
Es wurde ja mehrfach gesagt, dass man mit RTX nicht nur direkte Spiegelungen bekommt, sondern auch Spiegelungen von einer Spiegelung - und somit ist an der Stelle - je nachdem was da noch so rum steht, selbstverständlich eine Spiegelung an einer direkt nicht zu erreichenden Stelle möglich!
Das war ja das Hauptthema der Zimmer-Demo "Metro".
Eigentlich ist es sogar der Beweis das die BFV Demo mit RTX gemacht wurde. Vorsätzlicher Betrug aus ganz anderen Gründen mal ausgenommen.
 
  • Gefällt mir
Reaktionen: Oneplusfan
Die Preise sind doch völlig im Rahmen und werden sich dann schon einpendeln. Die UVP der 2070 ist 50$ höher als die der 1070...................oh wie schlimm.
So ist das nun mal bei technischen Gütern die mit der Zeit immer besser werden, viel mehr leisten können und mehr Funktionen haben. Bei den Handys und Autos das gleiche Spiel, aber der Preisvergleich zu den Vorgängermodellen macht eben nur begrenzt Sinn und so eine leichte Preiserhöhung ist ja wohl völlig im Rahmen und nachvollziehbar.
 
Hades85 schrieb:
Wurde eigentlich irgendwas zu NV-Link berichtet. Ist das überhaupt Praxis relevant beim Gaming, also wertvoller als sli.?

Auf der Präsentation wurde nichts erwähnt, aber laut Anandtech bzw. Nvidias Website unterstützen wohl die 2080 und 2080 Ti SLI (aber nicht die 2070!) mit der für Consumer neuen NVLink-Verbindung.
Das aus dem Profi-Bereich stammende NVLink ist wesentlich schneller als die alten SLI-Brücken (50GB/s bidirektional) und es könnte somit theoretisch besser funktionieren.

Andererseits scheint der SLI-Zug weitgehend abgefahren zu sein und es ist die Frage, wie viele Spieleentwickler das noch explizit unterstützen werden (was ja bei DX12 nötig ist), bzw. auch Nvidia selbst in ihren Treibern. Zumal, wenn die einzigen Karten, die das neue SLI unterstützen, bei 850€ das Stück anfangen.
 
gerade meine 900p 280gb für 180 öcken auf kleinanzeigen bucht reingestellt: tut weh!
Aber 272 tmu's sind es wert. jensen du bitch :D
 
Zurück
Oben