News Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti

Computerbase, wann kommen die ersten Test?
 
  • Gefällt mir
Reaktionen: RealGsus, Joker* und Tokat
die grakas werden vllt gut, daran zweifel ich nicht. die preis jedoch sind abnormal hoch und nicht mehr zu rechtfertigen. aber nvidia kann nun machen was intel auch all die jahre machen konnte und mondpreise raushauen. haben ja keine richtige konkurrenz -.-

vor 2-3 jahren hat eine xx80er version grade mal 500€ gekostet und nun ist sie bei 900€ im schnitt. lächerlich. immerhin habe ich damals meine 980ti günstig bekommen (400€). die muss wohl noch bissl reichen in anbetracht der abnormalen preise
 
Bin auf benchmarks gespannt. Vor allem auf vr benchmarks. Das ist der Punkt wo ich mir eine Anschaffung überlegen würde. Im Moment würde ich aber bei meiner 1080 bleiben. Na mal abwarten. Zu release wird es nix, das ist sicher. Evtl vom. Weihnachtsgeld, wenn die Leistung passt.
Also bitte CB: ein vr benchmark dazu :)
 
  • Gefällt mir
Reaktionen: -GL4x-
Ojektiv (wenn es das überhaupt gibt) geht es doch immer um den Grenznutzen, also das Erreichen von bestimmten Voraussetzungen. Wenn nur das Topmodel die Leistung bietet, die ich haben will, dann muss man eben in das oberste Regal greifen. Dass es hier doppelt so teuer für 10% mehr Leistung ist, spielt dann keine Rolle (Wert erfunden, soll nur ein Beispiel sein).

Tatsächlich in der realen Welt ist das aber alles unwichtig. Kaufentscheidungen werden zu 70-80% unterbewusst - aus dem Bauch heraus - getroffen. Erst später versucht man seine Entscheidung rational zu begründen. Daher kommen dann auch die lustigen Diskussionen in Foren (Anwesende natürlich ausgenommen). Dazu kommt: Jeder gute Verkäufer bietet seinem Kunden drei Alternativen, bei dem die erste und teuerste Alternative den Maßstab für den Preis festsetzt. Mit dem Mondpreis von über 1000 EUR setzt NVidia darum nur ein Datum für die später folgende Mittelklasse. Hier wird dann auch das Geld verdient. Wirkliche Motivation für einen Kauf haben immer mit Emotionen zu tun.

Die aktuellen Vorbesteller sind doch eher die "Influencer" (Gesundheit!), die sich beim Unboxing filmen. Davon Kann NV noch nicht leben. Die Cashcows sind die Preis-Leistungs-Karten und wenn man dafür 50 EUR mehr bekommt, weil die TI ja über 1000 EUR lag, dann war das Marketing/Pricing erfolgreich.
 
  • Gefällt mir
Reaktionen: FireRP, psYcho-edgE, McTheRipper und eine weitere Person
ZeXes schrieb:
Danach werden nur noch Konsolengpus entwickelt.
Oder es gelingt ein Comeback ala Ryzen. Wenn Navi jedoch floppt, dann war's das aber im High End-Bereich für PC-Zocker, würde ich vermuten.
 
Zuletzt bearbeitet:
Jedenfalls hat es NVIDIA ja innerhalb von 4 Generationen geschafft, mit dem Preisbrecher Titan alles nach oben zu schrauben. Nun sind wir bei Titan Preisen für die x80Ti angelangt und die Titan wird einfach wieder als günstige Compute Card angeboten.

Hoffe NVIDIA geht da baden. Das die 999$ für günstigere Customs gelten, lässt ja wenigsten hoffen, dass nochmal ein Preisrutsch kommt.
 
Warum baut sich jetzt ein richtiger Shit storm auf ? Nv kann machen was sie will.. wir müssen aber das lange mit " Stumm " akzeptieren. Pc Spielen wird bald teurer wie Golf spielen wenns so weiter geht.
 
Ich kann mich echt nur amüsieren, was hier gepoltert wird. Gerade die AMD Fans scheinen sehr vergesslich zu sein. Was hat seinerzeit die Vega56 (etwa Leistungsniveau der 1070) bzw die Vega64 bei der Einführung gekostet und wo lagen die Preise bis vor 1,5-2 Monaten? Waren es gute 900 Eur für Vega64? Aber das war in Ordnung?

Die Preisangaben hier sagen doch erstmal gar nichts aus. Keiner kennt die Leistungsdaten der Karten, die die Preise wieder relativ schnell relativieren können. Es ist doch mal ziemlich logisch, dass die neuen Karten über den Preisen der alten liegen werden oder nicht? Die 1080 kostet 500 Eur und soll preislich fallen. Habt ihr erwartet, dass es die 2070 für 350 Eur gibt, wenn sie leistungsmäßig auf oder vielleicht sogar knapp über Niveau der 1080 läge? Dann wäre das ziemlich naiv.
Oder seid ihr "Miner" , die jetzt jammern, weil ihre Rendite geringer ausfällt, als geplant? Ich finde es eher sogar gut, dass die Karten gerade am Anfang richtig Schotter kosten. Sollen die Miner ruhig ordentlich blechen. Das ist mir viel lieber, als dass sie den Markt auf Basis von "Schnäppchenpreisen" leerkaufen.
Und bevor ihr euch aufregt, wartet einfach erstmal ab, was die Karten am Markt nach ein paar Wochen und nicht in der UVP kosten und welche Leistung man dafür bekommt. Erst wenn man diese kennt, kann man sagen ob die Karten zu teuer sind. Nur weil ihr euch das nicht leisten könnt (oder wollt), heißt es nicht, dass die Leistung den Preis nicht wert ist. Ich kann mir auch keinen Porsche vor die Tür stellen, pflaume Porsche aber auch nicht an, dass sie ihren 911er mal gefälligst für 20.000 Eur verkaufen sollen.
 
RYZ3N schrieb:
Ich würde niemals eine Grafikkarte für 1.200,- Euro erwerben. Warum? Weil eine 2080 Ti (ausgehend von einer 1080 Ti) vermeintlich keine signifikanten Vorteile bietet.

Maximale Details@UHD/2160p@144Hz@HDR werden auch mit einer 2080 Ti nicht machbar sein.

Maximale Details auf maximaler Auflösung mit FPS die der nativen Bildwiederholfrequenz entsprechen werden NIE bei den aktuellen AAA Titeln möglich sein.
Warum? Nicht weil die Grafikkarten hinterherhinken sondern weil die Entwickler immer >120% von der derzeit möglichen Grafikleistung ausschöpfen in Hinblick auf die nächsten Grafikkartengenerationen.

Rechtfertigen... Kommt ja oft genug der Vorwurf die TI Käufer würden AMD kaputt machen...

Eine 1080 Ti / 2080 Ti ist purer Luxus und Preis-Leistungstechnisch ist die High-End Karte immer am schlechtesten. Wirklich brauchen tut man das natürlich als Gamer nicht... aber wenn man das nötige Kleingeld hat sind alle 2 Jahre 1200€ (-400€ für die alte => 400€/Jahr) für eine neue Grafikkarte auszugeben wohl eh noch ein billiges Hobby :D
Andere gehen jede Woche ins Kino, kaufen jedes Jahr 800€ Smartphones, Pullover für 120€, oder jedes Jahr ein neues Auto.

AMD hat einfach nichts besseres als die Vega 64 zu bieten. Für ca. 90% der Gamer wird das auch reichen. Aber die 1080+ Käufer sind sicher nicht am "Untergang" AMD's Schuld.

Der Preis für die 2080 Ti ist natürlich happig... meine Titan X war damals billiger... Mal die Benchmarks abwarten ob was die Karte ohne den Raytracing kann.
 
cansys schrieb:
Ich persönlich fand die Show eine Farce. Zwei Stunden reinstes Marketing, was offensichtlich wirkte, weshalb die 2070 FE schon ausverk

Die waren von Anfang an auf der HP als "ausverkauft" bezeichnet.
 
RYZ3N schrieb:
Maximale Details@UHD/2160p@144Hz@HDR werden auch mit einer 2080 Ti nicht machbar sein.
Sven
Maximal muss nicht sein. Aber hat einer mal die Frage beantwortet, wie mit HDMI 2.0b die 120Hz@HDR
übertragen werden ? Schade, das nicht 2.1 für ne Ti vorgesehen sind.
https://www.4kfilme.de/nvidia-bfgd-4k-qled-monitor-120hz-hdr/
Was passiert bei 4k-HDR-Gaming ? 60Hz, dann künstlich im Gerät höher getaktet?
ASUS PG27UQ, LED-Monitor schwarz, NVIDIA G-Sync, HDMI, DisplayPort
Wie waren da die Erfahrungen bei CB ?
 
Zuletzt bearbeitet:
Th3ri0n schrieb:
Und natürlich sind die Preise gesalzen - aber! - Pascal bietet aktuell immer noch eine super Rohleistung die jetzt noch erschwinglicher wird für Spieler. Beachtet bitte das meistens noch in 1920x1080 gespielt wird mit tendenz zu WQHD hin, da ist eine 1070 oder 1080 gut für geeignet.

najaaa.. leider ist das nicht der fall. meine 980ti ist vom werk aus overclocked und etwas schneller als eine 1070er. dennoch hab ich in vielen spielen drops unter 60fps in 1080p !!

bestes beispiel ist monster hunter world. maximiert läuft es in nur 1080p mit grade mal 40-60fps stark schwankend. und es ruckelt natürlich unerträglich wegen variabler framerate..

oder project cars 2. in extremsituationen limitiert die gpu unter 60fps und dropt sogar auf 50 mit 100% gpu load.. usw.. von wegen eine 1070er würde reichen. selbst ne 1080er reicht nicht mehr für 1080p60 wenn man keine drops haben will
 
  • Gefällt mir
Reaktionen: McTheRipper
Ich befürchte zwar, dass es immer noch zu viele Käufer geben wird, aber meine Hoffnung ist, dass die typischen nVidia-Blind-Käufer endlich wach gerüttelt werden. Denn sonst wird es leider so weiter gehen... ich finde es einfach nur noch frech und lächerlich, wie die Entwicklung der GraKas vorangeht. Preis/Leistung wird immer schlechter.
 
Ab wann sollen die 20XXer Karten denn ausgeliefert werden?
Habe ich dass einfach überlesen oder steht dass tatsächlich nicht im Artikel drin?

Ansonsten ist die Diskusion zu den Preisen ja schon reichlich getan worden, daher mal zu etwas anderem:
wurden gestern denn noch Spiele mit den neuen Features alias Ray-Tracing und DLSS gezeigt?
Meine Erfahrung für Ray-Tracing bezieht sich hauptsächlich auf gerenderte Filme/ Frames und selbst dort habe ich einige Ergebnisse gesehen, die den Rechenaufwand des Ray-Tracing nicht wirklich wert sind. Von daher wäre es jetzt interessant zu sehen, ob Ray-Tracing in Spielen tatsächlich positive Effekte hat.

Bei dem DLSS bin ich nach den Artikeln hier auf Computerbase quasi genau so schlau wie vorher: was genau macht das Ganze denn? Ich meine ja, irgendwas mit Deep-Learning aber was genau wird denn "gelernt" und wie groß können die Vorteile davon ausfallen?
 
Lars_SHG schrieb:
...wir werden sehen, aber da es jetzt schon 21 neue Spiele gibt die es unterstützen werden, wird es möglicherweise eher das nächste "must have".

Ob diese z.T. weich gewaschenen, voraussichtlich mit Mikrotransaktionen ausgestatteten AAA-Spieletitel noch in gesunder Relation zum GPU-Aufpreis stehen und der Trend sich fortsetzt und nach den 21 angekuendigten Spielchen dann erst einmal Schicht im Schacht ist?

Erstaunt war ich schon dort MechWarrior 5 aber bspw. kein Star Citizen aufgelistet zu finden (aber da koennte ich - wie viele andere auch - wohl auch ohne Raytracing Effekte gut mit leben und glaube kam, dass diese den Spielspass massgeblich verbessern duerften), aber bei diesen Spielen weiss man ja auch nicht vorher, ob deren Kauf sich lohnt, es sei den man sammelt gewisse Serien bzw. ist Stammkaeufer bei diesen (bspw. FIFA, Battlefield, oder Tomb Raider).

"Nice-to-have" irgendwann (abseits von Early Adoptern und Hobby-Enthusiasten in ca. 2-3 GPU-Generationen) vielleicht, aber als Notwendigkeit/"Must-Have"-Feature sehe ich das nicht an, sondern eher als clevere Marketingstrategie nVidias zur Gewinnmaximierung, die in den kommenden Jahren kaum bis gar keinen Mehrwert in PC-Spielen bieten duerfte.

Aber ja, warten wir ab wie sich das Ganze entwickeln wird ...
 
Mein Eindruck der aktuellen Generation ist folgender:
Letztlich ist Turing ein aus der Not heraus geborener Chip.
2 Dinge sind klar:
1. Raytracing ist eine tolle Methode. Letztlich simuliert es die Welt, wie sie tatsächlich ist. Könnte man ein Spiel komplett mit Raytracing in Echtzeit rendern, wäre die Entwicklung der Spielewelt tatsächlich deutlich einfacher, weil man quasi nur noch physikalische Konstanten und Gesetze sukzessive einprogrammieren muss, die - nach heutigem Kenntnisstand - immer gleich bleiben.
2. Die Verkleinerung der Fertigungstechniken verlangsamt sich immer weiter und daher stehen nicht genügend Recheneinheiten für ein vernünftiges Raytracing zur Verfügung.

Daher hat Turing diesen bizarren Hybrid-Ansatz: Rastering-, Tensor- und noch Raytracing-Einheiten.
Dabei stellen sich viele Fragen:
- Wer trifft die Entscheidungen, an welcher Stelle Raytracing überhaupt zum Einsatz kommt? Muss das der Programmierer vorab entscheiden oder hat der Chip eine Heuristik?
- Wie offen ist das System? Ist es für einen Konkurrenten (AMD) überhaupt möglich / sinnvoll, diesen recht speziellen Hybrid-Ansatz zu verfolgen?
- Kann "alte" Software mit vertretbarem Aufwand erweitert werden, um die Zusatzfeatures zu unterstützen?

Eine Sache ist nach der Präsentation jedenfalls klar: in Zukunft werden Balken kaum mehr ausreichen, um Grafikkarten zu vergleichen.
Letztlich ist das eine gute Sache.
Klar, es gibt Spiele, die brauchen ihre 60 oder auch 120 Bilder pro Sekunde.
Aber letztlich ist es doch entscheidend, WELCHE Bilder wir sehen.
Also: die Bildqualität wird immer wichtiger, während die reine Anzahl der Frames nur noch einen Minimalstandard erfüllen muss.

Zu den Preisen wurde ja schon genügend gesagt. Aufgrund der neu eingeführten Features ist es wohl sowieso für die breite Masse heute nicht sehr sinnvoll, sich eine RTX 20XX zu holen. Müssen wir in einem Jahr mal schauen, wie viele Spiele das Potential tatsächlich nutzen können...
 
Die Preise sind meiner Meinung nach absurd hoch, da muss man einfach auf AMD hoffen. Aktuell bin ich nicht in Zugzwang, wird dann vll in ein paar Monaten eine 1080 Ti werden.
 
  • Gefällt mir
Reaktionen: FireRP
Die Preise sind echt grenzwertig, aber wenn man die Chipgrösse anschaut und das da ca. 10 Jahre Entwicklung drinstecken ist das zumindest zum Teil nachvollziehbar. Die Leute kaufen ja auch Smartphones für 1200 Euro was ich nie machen würde.
Muss ja nicht jeder eine Ti kaufen, fährt ja auch nicht jeder einen AMG Mercedes.... Die Mehrleistung wird sicher nicht über ca. 20 Prozent liegen sonst hätten wir schon Benchmarks gesehen. In Zukunft werden die Top Karten nun immer über 1000 Euro liegen. Wers billiger haben will nimmt ne Konsole..
 
Zurück
Oben