News Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti

duskstalker schrieb:
vega ist aber ein "high end big chip"

Naja als Big Chip kann man Vega nun aber auch nicht bezeichnen.. 484mm² sind schon relativ groß, aber auch noch ein gutes stück kleiner als die großen Chips bei Nvidia. Zum Vergleich, der GT200 (GTX280 / GTX 260) war 576mm² groß, GF100 526mm² (GTX470 / 480), GK110 533-561mm² (Titan, GTX 780Ti etc.), GM200 601mm² (GTX Titan, 980Ti), der Turing Chip auf der 2080Zi ist 754mm² groß, Volta kommt sogar auf 815mm²

Man sieht, so riesig ist Vega nun auch nicht.

Aber klar, die marge ist bei nvidia pascal deutlich größer. Die Karten sind schon ziemlich gut. Und unter Marktwirtschaftlichen Gesichtspunkten war Pascal unglaublich gut. Eine GTX 1070 wird in der produktion nicht viel teurer sein, als eine RX580. Die 1080 ist wegen des Speichers etwas teurer, aber noch immer sehr günstig.

Am Ende interessiert mich als Kunde aber nur das Ergebnis. Wenn Karte A in Spiel X 100 FPS liefert, Karte B aber nur 88FPS und beide das gleiche kosten, dann ist mir ziemlich egal, ob der chip auf Karte B ein supe duper Mega Monster Chip mit 600mm² ist und der Auf Karte A nur ein 295mm² Performance Chip.

Am Ende zählt nur das Ergebnis. Und da ist Pascal halt super effizient. Kleiner chip, nur 256 Bit Interface, GDDR5 X. Trotzdem spricht die leistung (und auch leistungsaufnahme) für die Entscheidung.
 
  • Gefällt mir
Reaktionen: milliardo
duskstalker schrieb:
das liegt daran, dass vega ca doppelt so teuer in der herstellung ist wie eine 1080. eine 1080 ist mittelklasse hardware, da mittelklasse chip. die performance ist gut - ändert aber nix dran, dass es kein "high end big chip" ist.

vega ist aber ein "high end big chip" - mit hbm2. würde nvidia vega verkaufen, würde vega preislich zwischen titan xp und titan v liegen.

Was bringt es wenn der 6 Liter Ferrari Motor trotzdem nur 120 km/h schnell ist?
Warum Vega 64 trotz des großen DIE und HBM (vergleichsweise) enttäuschend - langsam ist konnte mir noch keiner erklären. AMD war bei gleicher TFlop Leistung immer etwas langsamer... aber bei Vega wars extrem.
Die Käufer vergleichen wenn Leistung und nicht DIE Größe...

Btw sind die Miner auch Schuld an den hohen Nvidia Preisen. Wär die Vega64 billiger hätten auch viel weniger eine 1080er gekauft.
Das hier manche schreiben AMD wird nach Navi die Gaming-GPU Sparte einstellen.... Für AMD ist Vega trotzdem ein riesen Erfolg. Immerhin wurden mehr Karten verkauft als AMD liefern konnte - was ja in den hohen Preisen mündete. Ob die Karten nun Miner oder Gamer kaufen ist AMD doch egal...

Mal die Benchmarks der 2080 Ti abwarten... ich glaube die große Enttäuschung wird noch kommen wenn man Benchmarks ohne Raytracing macht.

Edit: Rein von den TFlops sinds "nur" 20% mehr...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: onkas
MagicTS schrieb:
Die Karten sind nicht mal auf dem Markt, aber viele jammern schon wegen der Preise. Möchte ja nicht wissen wie viele von denen aber ein überteuertes Smartphone besitzen.

Ich jammer wegen der Preise bei Grakas, und habe ein 150€ Handy (Xiaomi Redmi 5 Plus).

Ich behaupte auch mal, das die meisten Gamer dieser Welt sich keine Grakas über 600€ Leisten können. Wenn das mit den Graka-Preisen so weiter geht, dann ist PC-Gaming nur noch für Leute bezahlbar die mind. ein 6 Stelliges Netto-Jahres Gehalt haben.
Denn außer Grakas wird ja auch alles andere teurer was man zum leben benötigt (Mieten, Strom etc.). Und diese Entwicklung der Graka-Preise finde ich deswegen sehr bedenklich.
 
  • Gefällt mir
Reaktionen: lanoo und onkas
Banned schrieb:
Aber die 2080 wird in Benchmarks ganz sicher vor der 1080Ti liegen (wenn auch nur knapp)
wie kommst du darauf? Anhand der reinen technischen Daten würde ich davon ausgehen, dass maximal ein Gleichstand, wahrscheinlich aber eher ein Vorteil der 1080Ti gegenüber der 2080 vorliegt.
 
lubi7 schrieb:
Nvidia macht sich auf preislich mit Apple zu konkurieren. Kein Wunder wenn die Läute selbst die Preise für iPhoneX bereitwaren zu zahlen....vor allem wenn keine Konkurrenz vorhanden ist
Ich hasse Apple und mag nVidia, aber ganz ehrlich: ein Iphone X bietet mir für diesen Preis deutlich mehr als eine popelige Grafikkarte. Da werde ich meine 1080 Ti halt noch eine Weile länger behalten. Spiele sowieso kaum noch und wenn dann fast nur CS:GO, da ist die 1080 Ti schon massiv oversized. :rolleyes:
 
Ohje, viele haben es einfach nicht kapiert:
An alle "Die Karte ist mir zu teuer, da kaufe ich mir lieber eine GTX1070" schreiber:
Glaubt ihr wirklich das sich damit etwas ändern wird? Ihr müsst von der KONKURRENZ kaufen, um Nvidia für ihre Preispolitik abzustrafen, nicht bei ihnen selber :freak:

Auch den "Smartphone" Vergleich (Apple) finde ich ziemlich banane:
ein Smartphone besteht aus SoC (CPU+GPU+viel mehr), jeder menge Sensoren, Kamera, Bildschirm. Man kauft ein Betriebssystem dazu, eine ganze Softwareumgebung. Das ganze will entwickelt und am Ende in ein Endprodukt gepackt werden. Da ist klar das die Marge sehr hoch sein muss um das alles zu Finanzieren - und Geld will man schließlich auch verdienen.
(Ich bin kein Apple-Freund, aber nur um das mal zu verdeutlichen)

Eine Grafikkarte besteht im Grunde nur aus einem Hauptchip, der in der Produktion maximal 50€ kosten darf und mit jeder Menge Centartikel auf eine Platine gelötet wird. Dazu muss noch ein Treiber - welcher nicht eigenständig lauffähig ist - programmiert werden und fertig ist das Produkt.
(Achtung - sehr überspitzt gesagt).

Gegen Nvidia ist Apple mmn fast ein Samariter.
Der damalige Riesenchip Fermi (GF100) mit 529mm² Fläche hat 2010 knapp 500$ gekostet - Herstellungstechnisch vermutlich identisch zum jetzigen Turing Chip.
Inflation lasse ich nicht gelten: lt. diesem Rechner müsste man für 500€ aus dem Jahre 2010 heute 550€ Zahlen.
 
Wartet mal ab bis Nvidia Ihre 7nm 2180Ti mit (vll.!) HBM3 Speicher Präsentieren
:D
Da werdet Ihr gucken xD Das wird Lustig sag Ich jetzt schon.
Wem 1299€ Zuviel sind, sollte Lieber heute eine RX580 8GB für 249€ Kaufen zur "Überbrückung"
 
  • Gefällt mir
Reaktionen: McTheRipper, GenjuroKibagami, Terminator-800 und 2 andere
Hmm vielleicht habe ich es überlesen, aber warum genau soll es sich jetzt dabei um Karten für den Spielermarkt handeln? Raytracing? Eher zweifelhaft, noch geringer Support und auch 6x schneller als 1080Ti bei RT heißt unterm Strich: immer noch 95% zu langsam für komplettes RT in 1440p. Ohne RT bleibt leistungstechnisch ... Rückschritt?
 
Himbernuub schrieb:
2080Ti Sli.....Wer ist mit dabei?;):lol:

Die Santander? :D

Ich habe 2016 660€ für die 1080 hingelegt, damals einerseits mit einem Grinsen, andererseits mit schlechtem Gewissen. Eigentlich wollte ich irgendwann mal auf WQHD 144Hz aufrüsten, mit einer neuen Graka einhergehend. Aber fast 1300€ für die 2080ti... da vergeht mir dann doch das Grinsen.

Aber mal sehen, wie der Markt es regeln wird.
 
Dark Matter schrieb:
Ich jammer wegen der Preise bei Grakas, und habe ein 150€ Handy (Xiaomi Redmi 5 Plus).

Ich behaupte auch mal, das die meisten Gamer dieser Welt sich keine Grakas über 600€ Leisten können. Wenn das mit den Graka-Preisen so weiter geht, dann ist PC-Gaming nur noch für Leute bezahlbar die mind. ein 6 Stelliges Netto-Jahres Gehalt haben.
Denn außer Grakas wird ja auch alles andere teurer was man zum leben benötigt (Mieten, Strom etc.). Und diese Entwicklung der Graka-Preise finde ich deswegen sehr bedenklich.
So ein Bullshit. Wie beim Smartphone gibt's auch bei Grafikkarten untere Klassen. Eine 250€ RX580 8GB reicht den aller meisten Leute locker aus! 2k und 4k sind eine Ausnahme und in Full HD reicht ne 580 dicke. Habe auch gehört, dass man nicht stirbt, wenn man Mal einen Regler von Ultra auf Hoch schiebt ;)

Für jeden ist das preislich etwas geboten. Auch bei Nvidia werden weitere, günstigere Grafikkarten folgen.
 
  • Gefällt mir
Reaktionen: VYPA
GerryB schrieb:
Maximal muss nicht sein. Aber hat einer mal die Frage beantwortet, wie mit HDMI 2.0b die 120Hz@HDR
übertragen werden ? Schade, das nicht 2.1 für ne Ti vorgesehen sind.
https://www.4kfilme.de/nvidia-bfgd-4k-qled-monitor-120hz-hdr/
Was passiert bei 4k-HDR-Gaming ? 60Hz, dann künstlich im Gerät höher getaktet?
ASUS PG27UQ, LED-Monitor schwarz, NVIDIA G-Sync, HDMI, DisplayPort
Wie waren da die Erfahrungen bei CB ?

Also über HDMI 2.0 geht das nicht. Über DisplayPort 1.4 bei dem PG27UQ auch nur mit Farbunterabtastung, also mit Einschränkung: https://www.computerbase.de/2018-07/asus-pg27uq-g-sync-hdr-test/3/
 
Eins muss man Nvidia lassen, sie wissen wie man den PC-Gaming-Markt trocken legt.
 
  • Gefällt mir
Reaktionen: Relict, McTheRipper, Dark Matter und eine weitere Person
Rikimaru schrieb:
eyyy die founders edition hat ja ein mega sexy design. besser als alle partnerkarten :D

aber nun zum wesentlichen. raytracing. das wurde in der demo völlig übertrieben dargestellt mit raytracing on/off, um die leute zu blenden. schaut euch mal das gameplay von doom eternal an und gibt mal auf die reflexionen acht. vor allem wo der mit der doppelläufigen schrotflinte anfängt zu laufen auf die schrotflinte schauen. das sieht auch ohne raytracing mega gut aus, nicht wie bei der demo - es ohne einfach scheiße aussah. da sind auch ohne raytracing schöne effekte drin. also alles blöff. auch finde ich neben den lichtreflexionen und -effekten andere effekte genauso wichtig. zb bei doom am anfang den bokeh effekt (hintergrund verschwommen), wo er auf seine ausrüstung schaut. oder ein negativbeispiel: bei der battlefield 5 raytracing demo sah für mich das feuer des flammenwerfers so scheiße aus, dass es die realitätsnahe darstellung der reflexionen durch raytracing einfach zerstört hat.

das dacht ich mir wärend der präsentation auch die ganze zeit, dass die da so tun als wenn zuvor alles scheiße ausgesehen hat und es quasi keine spiegelungen etc gab
 
Und wenn es 10.000 TOPS sind, die Preise zahle ich nie und nimmer. Da höre ich eher mit dem Zocken auf.
 
  • Gefällt mir
Reaktionen: lanoo, McTheRipper, cookie_dent und eine weitere Person
Zurück
Oben