News Nvidia GeForce RTX 2080: Überblick zu Partnerkarten, Preisen und Verfügbarkeit

Die Preise sind doch wie bei der Einführung der GTX 1080, die Palit GTX 1080 Gamerock Premium lag da bei 899,- € und die ersten wassergekühlten Modell locker über 1000,- €
Der einzige Unterschied, statt eine Titan X(P) gibt es jetzt direkt eine RTX 2080 TI am oberen Ende, die dann aber auch direkt im Custom-Design.
Wie schon einige geschrieben haben, der Preis jetzt mag hoch erscheinen, aber spätestens wenn die GTX 1080 TI Bestände aufgebraucht sind, wird er sicher um einiges nach unten korrigiert werden. Im Herbst 2016 gab es bereits die ersten GTX 1080 für unter 600,- €, d.h. spätestens zum Jahreswechsel, sollten sich die Preise in vernünftige Regionen bewegen.
Davon ab, ein Wechsel von einer GTX 1080(TI) ist eigentlich nur für die Nutzung mit UHD, "Ich möchte immer alles auf max-ultra-super-toll stehen haben"-Leute oder absolute FPS-Junkies sinnvoll.
 
Grestorn schrieb:
Und das sieht man ja schon deutlich.

Naja so deutlich sieht man es auch nicht. Kommt drauf an, was man nun betrachtet. Turing ist schon eine gute Steigerung wenn man Mal betrachtet, dass es die selbe Fertigung wie bei Pascal ist. Wenn man die RT und Tensor Cores abzieht, ist die Chipgröße auch nicht so riesig. Man sieht also, dass man alleine auf Architekturebene noch einiges reißen kann.
 
Der Aufwand ist beträchtlich. Ohne Verkleinerung der Strukturbreite, muss man die mehr Transistoren eben mit mehr Fläche erkaufen. Und so viel Potential steckt auch nicht mehr in einer Architekturverbesserung, was man nicht schon früher als Bottleneck beheben hätte können.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Heisst das,das vor "2080" keine neuen Karten mehr zu erwarten sind?
 
Kurze Frage: könnte die GAINWARD GeForce RTX 2080 Phoenix Golden Sample "günstig" (ca. 700€ ) bekommen.
Wäre auch bereits abholbereit.

Gibts zu der Karte irgendwelche tests bzgl kühler bzw kann man dazu schon irgendwas sagen? oder lieber auf eine andere custom zurückgreifen?


lese mir nacher gleich die 4 seiten durch , also bitte nicht schimpfen falls das schon irgendwo gepostet wurde. bin grad etwas in Eile.
 
Rhino One schrieb:
Also ich warte bis ich die Spiele nur noch auf Low spielen kann das wird wohl so in 3 Jahren oder so sein. Bei den Preisen bin ich auch ehrlich zu geizig für soviel Kohle rauszuhauen. Raytrcing steckt eh noch in den Kinderschuhe da kann man getrost 2 Gen Abwarten ( ich zumindest). Für das gebotene einfach zu teuer für die 2080ti 2400 Mark was haben die denn geraucht dafür habe ich früher einen super super high end PC bekommen :freak:.

Jepp, ganz Deiner Meinung.
Absolut krank die Preise der RTX-Karten.:kotz:
Aber wenn da so Superduper-Features drin sind (die übrigens noch keiner nutzen kann)
und Konkurrenz seitens AMD gibt ja auch (noch) nicht,
dann kann man ja mal preistechnisch zulangen bei Nvidia.
Aber das "Schöne" ist: Nvidia ist immer für ausufernde Diskussionen gut:
einerseits (aktuell) exorbitant überhöhte Preise hier, andererseits Beschiss (GTX 970-Speicher) dort etc.
Hier wird man unterhalten :D
Und solange manche Freaks nicht wissen, was man mit zuviel Kohle anstellt,
wird weiterhin überteuerte Ware gekauft :freak:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Rhino One und Mcr-King
Ich finde es nur cool OC sperre ala Intel und jeder freut sich mehr Geld für weniger und jeder freut sich. Auch hat dass nix mit Hobby zutun sorry wenn ich nur Zocke ist die Xbox/PS4 den PC weit überlegen was P/L angeht. Auch hat der PC fast keine guten exklusiv mehr dank er Konsolen Überlegenheit.

DXR und DSR hin oder her zwar nett aber dass wars auch.


Was mir fehlt sind erstens kleine Karten zweitens vernünftige OC karten mag keine auto Tools käse. 👎
 
Es gibt keine OC Sperre. Nur unterschiedliche Default-Boost Einstellungen.
 
doch gibt's da verschiedene Güte von Chips und keiner deklariert es klasse für den Kunden, aber der Kauft ja alles. 👎
 
Wen die Games ordentlich optimiert wären und nicht dahin gefrickelte Konsolen-Ports dann bräuchte man solche Grafikkarten gar nicht.
Aber den Nvidea Support gibt es nicht für umsonst, man muss ja seine überteurten GPUs unter das Volk bringen.
 
Mcr-King schrieb:
Ich finde es nur cool OC sperre ala Intel und jeder freut sich mehr Geld für weniger und jeder freut sich. Auch hat dass nix mit Hobby zutun sorry wenn ich nur Zocke ist die Xbox/PS4 den PC weit überlegen was P/L angeht. Auch hat der PC fast keine guten exklusiv mehr dank er Konsolen Überlegenheit.

DXR und DSR hin oder her zwar nett aber dass wars auch.


Was mir fehlt sind erstens kleine Karten zweitens vernünftige OC karten mag keine auto Tools käse. 👎


Hier werden Äpfel mit Birnen verglichen. Eine Konsole reicht keinem Highend PC das Wasser in dem eine GTX1080ti//RTX2080/2080ti verbaut ist. 30 FPS sind "gewollter" Standard auf Konsolen, 60 FPS eher selten und das ist nicht vergleichbar mit gaming am Highend PC. Hab früher eine ähnliche Haltung zum Thema gehabt und hab auch ne PS4 hier stehen. Preislich gebe ich dir Recht, da steht ne Xbox oder ne PS gut da aber bei der Leistung/Qualität - never ever. Damit meine vor allem ich das allgemeine Feeling beim spielen.
Klar es kostet das ganze dann ungemein Kohle aber der Unterschied ist sichtbar und noch wichtiger - spürbar.

Meine Meinung.
 
Nee eben nicht sorry die Preise sind jenseits von gut und Böse denn Freesync Monitor und Xbox one X ist viel günstiger als Geforce mit GSync und vor allem ohne Lüfter im Monitor.

Auch kommen für Konsolen mehr Games und auch davon kommen die meisten Ports deswegen PC Gaming so gut wie tot.
 
???

G-Sync = Lüfter im Monitor ? also immer ??

was zum ?

geht absolut nicht.

Tot ist PC zocken auf keinen Fall.
Aber so langsam gibt es da dann mehr Gruppen.

Also der Enthusiast wird sicher bald immer weiter abgrenzen können und in 5 Jahren erkennt man ihn direkt an seiner Graka wenn das mit den Preisen so weiter geht.

Ich bin da ein Casual-Gamer mit weniger Auflösung und gehe max. alle 5 Jahre auf Gebrauchtware auf die Suche weil ich zwar gerne zocke, aber meinen finanziellen Rahmen abgesteckt habe und einfach keine Lust habe das doppelte oder dreifache an Kohle zu verballern.
 
Mcr-King schrieb:
doch gibt's da verschiedene Güte von Chips und keiner deklariert es klasse für den Kunden, aber der Kauft ja alles. 👎

Wenn Du die Artikel auch gelesen hättest, dann wüsstest Du, dass es nur unterschiedliche Chip-IDs gibt, deren einziger Unterschied im Default-Boost liegt.

Manuell lassen sich alle Chips gleich weit übertakten - von der Einstellung her. Es gibt eben KEINE OC Sperre, wie bei den nicht-K Intel CPUs. Deine Behauptung war schlicht falsch.

Dass es Chips gibt mit mehr oder weniger OC Potential, ist ja schon immer so gewesen. Und dass man die ggf. (da bin ich mir noch gar nicht sooo sicher) an ihrer Chip-ID erkennen kann und ggf. auch vorselektieren kann, ist ein VOR- und kein Nachteil.

RaptorTP schrieb:
???

G-Sync = Lüfter im Monitor ? also immer ??
Nein, nur bei den aktuellen GSync 2 Monitoren, da das aktuelle GSync2 Modul einfach zu viel Abwärme erzeugt. Die "herkömmlichen" (also nicht 4k 144Hz HDR fähigen) GSync-Monitore haben keinen Lüfter.

Und ich denke, der Lüfter wird auch nur dann gebraucht, wenn man 4k in 120+ Herz machen will. Etwas, was mir eh nie einfallen würde. Weil es keine Grafikkarte der Welt gibt, die das in den Spielen und den Einstellungen, die mich interessieren, rendern könnte.
 
  • Gefällt mir
Reaktionen: xexex und RaptorTP
Nein, sie werden aber vorselektiert von nVidia. Daraus resultiert das in der Regel die Boardpartner mehr für A-Chips hinlegen (wenn es ne OC Karte werden soll). Ansonsten kriegst du halt "OC Krüppel" bei den Boardpartnern.
 
  • Gefällt mir
Reaktionen: Mcr-King
Aldaric87 schrieb:
Nein, sie werden aber vorselektiert von nVidia. Daraus resultiert das in der Regel die Boardpartner mehr für A-Chips hinlegen (wenn es ne OC Karte werden soll). Ansonsten kriegst du halt "OC Krüppel" bei den Boardpartnern.

Ja, und in wie weit widerspricht das dem, was ich geschrieben habe? Lies bitte nochmal genau.
 
Weil es schlicht für den Kunden kein Vorteil ist. Nichtmal an den vorhandenen Karten kann man ohne Abbau des Kühlers feststellen, welche ID auf dem Chip steht.

Und die Aussage das sich die Chips gleichweit takten lassen ist somit auch falsch.

Hier stößt nVidia auch eindeutig den Boardpartnern vor den Kopf. Auf lange Sicht will nVidia anscheinend den Direkt-Vertrieb und keine Board-Partner die mitverdienen. Es wäre auch nicht mehr verwunderlich, wenn bei den nächsten Generationen der Vorhang fällt und non-A Chips dann eine OC Sperre bekommen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Aldaric87 schrieb:
Weil es schlicht für den Kunden kein Vorteil ist. Nichtmal an den vorhandenen Karten kann man ohne Abbau des Kühlers feststellen, welche ID auf dem Chip steht.

Natürlich weiß man das. Man muss nur die Chip-ID checken. Das ist doch nun mal total einfach. Jeder GPU-Z kann das.

Aldaric87 schrieb:
Und die Aussage das sich die Chips gleichweit takten lassen ist somit auch falsch.
Die ist genauso falsch wie bei allen anderen Chips. Oder lassen sich immer alle Chips gleich takten?

Aldaric87 schrieb:
Hier stößt nVidia auch eindeutig den Boardpartnern vor den Kopf. Auf lange Sicht will nVidia anscheinend den Direkt-Vertrieb und keine Board-Partner die mitverdienen. Es wäre auch nicht mehr verwunderlich, wenn bei den nächsten Generationen der Vorhang fällt und non-A Chips dann eine OC Sperre bekommen.

Kaum. Denn die Board-Partner haben dadurch die einfache Chance Premium Modelle zu verkaufen. Win for all.
 
@Grestorn:

Ja? Wo sind denn die GPU-Z Bilder? (Ernstgemeinte Frage, denn bisher steht überall nur das man den A-Chip nur direkt auf dem Chip sehen kann)

Wobei es dann weiterhin bleibt, für den Kunden der die Karte im Paket kauft, ist es nicht ersichtlich.

Und wo ist da der Vorteil für den Kunden? Die A-Chips sind dann nicht nur Premium-Modelle, sondern kommen auch zum Premium Preis. Und wie weit die sich dann noch takten lassen ist weiterhin eine Lotterie. Also darf man jetzt schon vor der Chip-Lotterie schon einmal extra drauflegen, weil es ja der Premium-Chip ist.
 
Die Chip-ID (oder Device-ID) kann man schon immer auslesen. Daran erkennt man überhaupt nur, welchen Chip man vor sich hat. Das ist nun wirklich nichts neues. Was glaubst Du denn, was die IDs sind, die man in den Treiber-Inf Dateien angibt und anhand deren überhaupt erst entdeckt wurde, dass es zwei Sorten von Turing Chips (je Modell) gibt?

Der Kunde weiß, dass er bei der FE einen Premium Chip bekommt und es werden sicher auch einige Board-Partner diese bei bestimmten Modellen garantieren. Ich gehe davon aus, dass die Chance bei einem "normalen" Produkt einer der "Premium"-Chips zu bekommen, eher gering oder gar 0 sein wird.
 
Zurück
Oben