News Turing für Spieler: Nvidia enthüllt GeForce RTX 2070, 2080 und 2080 Ti

xexex schrieb:
Und konntest sofort alle Spiele in WQHD auf Ultra spielen oder?

Nein. Aber das war 2012 und auf einer schon damals nicht mehr taufrischen GTX580. Mir war klar, dass der Monitor eine Zukunftsinvestition ist, auf dem ich erst mit einer neuen Grafikkarte wieder auf volle Details gehen kann. (Meine 780Ti schlägt sich da meist noch ganz gut.)

Wir haben jetzt 2018 und hier geht es um eine RTX 2080 Ti, das absolute Flaggschiff der neusten GPU-Generation, mit einem Preis, der selbst nach den schon haarsträubenden Maßstäben der letzten Generation, eigentlich eher zu einer Turing-Titan passen würde.

Ich erwarte auch von sowas auf den neusten Titeln mit hochgeschraubten Qualitätseinstellungen keine konstanten >60FPS auf 4k. (Wobei das toll wäre.) Aber FullHD@60FPS, das ist inzwischen 3. Liga. Sowas sollte eine brandneue High-End-Karte auch mit Ultra-Details mit Links erledigen, ohne ins Schwitzen zu kommen.

Die große Masse der Steam-Gamer, die du ansprichts, die immer noch auf FullHD zocken, sind doch garantiert nicht die Zielgruppe der 2080Ti für über 1200€. So viel kostet deren ganzes Gaming-Setup zusammengenommen nicht.

Der typische 2080Ti-Kunde mit bodenlosem Geldbeutel, hat schon vor Jahren auf Nvidias (und/oder AMDs) Parolen gehört, dass 4k der neue Maßstab für High-End-Enthusiasten ist und 60FPS etwas für Konsolen-Bauern, nicht für PC-Masterrace. Und dementsprechend sieht ihr Gaming-Monitor aus. Die werden ihre 4K/>120Hz-Displays sicher nicht auf FullHD betreiben wollen, nur um RTX aktivieren zu können, ohne dass es komplett unspielbar wird.

Wie gesagt, selbst ich "Arme Leute"-Enthusiast (mit persönlicher Preisgrenze weit unterhalb der 2080Ti), habe FullHD schon vor Jahren hinter mir gelassen.
 
nee es kommt noch eine Titan nach ca 2000€ ;-)
 
Lars_SHG schrieb:
...bitte was?
Jeder der eine Grafikkarte hat, will das maximum herausholen. Nicht jeder übertaktet auch noch zusätzlich, ja - aber darum ging es ja auch nicht,

Doch, genau darum ging es. Banned beschwerte sich das die Karte über 400W ziehen kann, nachdem man das Powerlimit der Karte auf über 400W erhöht hat. Es ging schlicht um den Verbrauch beim Overclocking und zwar beim inkompetenten Overclocking oben drauf, weil hier soviel Spannung wie irgend geht gegeben wurde, was die Performance aber gar nicht mehr erhöht.

edit: Also ihm ging es darum.

Wie gesagt, über 400W trifft es im Betrieb unter Volllast eben nur für Total System Consumption.
 
  • Gefällt mir
Reaktionen: Simpl3Moe und Mcr-King
Mir ist FHD mit VA, PV und IPS lieber als halbes 4K gedöns mit TN 4K , sorry wir haben 2018.
 
Ich bin mal auf die Benchmarks gespannt.

Für 499$ inkl. MwSt, also ca. 430€, würde ich die Karte nehmen. Vielleicht noch 450€. Dann muss aber auch gut sein.
 
  • Gefällt mir
Reaktionen: lanoo
Mcr-King schrieb:
Mir ist FHD mit VA, PV und IPS lieber als halbes 4K gedöns mit TN 4K , sorry wir haben 2018.

Du scheinst von 2012 oder so zu sein. Die QHD IPS Screens mit 144hz gibt es doch schon ein paar Jahre, und iirc ist dieses Jahr, also 2018 auch was in 4k rausgekommen ... bissel teuer noch, aber bissel teuer noch fällt genau in die Zielgruppe für eine 2080ti ;-)
 
Banned schrieb:
Nein:

https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/6/


Also es gab hier vor ner Weile auch mal jemanden, der meinte, sein 600W NT käme mit den Lastspitzen nicht klar.

Banned schrieb:
Wenn das Netzteil ausreicht, sicherlich. :D Also unter 650W würde ich da nicht anfangen bei ner Karte, die im Peak über 400W ziehen kann.

Ich hab 2 Vegas mit 2x630 Watt in 2 verschiedenen Qualitätsklassen^^ Kann ich nicht bestätigen. Und ich glaube nicht das die 30W den Braten fett machen. Und eine davon ist übrigens ne Vega FE Liquid mit dem schönen 350w BIOS. Uhrsprünglich hab ich die mit nem 550w Netzteil betrieben. Da wurd's knapp. Für Hardware, siehe Signatur :)

Nur jetzt mal ehrlich weil ich das so oft les. Das bisschen was Vega mehr zieht kann man vernachlässigen. Bei der 290x und 390x verstehe ich wenn man was sagt. Das waren easy 250-300 Watt mehr. Aber 50-100w sind einfach nicht die Welt. Und mit UV sinds dann nochmal weniger. Und ob ich jetzt undervolte um besseren Takt zu bekommen oder übertakte ist dann auch egal. Ich mein, es gab schon Leute die halt das Powerlimit reduziert haben und dann höhere Taktraten geschafft haben. Ganz normales Tweaking. Und wer das nicht will, der kann sie ja Stock benutzen, macht auch Spaß.

Ich mein die Leute die da meckern sind die gleichen die ihren I7 dann auf 5.x GHz setzen und vergessen das der dann auch weit über 100 Watt geht...^^ Das ist einfach so ein Alibi-Argument. Ich mein klar, kann ja jeder für sich entscheiden. Aber es ist jetzt nicht gerade so als würde Vega jedes Netzteil um die Ecke bringen.

https://www.tomshardware.co.uk/intel-coffee-lake-i7-8700k-cpu,review-34037-12.html

Ich hör die selben Leute irgendwie nie meckern das Ryzen effizienter ist als ein I7 (wenn auch Situationsbedingt langsamer). Sprich so wichtig kann euch die Effizienz nicht sein. Und scheiß heiß werden die Dinger auch...^^ Dagegen ist mein Ryzen 1600x (65 Grad) und meine Vega (70 Grad) n guter Witz. (Zur Verteidigung, Vega Liquid Ryzen AIO). Nur die normale FE wird heiß, der Referenzkühler ist aber halt wie immer einfach nich so gut xD
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
Mcr-King schrieb:
Leider bringt es nix wenn es nur auf der RTX2080ti läuft, denn ich glaube kaum dass für Konsolen und normale GPUs dann einfach normale Licht und Schatten weggelassen werden.

Es spricht nichts dagen beide Varianten in ein Spiel einzubauen. RT ist viel leichter zu implementieren und daher ohne großen Aufwand mit einzubinden. Für Konsole und Grakas ohne RT wird halt das Rasterizing verwendet, wer ne RT Karte hat setzt halt einfach das Häkchen bei "RT verwenden".
 
kristwi schrieb:
Anscheinend gibt es ab heute die ersten richtigen Gaming Benchmarks, laut Dimitri!

Das wäre endlich mal einen Schritt vorwärts hier bei dem Eiertanz :rolleyes:

Da der Takt quasi unverändert ist und sich offensichtlich nur die Zahl der Shadereinheiten geändert hat (+ 20% etwa) bin ich gespannt, wieviel Mehrperformance das ist und wo noch Optimierungen chip-intern durchgeführt wurden.
 
ZeT schrieb:
Es spricht nichts dagen beide Varianten in ein Spiel einzubauen.

Das ist zu hoffen.

In den während der Präsentation gezeigten Demos, z.B. Battelfield V, haben sie sich die Entwickler meiner Meinung nach teilweise schon etwas "absichtlich dämlich" angestellt, sobald RTX ausgeschaltet wurde. Plötzlich schienen sie vergessen zu haben, wie sie es all die Jahre auch ohne Echtzeitraytracing geschafft hatten, z.B. in Reflektionen auch Objekte zu berücksichtigen, die gerade nicht im Blickfeld sind.

Also ob es auf einmal technisch unmöglich geworden wäre. Ich meine, selbst in Duke Nukem 3D gab es schon funktionierende Spiegel... Klar mit wilder Trickserei, so wie sie seit jeher bei 3D-Grafik üblich ist, schon wegen der technischen Limitierungen der zeitgenössischen PCs.
Mit "sauberem" Raytracing braucht man die Trickserei irgendwann nicht mehr, aber es ist wie gesagt sehr zu hoffen, dass die Entwickler/Gameengines für die "RTX-off"-Einstellung trotzdem noch so lange möglichst tief in die Trickkiste greifen, bis Raytracing wirklich zum Standard geworden ist und jede Mittelklassekarte das mit links schultert. Sonst könnten Spiele bald für die allermeisten Spieler sehr hässlich aussehen.
 
  • Gefällt mir
Reaktionen: Mcr-King und duskstalker
Apocalypse schrieb:
Doch.
Danke das du auch noch eine review postest dir mir recht gibt.


Da steht "Leistungsaufnahme der Grafikkarte" und nicht "des Gesamtsystems".

Was soll dir da recht geben?

Klär mich bitte auf...

Apocalypse schrieb:
Wie gesagt, über 400W trifft es im Betrieb unter Volllast eben nur für Total System Consumption.

Und nochmals: Nein!


Im Artikel heißt es außerdem noch: "Auf dem Windows-Desktop benötigt Vega deutlich weniger Energie als der Vorgänger: Beide Radeon-RX-Vega-Grafikkarten benötigen (direkt gemessen) nur zwölf Watt."


Noch offensichtlicher geht es doch wohl kaum...
 
Zuletzt bearbeitet:
Faust2011 schrieb:
Hat eigentlich jemand mal eine Antwort zu dem Ganzen von AMD gesehen? Die haben doch diverse Twitter-Accounts und ähnliches, kam da nix? Ich verfolge das nicht, deshalb hier die Frage. :)

Kann mir selbst die Antwort geben - falls es noch jemanden interessiert: AMD geht auf diesen Launch von Nvidia überhaupt nicht ein. Stattdessen bewerben sie ihre RX 580 und 570 im Rahmen des anstehenden Back-To-School Saison in USA. Eigentlich clever, immerhin ist die Kostenseite ihr Argument.
 
  • Gefällt mir
Reaktionen: Mcr-King
Naja für mich geht der release am allerwertesten vorbei, solange nicht eine Generation kommt wo eine X060 nicht schneller wie das aktuelle Topmodel 1080ti ist.
Was bringt es wenn, (wie die meisten hier vermuten) eine 2070 schneller wie eine 1080 ist aber langsamer wie eine 1080ti.
Das ist kein Sprung bei dem es sich auch nur lohnt 1 cent für die 2000er Gen auszugeben, wenn man eine Karte der 1000er Gen besitzt.
 
  • Gefällt mir
Reaktionen: Mcr-King und nap
Was mich noch interessiert, warum Nvidia jetzt auf NV Link setzt, klar die Verbindung hat höheren Durchsatz, aber dafür das SLI eigentlich für tot erklärt wurde... Die NV Link Brücke kostet 85€ XD https://www.nvidia.de/geforce/buy/
Würde schon gerne wissen ob sich da jetzt was verbessert hat oder immer noch die alte Leier ist.
 
  • Gefällt mir
Reaktionen: Mcr-King
Faust2011 schrieb:
Kann mir selbst die Antwort geben - falls es noch jemanden interessiert: AMD geht auf diesen Launch von Nvidia überhaupt nicht ein. Stattdessen bewerben sie ihre RX 580 und 570 im Rahmen des anstehenden Back-To-School Saison in USA. Eigentlich clever, immerhin ist die Kostenseite ihr Argument.

das funktioniert aber auch nur so lange, bis die kleinen turing gpus kommen. die tage von polaris 20 sind gezählt. der refresh war schon anfang 2017 eher mau.

was aber auffällig ist: ich habe mal die preise von vega und polaris gecheckt seit "turing reveal" - da bewegt sich garnix - nicht mal ein kleiner huster.
 
duskstalker schrieb:
das funktioniert aber auch nur so lange, bis die kleinen turing gpus kommen. die tage von polaris 20 sind gezählt. der refresh war schon anfang 2017 eher mau.

was aber auffällig ist: ich habe mal die preise von vega und polaris gecheckt seit "turing reveal" - da bewegt sich garnix - nicht mal ein kleiner huster.
Überrascht dich das bei den "Konkurrenzpreisen"? Müssen weder hoch noch runter^^ 499€ für ne Vega oder ne 1080 ist doch ein angebrachter Preis. Und Polaris war jetzt eh nie mega teuer (Mining-Boom mal außen vor)
 
ich bin davon ausgegangen, dass die preise wenigstens ein paar euro runter gehen - so wie eine kursschwankung an der börse, wenns schlechte nachrichten gibt.

die rx580 nitro kostet immer noch 290€ - ich habe die 2017 aus frankreich für 260€ bekommen - mitten im mining boom. die 580 nitro für 250€ wäre mal n statement.
 
Chismon schrieb:
Dass der proprietaere Ansatz von nVidia ebenso kommt, war natuerlich zu erwarten, denn so kann man die ganze Marktmacht ausspielen und dem (/evt. in 2020 den) anderen das Leben/den Einstieg schwer machen, wofuer der Gameworks-Krempel natuerlich das beste Beispiel ist oder die Tatsache, dass man immer noch an G-Sync festhaelt.

So gesehen hast Du natuerlich Recht, Open-Source waere hier der richtige Ansatz (auch einfacher fuer die Entwickler) gewesen und eigentlich bietet die Microsoft-Loesung ja das, aber nVidia wollte wieder etwas eigenes zum vermarkten und verfolgt die Durchsetzung der proprietaeren RTX-Loesung (idealerweise unter Ausschluss und/oder Benachteiligung der Konkurrenz).
Mal ehrlich, von nvidia habe ich nichts anderes als eine propretiäre Lösung erwartet denn die bringen eh nichts anderes.

Ich bin eher von Microsoft enttäuscht das die sich auf den Mist einlassen anstatt einen eirklichen Standard zu verabschieden der für alle gilt.

Simpl3Moe schrieb:
Niemand lässt seine Karte in Max laufen.
Der Balken ist völlig irrelevant.

Mit ein bisschen Anpassung, verbraucht die Karte nicht mehr als das Gegenstück von NV.
Und die Vega wird schneller, je weniger Saft sie bekommt.
Die Aussage bezog sich auf Lastspitzen und die liegen idR. nochmal deutlich höher als der gemessene Verbrauch in den Balken. Einfach mal bei Tests wie diesen reinschauen und es dürfte klar sein wo das Problem ist.
https://www.tomshw.de/2018/08/07/ms...8gb-polaris-kampfanzug-von-der-brechstange/5/
Schon ballern bei diesem Beispiel bei einem Verbrauch von ca. 250W Lastspitzen bis 390W in das Netzteil rein und reagiert das drauf zu empfindlich dann kann es auch dazu kommen das der Überlastungsschutz anspringt und die Kiste abschaltet BEVOR der von normalen Messgeräten angezeigte Verbrauch die angegebene Leistung des Netzteils erreicht. Einfach nur weil solche Spitzen bereits darüber hinaus schiessen.
Mit immer aggressiver werdenen Stromsparmechanismen wird das Problem mit Sicherheit nicht kleiner werden.
 
  • Gefällt mir
Reaktionen: Banned
alkaAdeluxx schrieb:
Naja für mich geht der release am allerwertesten vorbei, solange nicht eine Generation kommt wo eine X060 nicht schneller wie das aktuelle Topmodel 1080ti ist.
Was bringt es wenn, (wie die meisten hier vermuten) eine 2070 schneller wie eine 1080 ist aber langsamer wie eine 1080ti.
Das ist kein Sprung bei dem es sich auch nur lohnt 1 cent für die 2000er Gen auszugeben, wenn man eine Karte der 1000er Gen besitzt.

Können wir bitte die Vermutungen lassen?
Heute Abend kommen laut Dimitri schon erste genauere Spiele-Benchmarks!
Sagt er ab 6:15.
 
Ich behaupte mal auser das RTX kommt nichts neues, der Rest an mehrperformance kommt von der erhöhten Shader Zahl (4352 vs 3584). rund 20% mehr Shader = ~20%mehr Leistung.
Ich vermute mal auser die RTX Cores, handelt es sich fast um identische Pascal Units.
 
Zurück
Oben