Notiz Nvidia: Erste GeForce RTX 2080 erreichen ihre Käufer

Es gibt eigentlich nur eine ausschlaggebende Variable und das ist die CPU. Wenn der Nvidia benchmark so stark am CPU Limit läuft, dass der Unterschied zwischen 1080Ti und 1080 in 4K so derart schmilzt, dann sind die Zahlen eh nutzlos. Aber du kannst ja gerne im Netz nach weitern benchmarks suchen in denen BF1 in DX12 mit diesen beiden Karte genutzt wird. Auf 15% wirst du nicht kommen.
 
Caramelito schrieb:
Naja, dann musst du aber nicht mit „was redet ihr“ reinrufen :D
Standard Tests laufen mit Standard Settings.

Naja normalerweise wird auch ein "Max" Setting mitgetestet. Zumindest bei den Seiten die ich ansehe.
Aber stimmt schon, wenn Nvidia Interne Benches macht, werden sie die neue Generation natuerlich so gut wie moeglich aussehen lassen. Da wuerd ich dann auch eine 1080TI Fe im Standardsetting in ein schallgedaemmtes Gehaeuse stecken. :)
 
Ulukay schrieb:
Naja normalerweise wird auch ein "Max" Setting mitgetestet. Zumindest bei den Seiten die ich ansehe.
Aber stimmt schon, wenn Nvidia Interne Benches macht, werden sie die neue Generation natuerlich so gut wie moeglich aussehen lassen. Da wuerd ich dann auch eine 1080TI Fe im Standardsetting in ein schallgedaemmtes Gehaeuse stecken. :)
Und die Heizung aufdrehen? :D
 
Was kann Nvidia dafuer, wenn der schwarze PC mit der alten Graka, direkt im Sonnenlicht steht. :king:
 
  • Gefällt mir
Reaktionen: Caramelito
Untitled.png


:/
 
Krautmaster schrieb:
Davon denke ich muss man ausgehen da das DLSS ja angelernt wird und quasi ein spezifisches Neuronale Netzwerk erfordert dass von den Tensor Cores dann gerechnet wird.

Dieses Game oder gar Preset spezifische neuronale Netzwerk muss irgendwie auf den PC kommen und wird mit der Zeit ggf auch besser und intelligenter. Da ist man mit dem normalen Treiber Update schnell am Limit.

Bist Du sicher? Dann müßte doch eigentlich für jedes Objekt ein NN angelernt werden; das kann ich mir nicht vorstellen. Ich würde eher erwarten, dass es ein NN für alle Spiele gibt, das dann ggf. ab und an Udates erhält. Gestehe aber, mich in DLSS nicht eingelesen zu haben.

Es gibt NN-Typen, die werden einmal angelernt und laufen dann, und andere, die individuell angepasst werden müssen.
 
Zuletzt bearbeitet: (Rechtschreibung)
  • Gefällt mir
Reaktionen: CBL
@R1ng0

ich denke die Vorgehensweise zur Erstellung dieser Netzwerke ist recht einfach. Man rechnet zb 100000
kurze Sequenzen (damit auch Bewegung drin ist) auf zb 8K vor. Es gibt einen Algorithmus der dann das Delta zwischen 1080p DLSS Bild und der gerechneten 8K Szene berechnet (das gibt einen Fehlerwert).

Dann wird dein Neuronales Netzwerk trainiert, 1 Mrd mal feinjustiert bis das Delta möglichst klein wird und dann in ein Profil gegossen (was im Prinzip Vektoren des Netzwerkes mit diversen Gewichtungen sind).

Denke nicht dass das auf Objektbasis oder abhängig vom Spieleinhalt passiert- zumindest nicht direkt.

Die Methodik wie das angelernt werden kann dürfte immer gleich sein, unabh. vom Spiele Inhalt aber eben Trainingszeit benötigen um das Netzwerk zu formen. Da man problemlos die Szene in hoher Auflösung vorrechnen kann kann man beliebig viele Referenzbilder für das Training erstellen.

Dadurch ist es auch einfach das System auf beliebige Games anzuwenden. Es muss nur vorher von Nvidia "angelernt" werden.
Ergänzung ()

Aldaric87 schrieb:
Die Angebote sind grad echt verrückt. 399 + Games, da kann man echt schwach werden.

das hat sie doch zum Release auch schon kurzzeitig gekostet. Oder war das nur die 56er. Dachte auch die 64 war bei MF kurzzeitig damals für 399 zu haben.

Aber ja, guter Preis, jeder 1070 Ti oder auch 1080 vorzuziehen.
 
Wäre es eine Vega mit passablem Kühldesign wäre das noch besser. Dieses Dual Lüfter Design bei einer 275W TDP wird doch eher zur Qual für den Nutzer. Aber dennoch ein sehr gutes Angebot mit dem Spielebundle. Das kann man ja bei AMD noch separat verlaufen, wenn sich das nicht geändert hat. Bei NVIDIA können die Codes ja nur mit den entsprechenden GPUs freigeschaltet werden via Experience.
 
Vega 64 war nochnie für 399€ zu haben.
Das Angebot gab es nochnie.

Lediglich Vega 56 war zu 399€ an den Ersten Tagen zu haben.
 
jup stimmt grad geschaut, 399 und 499 waren ja UVP.
Zusammen mit nem Freesync Monitor n schönes Gaming Rig.
 
  • Gefällt mir
Reaktionen: -Ps-Y-cO-
Aktuell Definitiv.
P/L -> Im moment Unschlagbar.
 
Wirklich nettes Angebot, zumal die Vegas nicht nur ganz nett gamen, sondern auch als Computeloesung für Renderleute usw gut (besser) dasteht. Und Leuten mit WaKü ist eh egal, was da drauf geschraubt wurde.
 
Ich bin auf die Tests der neuen Karten gespannt. Die normalen Preise der alten Generation bewegen sich meistens überhaupt nicht. Wenn ich bei einigen Händlern schaue, entwickeln diese alten Ladenhüter eine Preisstabiltät bzw. sogar Wertzuwachs wie Fabergé Eier. Diese abstrusen Preise lassen vermuten, dass Turing zwar Neuerungen bietet, nur wirken diese nicht auf die Leistung. Deswegen bleiben die Preise anscheind stabil bei 730 € und mehr.
 
  • Gefällt mir
Reaktionen: russianinvasion und betzer
Glückwunsch an alle die nicht auf Customs warten konnten.
Ich werd wohl noch warten und irgendwann eine 1080Ti kaufen.
 
@R1ng0

das überlegt man sich gar nicht sondern das lässt man das Neuronale Netzwerk entscheiden. :)

Man weiß nur wie es aussehen müsste (wenn man es eben in aller Ruhe in hoher Auflösung berechnet). Was genau das neuronale Netzwerk da nun anwendet um ein qualitativ gutes Bild zu bekommen ist für den Entwickler erstmal nicht ersichtlich. Die Kunst ist es etwas das neuronale Netzwerk initial zu designen, also Inputs, Output, Layer, Funktion fürs Delta um den Fehler zu minimieren usw.

Im einfachsten Fall ist es ggf sogar mehr oder weniger eine reine "Kantenerkennung" die dann über die KI weiß was wirklich Kanten im Game gleich kommt und diese werden über AA bearbeitet. Die KI kann über das angehäufte Wissen dann uU besser unterscheiden was scharfe Textur und tatsächliche Kante ist.

Der Vorteil ist ja eben der dass man sich nicht überlegen muss wie man das nun erkennt sondern dass "antrainiert". Ist ein sehr spannendes Feld dieses Deep Learning.
Könnte zb auch für sowas wie intelligente "Ampelschaltung" in Städten eingesetzt werden.
 
Zurück
Oben