News Nvidia Turing: GeForce RTX 2080 laut Nvidia ~50 % schneller als GTX 1080

Zespire schrieb:

Ich kann das ganze noch ergänzen, man sollte sich mal anschauen für was alles es Patente alleine von Nvidia gibt.
https://patents.justia.com/assignee/nvidia-corporation

Allerdings sollte man da auch ehrlich sein. Für genau solche Fälle sind Patente auch da und wieso sollte man sich eine Cloud basierte Kantenglättung, die anscheinend auch noch wunderbar funktioniert, nicht patentieren lassen. Letztendlich haben an sowas bestimmt ein paar Leute eine lange zeit gearbeitet. Lächerlich sind eigentlich nur Patente bei denen man sich einen runden Knopf oder Ecken patentieren lässt.

1534979012660.png


Man beachte wie lange ein Prozess um sich etwas patentieren zu lassen dauern kann!
 
Was AMD wohl eher nicht dran hindern würde, eine ähnliche Technologie zu entwickeln und einzusetzen.

Wobei natürlich grade das Cloudbasierte mit GeForce Experience Zwang den meisten wohl extrem sauer aufstoßen wird.

Also wie man sieht, will nVidia mit aller Gewalt die Leute zu GeForce Experience zwingen.
 
xexex schrieb:
Die Aussage wir konnten diese Ergebnisse selbst verifizieren verstößt durchaus gegen die NDA. Eine Grauzone ist es, weil man ein offizielles Dokument von Nvidia damit bestätigt und kein Gerücht. Würde man zu einem inoffiziellen Gerücht sowas behaupten, wäre es ein klarer Verstoß.
Es verstößt gegen das NDA wenn ich sage, meine GTX 1080 schafft 40 fps und Nvidia sagt, die RTX 2080 schafft 60 fps, ergo +50 Prozent wie sie selbst angeben? nö ...
 
  • Gefällt mir
Reaktionen: yummycandy
EchoeZ schrieb:
Mal abgesehen von viele x-mal faster than the previous Generation, die BlueOyster-Jensen im Livestream nannte..

Webseite
Anhang anzeigen 703247
Ebenfalls im Livestream sprach er von "Twice the Performance of the previous Generation"

Nun sind wir bei 50% schneller... mal sehn' wie die Realität aussieht. Ich bin gespannt!
Auch wenn ich einige Post vorher gut finde, Innovation und so, Fortschritt usw. Aufruf zu sinnhafter technischbezogener Diskussion im CB (guter Post).

Streiche: "Echtzeit Ray Tracing" und setze: (Gaming) "Hybrid Ray Tracing".

Streiche: "bis zu 6-mal schnellere Leistung" und setze: "bis 6-mal schneller mit KI basierendem DLSS" (Anmeldung möglicherweise erforderlich) - (denn es ging um Zeit in ms, nicht um Leistung). Für anderes braucht es wohl ein Login, zumindest einmal.

(die Praktikanten wieder 224+32, die können einfach nicht rechnen)
:D
 
Aldaric87 schrieb:
Was AMD wohl eher nicht dran hindern würde, eine ähnliche Technologie zu entwickeln und einzusetzen.
Wobei ich mir zu Zeiten von Threadripper und Co. nicht sicher bin ob ein CPU basierender Filter nicht sogar die bessere Lösung wäre. Er entlastet die GPU grundlegend und bei solchen CPUs stehen mehr als genug ungenutzte Kerne/Threads zur Verfügung.
 
Sorry aber das kannst du knicken X86 cpus sind dafür total ungeeignet...

Ich werde mal ein Patent anmelden für eine Ai die in Echtzeit die Zensur von aus dem Osten stammenden erwachsenen Filmen entfernt.
 
y33H@ schrieb:
Es verstößt gegen das NDA wenn ich sage, meine GTX 1080 schafft 40 fps und Nvidia sagt, die RTX 2080 schafft 60 fps, ergo +50 Prozent wie sie selbst angeben? nö ...

Deine Karte ist bereits lange offiziell verfügbar, damit fällt auch jegliche NDA zu solchen Angaben. Würdest du bereits eine 2080 besitzen und behaupten die Werte würden stimmen oder du hättest andere Werte gemessen, verstößt du gegen die NDA, weil du solche Aussagen erst nach dem Fall der NDA treffen darfst.

Es dürfen bis zum Fall einer NDA KEINE Informationen zu dem Produkt herausgegeben werden, außer welche die offiziell vom Hersteller freigegeben wurden. Grauzone ist es deshalb, weil Nvidia die Daten ja öffentlich gemacht hat. Damit steht aber nicht zwingend gleich jedem frei zu behaupten man hätte so eine Karte bereits selbst zum Test erhalten.
 
Oneplusfan schrieb:
Wie zum Teufel soll das bitte funktionieren??
Also jetzt gehts aber los hier, da kann man Nvidia auch gleich vorwerfen, dass sie eigene Grakas bauen und nicht die gleiche Architektur wie AMD verwenden. Ist ja in dem Sinne auch "proprietär".

Niemand hindert AMD daran auch extra Einheiten für Matrixberechnungen zu verbauen oder mehr auf Deep Learning zu setzen, wsl werden sie das auch.
Schon komisch, diese ganze Feindesligkeit gegenüber den neuen Ansätzen. Gabs bei AMD Karten auch nicht, und da hatte man noch keine konkreten Spiele angekündigt, die das umsetzen.

Für DLSS und RT gibts bald nen haufen Spiele, aber hauptsache man machts nieder und tuts als Rohrkrepierer ab....
Irgendwie 12 genauso viele wie es DX12 Spiele gab, die AMD ja auch puschte. Bewirkt hat es nichts.

Aber vielleicht berechnet ein GPU Cluster ja demnächst die KI meines imaginären Feindes in Onlinespielen. Wie man darauf kommt, dass man AA in einem Netzwerk berechnen zu lassen, muss mir auch mal einer erklären, letztlich sind dann alle Turing die Online sind ein großer GPU-Cloudcluster? tensorRT4 lässt grüßen.
 
stoneeh schrieb:
Die Aussage passt schon so. Das Bild wird von den Tensor Cores analysiert, und fehlende oder zuviel Pixel, eben wie beim Treppeneffekt, werden intelligent korrigiert. Wird interessant zu sehen, wie gut der Effekt in Spielen funktioniert - keine AI ist perfekt.
Das haben ja einige Moderatoren diverser Online Seiten vor Ort testen können und es ist eigentlich wie es immer ist, bei manche Engines von Games sieht DLSS Nice aus und besser wie TAA, bei anderen ist der unterschied geringer.

Fakt ist natürlich, dass wenn DLSS von der RTX Grafikkarte genutzt wird, diese natürlich deutlich an Leistung zulegt, weil dieses Feature parallel zur GPU mit den Tensor Cores berechnet wird. Klar das dann die GTX 1080Ti in diesen Fällen das Nachsehen hat, weil TAA ja auch über den GPU Chip mitberechnet werden muss und man hier nicht wie bei der RTX Turing ein Feature hat, was die GPU entlastet!

Die Frage ist aber nach wie vor, wieviel schneller die Turing ohne die RTX Features ist, 50% sind hier meiner Meinung nach absolut unrealistisch!
 
  • Gefällt mir
Reaktionen: stoneeh
Das wird doch nicht in der cloud berechnet du kannst dir das Neuronale Netz (stell dir das wie ein Schaltplan vor) auf deine GPU aus der cloud laden.
 
xexex schrieb:
Deine Karte ist bereits lange offiziell verfügbar, damit fällt auch jegliche NDA zu solchen Angaben. Würdest du bereits eine 2080 besitzen und behaupten die Werte würden stimmen oder du hättest andere Werte gemessen, verstößt du gegen die NDA, weil du solche Aussagen erst nach dem Fall der NDA treffen darfst.

Es dürfen bis zum Fall einer NDA KEINE Informationen zu dem Produkt herausgegeben werden, außer welche die offiziell vom Hersteller freigegeben wurden. Grauzone ist es deshalb, weil Nvidia die Daten ja öffentlich gemacht hat. Damit steht aber nicht zwingend gleich jedem frei zu behaupten man hätte so eine Karte bereits selbst zum Test erhalten.
Du darfst über die NDA gar nicht reden.
 
@Zespire
Laufen andere Post Effekt Filter wie FXAA nicht auch über die CPU und das auch noch ziemlich sparsam im Bezug auf die CPU Leistung?
Na erstmal schauen was DLSS denn nun wirklich bringt und wie es sich im Vergleich zu den anderen Methoden so schlägt.
 
Zotac2012 schrieb:
Das haben ja einige Moderatoren diverser Online Seiten vor Ort testen können und es ist eigentlich wie es immer ist, bei manche Engines von Games sieht DLSS Nice aus und besser wie TAA, bei anderen ist der unterschied geringer.

Fakt ist natürlich, dass wenn DLSS von der RTX Grafikkarte genutzt wird, diese natürlich deutlich an Leistung zulegt, weil dieses Feature parallel zur GPU mit den Tensor Cores berechnet wird. Klar das dann die GTX 1080Ti in diesen Fällen das Nachsehen hat, weil TAA ja auch über den GPU Chip mitberechnet werden muss und man hier nicht wie bei der RTX Turing ein Feature hat, was die GPU entlastet!

Die Frage ist aber nach wie vor, wieviel schneller die Turing ohne die RTX Features ist, 50% sind hier meiner Meinung nach absolut unrealistisch!
Ich glaube nVidia ging von UHD aus und da muss weniger gerechnet werden weil Treppeneffekte dort geringer ausfallen, man anderes AA nicht unbedingt braucht, FHD sieht dann schon anders aus, aber die Pixelanzahl sinkt.

Eigentlich habe sie das mal wieder clever eingefädelt. In einem 4K Bild muss viel weniger per AA "korrigiert" werden. MSAA und SSAA braucht man dort eigentlich nicht.

Heißt eigentlich hat die KI unter 4K weniger zu tun was das optische Ergebnis angeht.
 
FXAA ist ein fragment shader / pixel shader so wie alle post processing filter und läuft auf der GPU und ist der letzte schritt bevor diese das Bild an den Monitor sendet.
 
Also ich muss zugeben, das Raytraicing ist schon beeindruckend.
 
HerrRossi schrieb:
Nein, muss man nicht. Wenn man DLSS nutzen will, muss man Experience installieren, sich einloggen, die benötigten Daten runterladen, danach kann man sich wieder ausloggen, das Netzwerkkabel ziehen und spielen.

Generell schonmal wesentlich besser wie sich das zuerst laß, dennoch finde ich das bedenklich ... Letztlich ist es einfach wieder eine Datensammelstelle.... Normalerweise zahlen Firmen gutes Geld für Daten hier lassen sie sich auch noch die Hardware teuer bezahlen, damit man dann seine Daten (und wenn es nur ist welche Spiele man spielt) abgibt ?
 
Zespire schrieb:
Das wird doch nicht in der cloud berechnet du kannst dir das Neuronale Netz (stell dir das wie ein Schaltplan vor) auf deine GPU aus der cloud laden.
Nein, die Cloud stellt ja nur ein Samplepack von 64 ausgewählten Algorithmen zur Verfügung, aus unzähligen Variationen von Simulationen [Berechnungen] einiger bestimmter DLSS Spiele die von dem Supercomputer ermittelt wurden, die man dann quasi der RTX Grafikkarte zur Verfügung stellt, um die bestmögliche Darstellung sofort anhand dieser Basis Algorithmen zu berechnen!

Man kann also sagen die 64 besten Algorithmen die der Supercomputer errechnet hat, stehen der RTX Turing Grafikkarte als Basisberechnung zur Verfügung, die man dann auf jedes Spiel mit DLSS anwenden kann und man so nicht jedes Spiel extra mit Deep Learning trainieren muss, um den besten Algorithmus zu finden!

Über die Cloud wird dann dieses Sample Pack von dem Supercomputer mit den Besten 64 Algorithmen für DLSS über das Geforce Experience an die Grafikkarte kommuniziert!
 
Zuletzt bearbeitet:
Zurück
Oben