News Nvidia Turing: GeForce RTX 2080 laut Nvidia ~50 % schneller als GTX 1080

Also wenn man das folgende Slide als gesetzt betrachtet und mal ein wenig mit den bekannten Daten rechnet, dann könnte die RTX Serie bei deaktivierten RT durchaus mehr als genug Power bieten. In diesem Fall würden die Preise sogar verständlich (aber dennoch nicht akzeptabel).
https://cdn.videocardz.com/1/2018/08/NVIDIA-Turing-vs-Pascal-Shader-Performance-1000x512.jpg

Mal eine fixe Milchmädchenrechnung
Unbenannt.PNG


GTX 2070 ungefähr 1080Ti Performance bei etwa gleichem Preis.
/Traummodus aus
 
Nach Deiner Milchmädchenrechnung hat die 2080 79% mehr Rechenleistung als die 1080 und Nvidia gibt als CherryPicking Marketing Material ~50% an? Ich bitte Dich...

Siehe Heise (https://www.heise.de/newsticker/mel...Beschleuniger-zu-stolzen-Preisen-4142119.html)
Die 2080 hat ~29% mehr TFlops als die 1080, in Kombination mit der höheren Speicherbandbreite ergeben sich irgendwas zwischen 30% und 40% und das wars. Genau passend zur Nvidia Marketing Vorstellung 50%.
 
Nein Shaderleistung, wieviel da reell im Spiel oder sonst wo ankommt steht in den Sternen.
 
Wadenbeisser schrieb:
@pclovely
T&L gab es ja auch schon vorher, nur wurde es da von der CPU berechnet und wurde damit weitestgehend auf die GPU ausgelagert uund brachte deshalb auch den Leistungsschub weil nun wieder mehr CPU Leistung für andere Sachen zur Verfügung stand. Nicht vergessen, das war noch das tiefste Singlecore Zeitalter. ;)
Der Vergleich scheitert schon daran das Raytracing vorher nichts mit der Spiele Grafik zu tuen hatte.
Natürlich nicht, wenn man heute von T&L spricht geht es eher um die Implementierung in die GPU und Ausführung über den Treiber.

Dann habe ich mich nur falsch ausgedrückt aber ich schrieb ja auch deswegen (Geforce) 256 (Post #749 erster S.). S3 konnte es genauso, daher muss nVidia überhaupt nicht angeben. Trotzdem waren die 3dfx Karten schneller und man konnte auch mit denen spielen, wo es mir um diese Kernaussage geht.:D

Spielen ohne RTX oder Hybrid RT ist auf jeden Fall in der bekannten Form weiterhin möglich. Bis es sich durchsetzt vergehen noch Jahre, nVidia hypt ihre Technologie klar, würde ich auch machen.

Bekannt ist es viel früher geworden, weil es um Kamerabewegung geht oder Änderungen der Abstände in Bildgebungsverfahren (Zoom). Raytracing gibt es auch schon länger, es ist ein Trugschluss das es erst jetzt wichtig wäre. Man setzt es nur jetzt in Games für mehr Realismus um. Soll uns hier aber nicht stören. Mein Vergleich sollte klarstellen, es funktioniert auch ohne direkte nVidia Hardwarebeschleunigung durch die GPU (siehe T&L schreibst du ja selbst) und zwar auf Softwarebasis und per GPU Compute, DX12 lief zuerst nicht anders und war in Teilen ein reiner Softwarestack. DX12 ready...
 
Zuletzt bearbeitet von einem Moderator: (Sinngehalt angepasst)
@pclovely
Wie gesagt, der Unterstied bestand lediglich darin das die Berchnungen von der CPU in die GPU wanderten. Nicht umsonst konnte man in der damaligen Version vom Zwiebelbench (vorsicht Insider!) zwischen Software T&L per CPU und dem T&L per GPU umschalten. Das erforderte natürlich auch eine neue DirectX version die das auch unterstützte. Sooo neu war die Sache aber auch wieder nicht denn bei professionellen Karten für OpenGL gab es auch schon entsprechende Funktionen, da aber eher per Zusatzchip auf der Karte. Etwas ähnliches hatte 3Dfx wegen dem SLI Funktionsprinzip auch beim Rampage vorgehabt aber so weit kam es nicht mehr.
 
  • Gefällt mir
Reaktionen: Cpt.Willard und pclovely
Begu schrieb:
Nach Deiner Milchmädchenrechnung hat die 2080 79% mehr Rechenleistung als die 1080 und Nvidia gibt als CherryPicking Marketing Material ~50% an? Ich bitte Dich...

Siehe Heise (https://www.heise.de/newsticker/mel...Beschleuniger-zu-stolzen-Preisen-4142119.html)
Die 2080 hat ~29% mehr TFlops als die 1080, in Kombination mit der höheren Speicherbandbreite ergeben sich irgendwas zwischen 30% und 40% und das wars. Genau passend zur Nvidia Marketing Vorstellung 50%.
Ein genaues Betrachtungsergebnis steht noch aus, weil nVidia sicherlich viel für sich behält, aber TFLOPS gelten bei TU wahrscheinlich nicht zur Bestimmung der üblichen Rechenleistung oder reichen nicht aus, weil die Tensor-/RT Cores wohl parallel auch Rechenaufgaben ausführen können bzw. die Shader damit entlasten, wenn sie nicht genutzt werden. Kämen damit wohl in der Form irgendwie AMDs Primitive-Shader gleich.
 
Ist doch klar. Wenn's in FullHD schon keine 60FPS halten kann, machen höhere Auflösungen natürlich keinen Sinn.

Also weg mit Euren WQHD und 4K Monitoren - stabile 60FPS mit RT unter FullHD ist das neue Ziel! :D
 
  • Gefällt mir
Reaktionen: John Reese, CBL und elkechen
Update: Es gibt einen weiteren Hinweis auf die Leistung der neuen Raytracing-Funktionen der Geforce RTX-Serie. Bei der Gamescom-Demo von war ein Spielen mit flüssigen 60 Bildern pro Sekunde und aktivem Raytracing selbst in Full-HD-Auflösung (1920x1080 Pixel) nicht möglich, allerdings wollen die Entwickler hier noch viel optimieren. Doch wie melden, scheint Raytracing mit den neuen Grafikkarten wohl nur bis maximal Full HD überhaupt sinnvoll umsetzbar zu sein.

Und jetzt nehmen wir nochmal die Benchmark-Folie mit den ganzen Benches in "4k" und überlegen wie es denn nun sein kann dass nVidia hier in 4k-raytraced (und damit auch noch soviel schneller ist als die 1080).

https://8images.cgames.de/images/ga...-2080-vergleich-bildquelle-nvidia_6041147.jpg

Also nix 4k-raytracing....die rechnen das bild in FHD mit raytracing und upscalen das dann mit ihrem AI-Filter auf 4k.

Nett. Erklärt warum man diese Bildunschärfe beim DLSS sieht. Ist halt eben nicht 4k.
 
  • Gefällt mir
Reaktionen: russianinvasion, Cpt.Willard und elkechen
1cem4n schrieb:
Also wenn man das folgende Slide als gesetzt betrachtet und mal ein wenig mit den bekannten Daten rechnet, dann könnte die RTX Serie bei deaktivierten RT durchaus mehr als genug Power bieten. In diesem Fall würden die Preise sogar verständlich (aber dennoch nicht akzeptabel).
https://cdn.videocardz.com/1/2018/08/NVIDIA-Turing-vs-Pascal-Shader-Performance-1000x512.jpg

Mal eine fixe Milchmädchenrechnung
Anhang anzeigen 703565

GTX 2070 ungefähr 1080Ti Performance bei etwa gleichem Preis.
/Traummodus aus

Das mit der 2070 kann sogar passen. Der NVIDIA CEO hat ja am Ende der Präsentation gesagt dass die 2070 schneller als eine Titan XP (also in etwa 1080Ti) sei. Und dabei ging es nicht um Raytracing.
Das mit der 2080Ti wär natürlich super. Ich lasse mich überraschen - in ~27 Tagen bin ich schlauer.
 
Iscaran schrieb:
Erklärt warum man diese Bildunschärfe beim DLSS sieht.
Welche Bildunschärfe? Hast du echte Screenshots zum Vergleich oder meinst du wirklich diese Handybilder, wo der DLSS-Monitor out of focus war?
 
  • Gefällt mir
Reaktionen: Oneplusfan und elkechen
Also um mich auch mal zu Wort zu melden, als jemand der vorher auch große Sprüche geklopft hat. Mit dem aktuellen Aktienkurs von Nvidia wäre allein mit dem Gewinn die 2080Ti fast geschenkt. Trotzdem will der Funke für blindes vorbestellen nicht überspringen.
Es hätte seinen Reiz gehabt, wenn man so eine Karte rund eine Woche vor allen anderen gehabt hätte. Wenn ich sie aber nicht als erster haben kann, kann ich sie genausogut einen Monat später haben.

Aktuell erscheint mir eine gebrauchte Custom 1080Ti für unter 600€ deutlich attraktiver. So bahnbrechend die Technik hinter RT auch ist, muss sich für mich erst beweisen, ob sich sowas oberhalb von Full HD überhaupt benutzen lässt. Skeptisch bin ich auch mit dem DLSS, bzw. ob das nur in Kombination mit GFE funktioniert.
Wenns ganz blöd kommt, läuft RT nur in Full HD aktzeptabel, und mit den TC skaliert man dass wieder auf 4K hoch, und lässt sich dann feiern. Muss sich halt zeigen.

Wichtig wäre mir vor allem mehr reine Shaderleistung in 4K. Und hier gehen die Spekualtionen von +15 bis +60%. Das ist mir das Vorbestellen so nicht wert.
Zudem kann ich mich immer noch nicht mit dem Gedanken anfreunden auf G-Sync wechseln zu müssen. Es wäre halt wirklich toll, wenn man sich mit der GPU nicht zeitgleich auf eine gewisse Auswahl an Monitore festlegen müsste.

Den Test kann ich also in Ruhe abwarten. Auch bin ich gespannt ob sich nicht auch AMD vor den Turing Tests mit irgendetwas zu Wort meldet.
 
  • Gefällt mir
Reaktionen: elkechen
So gibt es laut dem Bericht bisher noch keine inoffiziellen Benchmarks, weil Nvidia bislang noch keine Treiber für die neuen Turing-GPUs herausgegeben hat.


Nvidia Geforce RTX 2080 & Co. - Weitere Details und erstes Datum für Tests

Bisher sind noch nicht alle Informationen zu den neuen Grafikkarten rund um die Geforce RTX 2080 bekannt, doch immer mehr Details sickern durch.


https://www.gamestar.de/artikel/nvi...ails-und-erstes-datum-fuer-tests,3333861.html
 
Trotzdem hat die 2080 "nur" 8GB VRAM...macht mich weng stutzig.
 
ZeroZerp schrieb:
Tja- Da macht es sich Herr Huang zu leicht. Wir haben es mit Rasterengines zu tun, die immernoch auf den gleichen Tricks basieren, wie es sie seit eh und je gibt. Die müssen sehr wohl optimiert werden, um Teilbereiche damit zu Raytracen. Teilweise werden ja durch Fakeeffekte gar keine "echten 3D" Informationen für die Projektionsmatrix hinterlegt. Wie soll denn da ein Raytracing greifen?

Bzw. wenn es greift, wie soll es dann nicht mit einem deutlichen Performanceverlust einhergehen, wenn man diese "Tricks" in die Raycasting- Matrix miteinbeziehen will?

Das weiß ich auch nicht, so gut kenne ich mich mit Engines auch nicht aus, weshalb ich zunächst von seinen Aussagen ausgegangen bin. Die Frage wäre dann aber, wie viel man da optimieren kann? So viel, dass man auf stabile 60fps in 1080p kommt oder so, dass man die 60fps auch in 4K stabil halten kann?

Bei letzterem fänd ich den Preis der 2080Ti immer noch sehr hoch, aber halbwegs vertretbar, bei ersterem frag ich mich immer noch, wer die Zielgruppe sein soll? Menschen mit 100€ 1080p 60 Hz Monitor, die eine 1250€ Grafikkarte kaufen würden? Oder mit 32" 4K Monitor, die für 1250€ und weichere Schatten gerne auf 1080p Pixelbrei umschalten? Jaja, hinter meinem Tellerrand gibt es bestimmt noch fünf oder sechs, die darauf nur gewartet haben. :D

Also Potenzial hat das sicher, irgendwann mal. ;) Und zu welchem Preis?
 
  • Gefällt mir
Reaktionen: r4yn3, Cpt.Willard und elkechen
HerrRossi schrieb:
Welche Bildunschärfe? Hast du echte Screenshots zum Vergleich oder meinst du wirklich diese Handybilder, wo der DLSS-Monitor out of focus war?
Das Foto soll nur die Fps zeigen, nicht die Bildqualität - bei sich bewegendem Inhalt geht das eh nicht.
 
Nero Winger 007 schrieb:
Das Oettinger kostet 6€ die Kiste das regionale liegt bei ca 14€. Ich als anti Biertrinker fragte ihn warum er nicht das regionale kauft, seine Antwort war "das Oettinger schmeckt für 1/3 des preises nicht 1/3 schlechter" und hey er hat völlig recht. Das sagen viele !

Wenn das viele sagen haben sie keine Ahnung wie Bier schmecken sollte, das Oettinger ist einfach nur schlecht...

Nero Winger 007 schrieb:
Warum einem Bauern 2€ für einen Liter Milch geben, wenn es auch einen Liter für 55 Cent gibt und das ebenfalls Milch von einer Kuh ist ?

Ganz einfach, schau die mal die großen Milchbauern an und wie dort die Kühe gehalten werden, Megaeuter die völlig abnorm sind, Kühe die auf den Laufband vollautomatisch gemolken werden, alles nicht Artgerecht und deshalb ist die Milch so billig, da zahle ich lieber zwei Euro bei einen Bauer, der seine Tiere Artgerecht hält.

@Topic, mir persönlich ist die Karte zu teuer, aber könnt der eine oder andere mir seine Glaskugel leihen, die anscheinend schon die Performance der neuen Karten weiß, vielleicht kann sie mir am Samstag vorab auch schon die Lottozahlen verraten :D
 
Zurück
Oben