News Nvidia Turing: Potentielle Benchmark-Ergebnisse entdeckt

Haha, ich hab’s doch gesagt! :D

DeusoftheWired schrieb:
Ein Gefühl sagt mir, daß je stärker Exklusivmerkmale wie diese in den Vordergrund gestellt werden, umso schwächer der Anreiz durch Benchmarkergebnisse sein wird.
 
  • Gefällt mir
Reaktionen: Yar und CBL
[wege]mini schrieb:
oder einfach älter werden.

so ab 40 sieht man eh kaum noch einen unterschied zwischen 60 und 120 fps. selbst flüssige 30fps sind dann noch annehmbar. zu mindest habe ich das bei mir beobachten können.

das spart jede menge geld und jede menge nerven. ich kauf dann immer die vorletzte generation oder sehr preiswert die letzte :D


*edit*
und habe fraps deinstalliert

mfg

Ich bin auch ende 30^^. Ich kann schon auch mit 30FPS spielen, weil man das sein lebtag so gemacht hat. aber 100FPS konstant sind schon sehr flüssig und klar in der Bewegung. Ich sehe das sehr deutlich. Nur ist mir das keine 1000Euro+ aufpreis wert. Aber sichtbar ist das :)

Hilft aber alles nichts für mich solang irgendwie alle Spiele gefühlt nur eine Kopie einer Kopie einer Kopie sind. Das sind wie Coverlieder aus den 70/80er. Sind sicher toll aber eher für jene gedacht die die Originalen nicht kennen.

Gäbe es wirklich Innovationen dann würde ich auch ggfs. zugreifen oder mich zum Kauf selbst überreden... Das einzige Spiel was für mich wirklich innovativ ist, ist Star Citizen... und das geht wahrscheinlich vor 2020/21 eh nicht live.
 
  • Gefällt mir
Reaktionen: bertlinger
Naja jetzt wissen wir auch warum die 2080TI sofort auf den Markt kommt. Die normale 2080 kann gegen die 1080TI kaum was ausrichten. Dass es nach Release der neuen Treiber besser werden soll glaube ich irgendwie nicht wirklich.

Ich habe es genauso erwartet. Pascal Refresh mit RT Cores nebenbei. Enjoy! :)
 
  • Gefällt mir
Reaktionen: Yar
@Ludwig55 Warum verteidigst du eigentlich so vehement NVidias Marketing Folien? Warten wir doch einfach mal den 14.09 ab und gucken, was dann noch an Leistung bleibt, ob der Preis gerechtfertigt ist und ob Raytracing im Vergleich zu traditionellen Reflexionen und Spiegelungen sein Geld wert ist.

Wenn ich in den entsprechenden Threads zum Thema Turing gucke, sind die meisten User meiner Einschätzung nach nämlich nicht der Meinung Raytracing oder DLSS wären schlechte Techniken, sondern das Paket, das Nvidia schnürt ist einfach... "halbgar".

Auch wenn 4k (144Hz, HDR) Gaming noch ein Nischendasein fristet -und das ist ja gemäß Steam eindeutig so- so ist es doch die Richtung, in die sich der Markt in den letzten Jahren entwickelt hat. Die meisten Ankündigungen zu Monitoren beispielsweise zielen auch genau darauf ab; weniger FullHD in 24 Zoll und mehr 144 HZ, 4k, HDR Monitore in 27 oder 32 Zoll. Wer sich einen entsprechenden Monitor gekauft hat oder das beabsichtigt, wird wohl kaum in 1080p damit spielen wollen.
Damit ist es schon paradox, wenn jetzt eine neue, teurere Grafikkarten Generation mit einem neuen Feature kommt und wir zum (ersten mal überhaupt?) unsere Auflösung wieder runter drehen sollen.

Vlt. wäre es "besser" in der Tech-Community angekommen, wenn NVidia Turing noch ohne RT und Tensor Cores vorgestellt hätte und dafür durch die Bank weg mit 20% mehr Leistung bei 10% niedrigerem Preis und 10% weniger Verbrauch anbieten würde. Bei einem dann entsprechend kleineren Chip und einem bekannten Verfahren, wäre das sicher im Rahmen gewesen ohne die Gewinne drastisch einstürzen zu lassen.

Wenn man dann den 7nm Shrink vollzieht, hätte man evtl. Raytracing ohne die oben genannten mMn gravierenden Kompromisse bringen können.

Und was die Entwickler angeht, NVidia hat schon immer gerne finanzielle Anreize gegeben, um die eigenen Techniken in Spielen zu haben. Bei Raytracing wird es nicht anders, auch wenn ich mir durchaus vorstellen kann, dass es auch aus kreativen Gesichtspunkten sinnvoll ist, darauf zu bauen.
Wenn allerdings nur 1%* der Spielenden (Bezogen auf z.B. alle Battlefield V Spieler) die Features überhaupt nutzen könne, wird der Grund für die Implementation wohl nicht nur in der "Umsetzung der künstlerischen Vision" liegen, denn da würde jeder rational denkende Verantwortliche die Reißleine ziehen.

*Wilde Spekulation meinerseits bezüglich der Adaptionsrate der neuen Karten im ersten Jahr.
 
  • Gefällt mir
Reaktionen: TheBear1517 und Der_Karlson
So genau weiß auch noch keiner wie DLSS funktioniert, muss der eigene Rechner dafür immer mit den NVIDIA Server verbunden sein ?
 
  • Gefällt mir
Reaktionen: mtmac
Könnte ne OC Founders gewesen sein vs. Founders 1080/TI. Die Frage ist wie viel da noch geht oberhalb 2025 MHz. Alleine mit einem Wasserblock boostet meine TI auf 2035 MHz und bei 2075 MHz ist da Ende.

Die Customs der 1080TI schaffen ja noch etwas mehr mit rund 2000 MHz, denke das ist fast ne Punktlandung.
 
Alle die hier über den preis meckern beachten viele faktoren der bisherigen it landschaft garnicht mit.

1.

Die 1070 , hatte bei release noch keinen mining boom miterlebt.... die preise sind immernoch nicht wieder auf normal niveau.

Nvidia erwartet offensichtlich, das miner bereit sind 1300€ für ne gpu zu zahlen

Die preise sind offensichtlich sehr hoch gewählt damit ein evtl mining run auf die neue architektur auch vernüftig abgeschöpft werden kann.

Sollte die 2080 bzw turing als architektur polaris in sachen mining in den schatten stellen, könnte es sein das tycoone die karten ab lager wegkaufen.

Und aus sicht von nvidia diesmal nicht für nen spottpreis im vergleich zum freien markt.


2.

Die vram preise sind immernoch höher
Als bei 1070 release. Also wird alles an gpus teurer sein atm als wir es bisher gewohnt waren.......

3.

Die 1070 hat tatsächlich einen gegenspieler -vega 56, und nvidia hatte vor die käufer die auf eine vega gewartet haben abzugreifen.
Ausserdem wurde sie direkt in der ähnlichen region angesiedelt vom preis, das amd mit vega auch preislich schon ab release unter druck steht.

4.

Nvidia baut die preisrange seid jahren kontinuirlich weiter nach oben aus.

Ich habe für ne 7900gt damals die zweitschnellste karte noch 309€ gezahlt.

ode die 8800gts 512 mb, die bei release auch mit das schnellste war was es gab, 180€ im zack zack angebot (referenz design)

Mit entsprechend kontra von amd muss nvidia eben was bieten

Wer glaubt ein börsen notiertes unternehmen behält den status quo bei, wenn es ein produkt monopol hat (high end grafikkarten), der sollte evtl nochmal die schulbank drücken.
 
ich habe mal was schönes rausgekramt. ist von ati, aber damals war bei nvidia ziemlich tote hose und vergleichbar ist es trotzdem.

https://www.computerbase.de/2003-09/test-radeon-7500-9800-pro/25/

andere preise, andere zeiten, unfassbar langsame karten :D

aber solche sätze sind doch schön zu lesen:
"Viel bringt der Umstieg, außer nutzbarem FSAA und schönerem AF, rein leistungsmäßig nur, wenn man mindestens eine Karte aus der Leistungsklasse der ...."

oder:
"Heute sind sowohl preislich als auch leistungsmäßig die Bereiche High-End, Mid-Range und Low-Budget klar getrennt und Überlappungen werden weitgehend vermieden. So gerüstet kann ATi mit seinen Board-Partnern guten Mutes in die Zukunft schauen. "

die namen ändern sich, die preise ändern sich aber es bleibt immer noch das gleiche produkt mit den gleichen problemen bei neuerungen :D

diesmal fängt halt nvidia mal mit was neuem an.

mfg
 
abzjji schrieb:
Nur dass "damals" die 1070 knapp vor der 980Ti lag...

Die 1070 hat bei Release auch 450€ gekostet und nicht 850€.

Naja, gegen eine Stock 980Ti trifft das zu. Die gängigen Modelle lagen so ~10% hinter der 1080 und ~10% vor der 1070. Wobei hier natürlich der massiv gesteigerte Takt den unterschied machte, 2GHz konnte man sich mit Maxwell nicht mal erträumen.
 
Wie war das bei vega? Vega ist ein Fail, weil:

1. Die selbe Leistung gibt's schon seit 2 Jahren.
2. Zu teuer.
3. Zu hoher Stromverbrauch.
4. Nur 8gb Speicher.
5. Sinnlose Hardware Features.
6. Nur gut in cherrypicked spielen, die die Hardware Features unterstützen.

Scheint so, als bräuchte man sich für den turing test nichts neues einfallen zu lassen.
 
  • Gefällt mir
Reaktionen: Herr Melone, mace1978, Stuntmp02 und 5 andere
Pixelkiller schrieb:
So genau weiß auch noch keiner wie DLSS funktioniert, muss der eigene Rechner dafür immer mit den NVIDIA Server verbunden sein ?

Sehr wahrscheinlich nicht. Ich vermute, DLSS wurde in einem Rechenzentrum auf gigantischer Datengrundlage trainiert und dann quasi in einen Chip gegossen.
 
Dai6oro schrieb:
@Ludwig55
Dein Optimismus in allen Ehren, aber ich halte mich an die derzeitige Faktenlage.

Achso deswegen verbreitest du also ungelegte Eier wie 720p mit 30 FPS, weil du dich an die Fakten hältst? Ich halte mich an bisher bekannte Fakten und versprühe auch keinerlei Optimismus, ich zitiere nur die Aussagen der Entwickler und sehe nicht ein warum diese Generation bevor sie gelauncht wird als Pascal Refresh dargestellt wird, das ist doch ein Scherz.

Man könnte nebenbei auch wissen dass verkleinerte Fertigungsprozesse einen ganz entscheidenden Faktor bei Leistungsaufnahme und Mehrleistung spielen, ansonsten würden wir noch mit 80nm fertigen wenn man das nicht bräuchte.
Dai6oro schrieb:
DAa ist eine RTX 2080Ti mit Tomb Raider in 1080p mit RTX On bereits überfordert, Die Metro Jungs sprechen von einem "Ziel" von 1080p @ 60FPS (und meinen damit bestimmt nicht die 2080).

Erstens ist das in Tombraider Alpha Software, die nachgepatched wird und zweitens wo sind deine 720p mit 30 FPS?
Du hast es doch behauptet, also muss es doch dafür auch gesicherte Quellen geben?

Für Metro sind 60 FPS@ Full HD vergleichbar mit Metro vor ein paar Jahren,lief damals auch auf High End nicht besser.
zusätzlich kann man RT auch abschalten, wenn man es nicht will, wo soll denn da das Problem liegen?

Wie meinst du also wird die wesenlich schwächere 2080 mit RTX on performen? Die Unwägbarkeiten mit den Low level APIs noch nicht mal angesprochen und DX12/Vulkan ist Vorraussetzung für RTX.

Nun sind es Unwägbarkeiten, damals als AMD ihre Karten vorstellte waren Vulkan, Directx12 noch der heisseste Shit.
Langfristig geht die Entwicklung hin zu Direct X12 oder Vulkan, erst recht mit dem Zugpferd Nvidia, schliesslich haben die 80%, wenn nicht mehr vom Gamingmarkt.

RTX ist ja nicht nur Raytracing, sondern auch die neue, vermutlich deutlich günstigere Kantenglättung.
Beispiel Battlefield. Es gibt bis heute keine saubere DX 12 Implementierung weder in BF1 noch in Battlefront2. Diese haben immer noch die markanten Spikes und ist damit schlicht nicht spielbar.

Und das liegt also an Directx12 womit die meisten Spiele völlig problemlos laufen, und nicht etwa an der spezifischen Implementierung und dem Mitschleppen der API in diesen Spielen?

Also ja Stand jetzt für mich ein Papierfeature (für die kleineren Karten außer der TI sowieso) und ich habe keine Hinweise, dass sich das ändern wird. Mitzahlen darf man aber das ist klar.

Für mich nicht, da sich auch bei den kleineren Karten , sofern deine kühnen 720p mit 30 FPS Befürchtungen zutreffen, auch der neue Kantenglättungsmodus aktivieren lässt und sich so gegenüber TSAA oder DSAA, oder klassischem MSAA Leistung einsparen lässt und es der erste „Postprocessing“ Filter sein kann der nicht das komplette Bild verwäscht, sondern primär Kanten glättet und Farbverläufe unberührt lässt.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Pixelkiller schrieb:
So genau weiß auch noch keiner wie DLSS funktioniert, muss der eigene Rechner dafür immer mit den NVIDIA Server verbunden sein ?

Geforce Experience + Accounterstellung bei Nvidia stehen schon fest. Die "DLSS-Impfungen" sind angeblich nur ein paar MB groß und kommen per Download. Technisch gesehen besteht keine Notwendigkeit für eine Dauerverbindung. Was aber nicht heißt, dass Nvidia das nicht trotzdem so haben will. :p
 
duskstalker schrieb:
Wie war das bei vega? Vega ist ein Fail, weil:

1. Die selbe Leistung gibt's schon seit 2 Jahren.
2. Zu teuer.
3. Zu hoher Stromverbrauch.
4. Nur 8gb Speicher.
5. Sinnlose Hardware Features.
6. Nur gut in cherrypicked spielen, die die Hardware Features unterstützen.

Scheint so, als bräuchte man sich für den turing test nichts neues einfallen zu lassen.

^this.
 
Affenzahn schrieb:
Sollte RT tatsächlich so toll (vor allem schnell) funktionieren wie angepriesen, wird dir jeder mit halbwegs Ahnung bestätigen dass es schlichtweg DER SHIT ist.

Vernünftige Render mit Raytracing (aus 3dmax, c4d, maya oder whatnot) brauchen für ein einzelnes Bild in annehmbarer, vergleichbarer Qualität ne Minute. Das wären 0.016 FPS

So gesehen sind selbst 30FPS @ 1080p tatsächlich eine krasse Leistung.

Dabei vergisst du aber, dass die RTX 2080 kein diffuses Raytracing oder gar Path Tracing global auf eine ganze Szene anwendet. Nvidia versteht unter ihrem Raytracing-Feature die partielle Anwendung von Raytracing-Methoden. Das hat rein gar nichts mit dem Rendering einer SFX-Blockbuster-Szene zu tun, bei der in der Regel Photorealismus angestrebt wird.

Was wollt ihr denn wissen? Wollt ihr wissen, ob eure Spiele mit einer RTX 2080 um Welten besser aussehen werden, wenn die Entwickler die paar Pseudo-Raytracing-Features der Turing nutzen?
Ganz klare Antwort: Nein, werden sie nicht.

Um ein langfristiges Aha-Erlebnis zu erzielen müsste die Grafikkarte Raytracing-Methoden in Echtzeit global auf eine ganze Szene anwenden können.
Und jetzt denkt mal ganz scharf nach: Wenn das heute schon mit einer GPU möglich wäre, warum bezahlt man dann noch einen Haufen Geld für die Anmietung einer ganzen Renderfarm?
Jetzt könnte man dem natürlich mit dem Argument entgegen, dass die GPU nach Nvidias Behauptungen ja "nur" 1080p bei 30fps rechnen muss.
Okay, dann kaufe ich mir halt zwanzig RTX 2080 Ti. Müsste ja dann locker reichen um eine 4K-Szene mit globalem Path-Tracing und photorealistischer Szenengestaltung in Echtzeit zu rechnen. Dann vermiete ich das Gerüst an Produktionsfirmen in Hollywood und werde stinkreich. :lol:

Kurz:
Glaubt nicht jeden Scheiß, den sich irgendeine Marketingabteilung ausdenkt.
Die 2080 ist am Ende eine aufgebohrte 1080. Paar mehr Frames und das war es dann auch schon. Die restlichen "neuen" Features sind in einer Spielszene völlig irrelevant und werden am Ende vielleicht von fünf Spieleentwicklern genutzt, welche diese wiederum als ein Kaufargument für ihre Spiele nutzen werden. Weltbewegend wird da aber nix.
 
  • Gefällt mir
Reaktionen: Yar, Herr Melone, 0-8-15 User und 7 andere
Ich tippe auf die RTX2080, das passt genau auf die Berichterstattung der Vergangenheit.

2070 Leistung einer 1080
2080 Leistung einer 1080ti
2080ti Leistung einer 1080ti+40%
Ergänzung ()

Nulight schrieb:
Dann habe ich mit der EVGA 1080Ti FTW3 im Abverkauf ja alles richtig gemacht und nicht voll ins Klo gegriffen.;)

Da die 1080ti momentan günstiger als die 2080 ist, bei gleicher Leistung, kann man schon sagen, alles richtig gemacht.
 
  • Gefällt mir
Reaktionen: isyyy
@Ludwig55

Nun jeder darf gerne dem Marketing glauben schenken oder der Aussage von der Lederjacke (bzgl. Alphastatus von RTX hat er glaub ich mindestens 7x betont it just simply works, also was denn nun?)

Ich für meinen Teil glaube weder den Nvidia Marketing noch Ihrem CEO zumal bisherige reale Erfahrung außerhalb der Folien eben doch eine andere Sprache sprechen. Und wenn ich RTX OFF spiele kann ich mir genauso eine 1080Ti kaufen (für diejenigen die noch keine haben)

Btw. darfst du gerne mal gelungene DX12 Implementierungen aufzählen die von Anfang an auch ohne Pronleme funktioniert haben.
 
[wege]mini schrieb:
die namen ändern sich, die preise ändern sich aber es bleibt immer noch das gleiche produkt mit den gleichen problemen bei neuerungen :D

diesmal fängt halt nvidia mal mit was neuem an.

So wie ich die Sache mit solchen Neuerungen bisher erlebt habe, haben die immer nur Erfolg gehabt (konnten sich am Markt durchsetzen), wenn sie von konventioneller Stärke begleitet/getragen wurden.

Beispiel 64Bit-CPUs.
Kein Mensch hat sich die ersten Athlon 64 wegen der 64Bit-Erweiterung gekauft. Die CPUs waren wegen ihrer Spitzenleistung mit herkömmlicher 32Bit-Software in 32Bit-Betriebssystemen erfolgreich und haben so das anfangs ungenutzte 64Bit-Feature nebenbei am Markt etabliert. Als dann später 64Bit relevant wurde (wegen mehr als 4GB RAM), war AMD64 so schon weit verbreitet, während Intel mit seinen Itaniums so gar keinen Fuß in den PC-Markt bekommen hatte und deshalb zähneknirschend AMDs 64Bit-Erweiterung übernehmen musste.

Beispiel Multicore-CPUs (Quadcore und mehr).
Auch da war die Single- und Dualcore-Leistung am Anfang wesentlich relevanter, als die 4 Cores. Es brauchte also Quadcores, die auch mit der vorhandenen 1-2-Thread-Software gut zurecht kamen und die zusätzlichen Cores praktisch als Zukunftsfeature mitbrachten. Es dauerte noch Jahre, bis ein Quadcore für typische Cosumeranwendungen und Spiele wirklich sinnvoll oder gar nötig wurde. Da waren die Quadcores der ersten Generation größtenteils schon lange wieder ausgemustert. Dieser Umstand wurde auch den Bulldozern zum Verhängnis, die Single-Core-Leistung für eine möglichst hoher Core/Modul-Anzahl opferten.

Fazit:
Nvidias RTX-Karten müssen mit reiner, konventioneller Stärke (Shader/Rasterization) überzeugen. Das P/L-Verhältnis muss passen, auch wenn man Raytracing-, Deeplearning und Co. komplett außen vor lässt.
Nur dann werden sich Karten mit diesen Zusatzfeatures ausreichend am Markt etablieren, so dass es für die Softwareentwickler (abgesehen von ein paar strategischen Nvidia-Partnern) wirklich interessant wird, sie zu unterstützen.
Zumal es zumindest anhand der bisher gezeigten ersten Demos danach aussieht, als würde selbst die 2080Ti ihre Probleme haben, ein AAA-Spiel noch flüssig in hoher Auflösung wiederzugeben, sobald RT und Co. aktiviert sind. Es wäre also gut möglich, dass die RTX-Features, wenn sie denn zukünftig mal voll ausgereizt werden, auf den Karten der ersten RTX-Generation mangels Leistungsfähigkeit gar nicht richtig genutzt werden können.

Deshalb ist für mich RTX kein wirklicher Faktor, wenn es darum geht, das P/L-Verhältnis der 2000er-Karten zu bewerten. Die müssen mit schnöder, konventioneller 3D-Leistung überzeugen. RTX ist nur ein kleiner Zukunftsbonus oben drauf, der vielleicht mal relevant werden könnte, aber halt nicht das Killerfeature, das diese Karten verkaufen kann.
 
  • Gefällt mir
Reaktionen: PULARITHA, chuckie, Ginmarr und 3 andere
Begu schrieb:
"Die Release-Treiber für die Vega64 gibt es noch nicht, mit den richtigen Treibern wird die locker 25% schneller sein als die 1080".
Erinnert sich noch jemand an Sätze wie diesen? Gekommen ist es genau so wie kurz vor Release bereits geleaked wurde. Warum sollte es bei Nvidia anders sein? Und wenn Nvidia selbst sagt, die 2080 ist ~50% schneller als die 1080, dann passen diese 37% doch perfekt.

Man kann nicht von einem Hersteller auf den anderen schließen, zumal es bei Vega mit den Treibern ja auch besser wurde. Es macht kein Sinn anhand eines nicht finalen Produkts Leistungsaussagen zu treffen. Zumal man nicht zu 100% sagen kann, ob es ein Engineering Sample ist oder eine finale Karte, welche Chipversion da drauf steckt. Ob es ein finaler Treiber war, ein Testtreiber etc. Man weiß auch nichts zum Testablauf, ob die Karte ein ein Serienbios hat, oder ob sie vielleicht höher getaktet ist... Man weiß nicht Mal genau, ob es eine Turingkarte ist, oder irgendein Testsample eines Speicherherstellers mit GDDR5X... Denn 2025mhz sind auch eine Taktstufe der 1080 und 7ghz kann man auch mit GDDR5X schaffen...

Aber hey, heutzutage fällt man ja Entscheidungen und Aussagen gerne Mal anhand zweifelhafter Informationen. ^^ Hauptsache man kann seine eigenen Erwartungen irgendwie darein interpretieren
 
abzjji schrieb:
Nur dass "damals" die 1070 knapp vor der 980Ti lag...
Mit Referenzkarten ja, die 980 Ti als Custom kann aber nach wie vor von der 1070 nicht geknackt werden.
Maxwell hatte in der Referenzversion noch deutlich mehr OC Potential für Partnerkarten, auch für manuelles OC war da noch Luft, bei Pascal ist da viel weniger drin, darum hat die 1070 auch nur bei Vergleichen mit Referenzkarten die Nase vorn.
 
Zurück
Oben