News Nvidia RTX-Plattform: 21 Spiele sollen Raytracing und DLSS unterstützen

steve127 schrieb:
die ray-tracing features der ersten generation werden so schnell veraltet und zu lahm sein wie ihr abzockladengamingfürangeberkiddiesihrkönntmichmal sagen werdet.

Darin hab ich inzwischen jahrelange Übung ;)
 
  • Gefällt mir
Reaktionen: Knecht_Ruprecht
Benji18 schrieb:
nochmal, es interessiert niemanden wirklich wieviel Strom die Karte verbrät, es interessiert auch niemanden was ein 8700k bei 5Ghz verbrät.
Das ist Unsinn. Das Übertakten den Stromverbrauch erhöht, negiert nicht die Tatsache, dass die Produkte unterschiedlich viel Strom verbrauchen und der Strom eben Geld kostet. Und da beim Übertakten der Stromverbrauch überproportional ansteigt wird es umso wichtiger, darauf zu schauen, was die Produkte so verbrauchen. Wenn man das über die Nutzungsdauer und die tägliche Nutzung mal zusammen rechnet, kommt schon was zusammen. Es mag dir vielleicht egal sein, aber du kannst damit nicht auf andere schließen, die schauen, was ein Produkt insgesamt kostet und nicht nur bei der Anschaffung.
 
  • Gefällt mir
Reaktionen: Volvo480
@Ulukay

:o

Ich glaube du könntest Recht haben. Hab grad nochmal ein paar Gerüchte gegoogelt (auch wenns nur Gerüchte sind). Die 2050 und 2060 kriegen vermutlich wirklich kein Raytracing, deswegen werden sie weiterhin als "GTX" bezeichnet statt RTX. Na toll...
Jetzt erklärt sich auch irgendwie, warum der gestern so lange auf Raytracing herumgeeiert ist. Weil es *das* Feature ist, was nur für die High End Karten bestimmt ist.
 
Ich weiss nicht warum der Schwerpunkt so auf Ray Tracing gelegt wurde. Sicherlich ist das der "Heilige Gral" auf dem Weg zum Fotorealismus aber dort kann man so viel Rechenleistung versenken wie man will.

Selbst wenn ich das Gefühl habe NVidia programmiert Teile des Spiels in ihren Treiber sehe ich ohne Unterstützung von Microsoft schwarz für eine spezielle NVidia Version eines Spiels. So abgehängt ist ATI noch nicht.

Eher hätte ich mir das wie Physik-Engine gewünscht. Die traditionelle Stärken weiter ausbauen und neues Feature anflanschen und sehen wie das angenommen wird. So profitieren alle Spiele von der größeren Leistung und die Entwickler haben etwas womit sie experimentieren können.

Die Preisgestaltung finde ich unglücklich. Sicher kann man Wunderwerke für viel Geld produzieren aber irgendwann ist der Bogen überspannt. Kommt mir vor wie Spielekonsole für sagen wir mal 7.000 EUR. Selbst wenn sie gemessen an der gebotenen Leistung ein Preiswunder wäre, die wird kein Erfolg.
 
Marco01_809 schrieb:
Deep-Learning Super Sampling, also eigentlich MSAA, nur dass man jetzt das identifizieren der Kanten Deep Learning anstatt den Entwicklern überlasst? Genial :freak:

Was redest du denn da bitte?! :freak:

MSAA musste noch nie Kanten "finden". Was für ein Blödsinn... MSAA glättet Geometriekanten und die sind bereits in Form der Meshes im Spiel enthalten.

Und genau da liegt halt auch das Problem. Es glättet nur Geometrie. Durch diverse Texturen und Shader entstehen aber weitere Kanten, die MSAA nicht glätten kann. Daher verwendet man heute meist Post Processing AA wie FXAA, SMAA oder TAA. Dort werden aktiv Kanten über ein definiertes Kontrastverhältnis gefunden und geglättet. Bei TAA werden zudem samples aus älteren Bildern incl. bewegungsvektoren extrahiert, um damit die Kanten im aktuellen Frame zu glätten. Zeitlich basiertes Supersampling wenn man so will.

Was DLSS genau ist kann man überhaupt nicht sagen, da es zu wenige Infos gibt. Wie es aussieht, hat Nvidia hier auf nem Supercomputer ein Neuronales Netzwerk so lange trainiert, bis es Bilder perfekt hochskalieren und mit neuen Details erweitern konnte. Wurde ja auf der Keynote erklärt. Diesbezüglich gabs vor einigen Monaten sogar mal News. Die Ergebnisse waren auf jeden Fall beeindruckend und zig-fach besser, als es ein Upscaler es je könnte. Es werden ja schließlich Bildinformationen bzw. neue Details erzeugt. Das kann ein Scaler nicht.

Das Neuronale Netzwerk kam eben so lange niedrig aufgelöste Bilder vorgesetzt, bis das Netzwerk es schaffte, sich die entsprechend höher Auflösende Referenzversion zu "erdenken". Ein üblicher Vorgang beim Deep learning. Man gibt Eingabe und Ausgabe vor und foltert die Hardware so lange, bis sie einen Weg findet, das zu erreichen, was vorgegeben ist. Sie lernt ja dazu...

Dieses Ergebnis, also die Funktion, dass das fertig trainierte Netzwerk niedrig auflösende Bilder in hochauflösende umrechnen kann, kann man dann in Form eines günstigen Schaltkreises auf Silizium bringen und verkaufen. So wirds eben Nvidia hier gemacht haben.

Und wenn man dann mit sowas in Spielen aus niedrig aufgelösten Frames hochauflösende mit zusätzlichen Details errechnen kann, kann man diese natürlich wieder zum Downsampling nutzen und so das ausgegebene Bild glätten. Deshalb das "SS" für SuperSampling, was ja der Schritt ist, der für Downsampling nötig ist.


Wies im Detail genau funktioniert, darüber werden wir sicher noch was erfahren, aber dass das nix mit MSAA zu tun hat, sollte jedem eigentlich klar sein.... Wenn das wirklich ordentlich funktioniert, dann wäre das kostenloses(?) Supersampling. Der heilige Gral der Kantenglättung wenn man so möchte.
 
  • Gefällt mir
Reaktionen: ZeusTheGod und xexex
Atkatla schrieb:
Das ist Unsinn. Das Übertakten den Stromverbrauch erhöht, negiert nicht die Tatsache, dass die Produkte unterschiedlich viel Strom verbrauchen und der Strom eben Geld kostet. Und da beim Übertakten der Stromverbrauch überproportional ansteigt wird es umso wichtiger, darauf zu schauen, was die Produkte so verbrauchen. Wenn man das über die Nutzungsdauer und die tägliche Nutzung mal zusammen rechnet, kommt schon was zusammen. Es mag dir vielleicht egal sein, aber du kannst damit nicht auf andere schließen, die schauen, was ein Produkt insgesamt kostet und nicht nur bei der Anschaffung.

es gibt zig tausend unterschiedliche Wege wie man "Stromsparen" kann und da würde ich als letztes an eine "Grafikkarte" denke vor allem da sich 99% der Leute so oder so eine Werkseitig Übertaktete Karte kaufen und die laufen nicht im sweetspot.

Das Stromspar Argument ist milde gesagt idiotisch thats it, wenn du Argumentierst das die Architektur für die Leistung effizienter ist und daher für dich Interessanter ist ok das verstehe ich aber das hat nichts im entferntesten mit Stromsparen im eigentlichen Sinne zu tun, schalte einmal z.b. den Wäschetrockner ein, was der an strom zieht da kannst deine Grafikkarte zig stunden unter last betreiben ;-)
 
PlayerUnknown’s Battlegrounds, das ist ja für seine Grafikpracht bekannt. :evillol::evillol::evillol:
 
Irgendwie komisch wie jetzt auf dem Thema Stromverbrauch rum geritten wird, bei Vega das nogo schlecht hin, jetzt wo nV auch bei dem Verbrauch ist (mit mehr Leistung) ist es völlig normal. Entweder sind >200 Watt zu viel oder nicht und nicht mal so oder so. Manchmal blickt man hier nicht mehr durch ...
 
  • Gefällt mir
Reaktionen: Ginmarr
Eigentlich genial wie man auf Leistungsebene, Softwarebene und API Ebene, die allgemeine technologische Entwicklung zu seinen Gunsten ausbremst und die mögliche "Konkurrenz" damit ins Aus schießt.
Denn DX11 ist nicht die stärke eines zukunft orientierten Unternehmen wie z. B. AMD, sondern die "stärke" eines platzhirsches, dieser große Furcht hat, dass sich die Marktlage verändern könnte und man den "gewohnten" Trampelpfad" verlassen müsste.

Dieses Unternehmen kotzt mich unglaublich an.
Es ist aktiv daran beteiligt, einer offenen und breit verfügbaren Weiterentwicklung und Forschung, negativ entgegen zu wirken.

Aber es handelt im "Rahmen" der freien Marktwirtschaft und nutzt "nur" die Hochphase des Turbokapitalistischen wachstumssystems...
 
  • Gefällt mir
Reaktionen: russianinvasion, Willnochreisen, vascos und eine weitere Person
Schrank schrieb:
in Zukunft wird man wohl eher im statistischen Mittel ein schönes Bild haben und einzelne Bilder werden komisch aussehen.

Deep Learning wird genau deshalb gemacht damit es eben nicht mehr "komisch" aussieht. Das tut es nämlich genau jetzt, da das statische, weil fest definierte Rendering, zwangsläufig nicht real aussehen kann. Die reale Welt ist nämlich nicht fest definiert. Da gibts viele Varianzen.

Ein mathematisch perfekt berechnetes Bild eines Raums ist eben nicht Real, sondern Ideal.

canada schrieb:
Entweder sind >200 Watt zu viel oder nicht und nicht mal so oder so. Manchmal blickt man hier nicht mehr durch ...

Bei einem Verhältnis von Preis/Leistung oder Performance/Watt gibt es 2 Seiten und das Verhältnis entscheidet.
Eine Stromaufnahme von 200W muss nicht "zu viel" sein, wenn man auf der anderen Seite entsprechende Leistung gegenüberstellt. Hätte Vega64 die 1080Ti durchgehend so um die 20% übertroffen, würde sie auch nicht "zu viel" verbrauchen.

NMA schrieb:
Eigentlich genial wie man auf Leistungsebene, Softwarebene und API Ebene, die allgemeine technologische Entwicklung zu seinen Gunsten ausbremst und die mögliche "Konkurrenz" damit ins Aus schießt.

Bremst nVidia aus indem sie Raytracing versuchen zu etablieren oder AMD, denen seit 5 Generationen kein neues Chipdesign einfällt?

NMA schrieb:
Denn DX11 ist nicht die stärke eines zukunft orientierten Unternehmen wie z. B. AMD, sondern die "stärke" eines platzhirsches, dieser große Furcht hat, dass sich die Marktlage verändern könnte und man den "gewohnten" Trampelpfad" verlassen müsste.

Der gesamte Ansatz von RTX basiert auf DirectX 12, weil es DXR unter DX11 gar nicht gibt. Erst war es ein Problem dass nVidia (angeblich) auf DX11 setzt und jetzt ist es ein Problem dass sie auf DX12 setzen?

donativo schrieb:
Aha so ist das also... Spiele die Nvidia RTX unterstützen werden auf NON-RTX Hardware entweder unspielbar langsam oder schlicht und einfach hässlich werden. Korrekt? Na danke für den tollen Fortschritt! Ich glaube ich muss echt mal auf eine Konsole wechseln....

Warum sollten Spiele plötzlich "hässlich" werden? Sie werden so aussehen wie sie heute auch aussehen. Oder vor 1,2,3 Jahren. Wenn du aus Trotz auf Konsole wechseln willst, scheinst du haber mit "hässlichen" Spielen eh keine Probleme zu haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen, ZeusTheGod, StefVR und 2 andere
donativo schrieb:
Aha so ist das also... Spiele die Nvidia RTX unterstützen werden auf NON-RTX Hardware entweder unspielbar langsam oder schlicht und einfach hässlich werden. Korrekt? Na danke für den tollen Fortschritt!

So in etwa versteh ich das auch. Wobei Raytracing Berechnungen auch auf herkömmlicher NON-RTX Hardware funktioniert, aber halt langsamer.

Oh man... mir schwant was...

Laut gestriger Information ist die 2080Ti ungefähr 6x schneller in Raytracing Berechnungen. Man muss sich allerdings auf der Zunge zergehen lassen, dass die hier die 2080Ti meinen. Wieviel schneller sind denn die anderen Karten? Ist die 2080 (non-Ti) vielleicht nur noch 5x schneller? Und die 2070 vielleicht nur noch 3-4x schneller als herkömmliche Grafikkarten?

Wenn dem so wäre, dann schrumpft natürlich dieser "bombastische" Vorteil sehr rasch wieder. Das würde sogar erklären, warum sie für die GTX 2060 und GTX 2050 gar keine Tensorcores mehr einbauen, weil sie vielleicht nur noch 1-2x schneller in den Berechnungen für Raytracing wären, und damit sich kaum mehr lohnen. Anstatt Tensorcores einzubauen, würden sie dieselbe Geschwindigkeit in den Berechnungen erlangen, indem sie einfach die normalen Shader Cores ein bisschen mehr als sonst erhöhen (was vermutlich billiger kommt).

Gesetzt den Fall, dass meine Schlussfolgerungen richtig sind... ist das ganze Theater doch mehr Schall und Rauch als wirklich ein Durchbruch.
 
  • Gefällt mir
Reaktionen: Knecht_Ruprecht
NMA schrieb:
Aber es handelt im "Rahmen" der freien Marktwirtschaft und nutzt "nur" die Hochphase des Turbokapitalistischen wachstumssystems...


sind halt auch nur Opportunisten wie das Gros der Globalplayer. Dass Nvidia erst vor ein paar Tagen die Raytracing Videos publik macht, ist wieder nur ein aufgeilen für das bevorstehende "Leading Technologies".
 
Sturmwind80 schrieb:
Sieht ja ganz nett aus, aber dann können Spieler mit RTX Karte die Spiegelung der Gegner sehen und Spieler ohne RT können dann nichts sehen? Das wird ja spaßig. :daumen:
Ja, das habe ich mir auch schon gedacht. Das wird in Zukunft in einigen Spielen ganz schöne Balancing Probleme mit sich bringen.
In Battlefield halte ich es wie gesagt noch nicht so kritisch. Das Spiel wird mir grafisch mittlerweile eh viel zu noisy, aber in einem Spiel wie Rainbow Six Siege könntest du RTX auf diese Weise nicht implementieren ohne den Spielern mit RTX-Karten einen massiven Vorteil zu verschaffen.

Wattwanderer schrieb:
Selbst wenn ich das Gefühl habe NVidia programmiert Teile des Spiels in ihren Treiber sehe ich ohne Unterstützung von Microsoft schwarz für eine spezielle NVidia Version eines Spiels. So abgehängt ist ATI noch nicht.
Na gott sei Dank sind Gefühle hier irrelevant. Insbesondere wenn sie auf 10 Jahre veralteten Informationen beruhen.

Eher hätte ich mir das wie Physik-Engine gewünscht. Die traditionelle Stärken weiter ausbauen und neues Feature anflanschen und sehen wie das angenommen wird. So profitieren alle Spiele von der größeren Leistung und die Entwickler haben etwas womit sie experimentieren können.
Das wirst du sicherlich erleben. DirectX12 enthält eine Machine Learning API für eine Leichte implementierung von Neuronalen Netzen auf den GPUs und du kannst davon ausgehen, dass nVidia die Tensor Cores auch in der eigene PhysX-Engine nutzen wird.
Aber auch hier profitieren auch nicht alle Spiele davon. Alle Spiele können erst von so einem Feature profitieren, wenn die Entwickler davon ausgehen können, dass 90% ihrer Spieler eine GPU mit NN Support besitzen und dauert noch eine Weile. Wenn das der Fall ist, dann werden NN auch im großen Stil eingesetzt und essenzieller Bestandteil des Gameplays werden.

Die Preisgestaltung finde ich unglücklich.
Mag vielleicht unglücklich sein aber nicht ungewöhnlich. Auch das letzte Mal lagen die Preise (UVP) auf dem Niveau. Heißt ja nicht, dass die Händler sich daran halten.


PS:
Zum Thema Stromverbrauch. Natürlich interessiert niemand den stromverbrauch der Karte, allerdings interessiert viele Leute den Geräuschpegel, den die Karte verursacht und der hängt stark vom Stromverbrauch ab.
Je sparsamer die Karte um so leiser ist sie und das ist für mich zum Beispiel schon sehr wichtig. Ich möchte beim Spielen nicht neben mit einen Kampfjet abheben hören der die Geräuschkulisse des Spiels ruiniert.
 
Zuletzt bearbeitet:
Benji18 schrieb:
es gibt zig tausend unterschiedliche Wege wie man "Stromsparen" kann und da würde ich als letztes an eine "Grafikkarte" denke vor allem da sich 99% der Leute so oder so eine Werkseitig Übertaktete Karte kaufen und die laufen nicht im sweetspot.
Womit der Unterschied beim Stromverbrauch umso wichtiger wird. Bloß weil Produkte übertaktet sind, wird doch nicht plötzlich der Strom billiger. Die Verbrauchsschere geht dann doch sogar noch weiter auseinander.
Das Stromspar Argument ist milde gesagt idiotisch thats it, wenn du Argumentierst das die Architektur für die Leistung effizienter ist und daher für dich Interessanter ist ok das verstehe ich aber das hat nichts im entferntesten mit Stromsparen im eigentlichen Sinne zu tun, schalte einmal z.b. den Wäschetrockner ein, was der an strom zieht da kannst deine Grafikkarte zig stunden unter last betreiben ;-)
Zum einen: ich habe nie von Strom sparen geschrieben. Ich habe deiner Aussage widersprochen, dass den Stromverbrauch niemanden interessieren würde. Mit der Begründung, dass die Kosten sich über die Nutzungszeit eben bemerkbar machen.

Zum anderen: Ist deine Argumentation etwa "B verbraucht mehr Strom, also kann der Verbrauch mir bei A auch egal sein?" Das ist eine unsinnige Argumentation, bei der man einfach Einsparmöglichkeiten ignoriert, nur weil man an einer anderen Stelle aus welchem Grund auch immer nicht mehr sparen kann.

Ich habe einen Bedarf, sei es eine Grafikkarte oder ein Haushaltsgerät und dann schaue ich, welches Produkt da am besten passt. Und der Verbrauch ist nunmal ein Faktor in den Gesamtkosten. Wo ist da das Problem? Es geht darum den Bedarf mit möglichst wenig Gesamtkosten zu decken. Ein aktueller A+++-Trockner zieht 1,45kWh pro Trockengang. Eine High-End-Karte läuft bei passionierten Spielern deutlich mehr Stunden als der Trockner, vom Verbrauch liegen beide am Ende in den gleichen Regionen. Auf den Stromverbrauch bei einer Grafikkarte schaue ich aus dem gleichen Grund, wie man bei einem Haushaltsgerätekauf auf die Energieklassen oder (noch besser) direkt auf die Stromverbrauchsangaben schaut : weil man am Ende den Verbrauch bezahlen muss. Und weils Luft bei uns gratis gibt, habe ich auch keinen Trockner. :)
 
canada schrieb:
Irgendwie komisch wie jetzt auf dem Thema Stromverbrauch rum geritten wird, bei Vega das nogo schlecht hin, jetzt wo nV auch bei dem Verbrauch ist (mit mehr Leistung) ist es völlig normal. Entweder sind >200 Watt zu viel oder nicht und nicht mal so oder so. Manchmal blickt man hier nicht mehr durch ...

es geht hier einfach schlicht darum das "Stromsparen" als Argument einfach nur idiotisch ist.

Karte X hat bei Leistung Y den Verbrauch Z stellt man das dem Konkurrenten gegenüber ist die Karte schneller und der Verbrauch niedriger dann ist die Architektur effizienter. Dann wäre das Argument die effizienz ist besser, was eine GPU bzw. ein Gaming PC verbraucht ist einfach zu vernachlässigen im vergleich zu Kühlschränken, Wäschetrocknern, Standby Geräten, etc.
 
Peinlich war eher, das die ganze Präsentation Show mit dem neuen Feature nicht überzeugen konnte und die Begeisterung die der Nvidia CEO Huang für sein eigenes Produkt an den Tag legte, nicht wirklich auf die Menschen in dem Saal/Halle übersprang. Da half es auch nicht, die Lederjacke auszuziehen und noch Gestenreicher zu argumentieren.

Einzig die RT Effekte in Battlefield 5, was die Spiegelungen und Reflektionen auf dem Auto und in den Fenstern der Häuser betrifft, konnten gefallen. Das man dann auch in der ganzen Präsentations Show, nicht einmal auf das zu erwartende Plus an Mehrleistung gegenüber den Pascal Grafikkarten eingegangen ist, lässt schon erahnen, was hier nach den ersten Benchmarks in Games mit der neuen RTX Serie, los ist. Ich fürchte, das werden keine guten Emotionen sein! :daumen:
 
  • Gefällt mir
Reaktionen: Ginmarr
Faust2011 schrieb:
Bei DLSS wäre für mich dann eher die Frage, wer hier das neuronale Netzwerk trainiert. Liegen Trainingsdaten dann im Nvidiatreiber? Oder passiert das on-the-fly? Oder braucht man gar einen Live Internetverbindung zum Nvidia-Server währende des Spielens? Letzteres wäre für mich ein absolutes No-Go :o:rolleyes:
IMHO ist das ganze eine riesige Sicherheitslücke, denn das Training findet auf nVidia Servern statt und wird dann an den Treiber geschickt. Ob das in Echtzeit passiert oder nicht, weiß ich nicht. Die TCores scheinen nur noch das Modell auszuführen.
 
pclovely schrieb:
Der aus dem THW-Artikel gefällt mir :D: "So bietet der kleine APEXX T3 Midi-Tower alles, was man für eine recht potente Workstation braucht. Zusammen mit dem Threadripper 2990WX werkelt eine der neuen Radeon Pro WX8200 im PC, womit auch die wahre Zielgruppe dieser CPU im Fokus gehalten wird: ernsthafte Content-Produzenten und nicht irgendwelche Gamer auf der Suche nach dem Größten und Längsten."
 
  • Gefällt mir
Reaktionen: yummycandy
Zurück
Oben