News Battlefield V auf Turing: Durch DLSS angeblich mit Raytracing so schnell wie ohne

iron_monkey schrieb:
Soso,

DLSS ist also "besser" als das Rohmaterial... dieser Logik nach, braucht man bei genügend KI nicht mal mehr so hohe Ausgangsauflösungen... wann ist Schluss, wenn das Ursprungsmaterial nur noch aus 1x1 Pixel besteht? oder wie ist da die Abgrenzung?

Man muss sich das mal auf der Zunge zehrgehen lassen... da wird in nem Computerforum tatsächlich behauptet, nVidia kann nicht vorhandene Informationen herzaubern und diese übertreffen sogar die Qualität der echten Informationen?

Das kann dein Hirn doch auch... Und das ist auch nix anderes, als ein "Rechner".
Wenn du ein Bild ohne AntiAliasing vorgesetzt bekommst, kannst du dir vorstellen, wie es mit AA aussieht. Du könntest das sogar selbst am Rechner zeichnen bzw. bearbeiten, wenn du genug Zeit hättest. Und du brauchst dafür keine weiteren Informationen. Du kannst auch selbst entrauschen. Du erkennst in nem Bild rauschen und kannst dir genau vorstellen, wie es ohne aussieht. Und wenn du die Zeit hättest, könntest du theoretisch in Paint jedes einzelne Rausch-Korn mit der korrekten Farbe ersetzen.
Du kannst dir, wenn du ne Bildergallerie mit vielen Hochauflösenden, ähnlichen Bildern hast auch vorstellen, wie ein Bild aussehen muss, das in dieser Galerie nur in niedrigerer Auflösung vorliegt usw.

Aufgrund von Erfahrungswerten kann man sehr wohl sagen, wie etwas auszusehen hat, ohne dass man sich weitere Infos aus dem Rohmaterial holen müsste. Nvidia macht da praktisch nix andres. Und Nvidia sind ja nicht die ersten oder einzigen, die Bilder mit neuronalen Netzen skalieren oder erstellen... Daran wurde schon viele Jahre geforscht.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Krautmaster und n00p
Esenel schrieb:
Was willst du denn nun hören?
Oder belegt haben?

Ich will gar nichts belegt haben. Du hast doch schon deine Beweise gepostet. Da sehe ich halt keine min. fps bei deinen 165 auf Fjell.
 
xexex schrieb:
Die Frage wird nur sein, wann?

Preisvergleiche zu ziehen für mit einer Karte, die noch nicht mal angekündigt wurde und einer Karte die es seit 3 Monaten zu kaufen gibt, ist immer schwierig. [...]

Darum habe ich auch geschrieben
In einer Woche sind wir klüger...

Zumindest was die Ankündigungen auf der E3 angeht.
Zeitlich sehe ich aber kein riesiges Problem. Wir haben in dem angesprochenen Markt seit gefühlt 2 Jahren Stillstand und aus beiden Lagern ist noch nichts am Markt. Ob da 3 Monate Unterschied so gravierend sind... mag sein; kann ich nur für mich persönlich mit Nein beantworten.

Das Nvidia aber einen aggressiven Preiskampf anstrebt, bezweifle ich aus zwei Gründen:
- Marketing:
Man hat RTX gerade erst als teures Rebrand der Grafikkarten gestartet, das wird man mMn nicht so schnell mit billigen Modellen torpedieren. Da bringt man eher eine GTX Variante für den Markt unter 300$/€.
- Herstellungskosten:
Wenn die RTX auf dem TU106 der RTX basiert, ist der Die mehr als doppelt so groß, wie der GP106 der GTX 1060. Da wird der Spielraum für Preisanpassungen kleiner.

Und ganz persönlich; ich spiele auf meinem 1440p Monitor bestimmt nicht mit RTX Effekten in 1080p, was wiederum nur via DLSS hoch skaliert wurde. Ich kann mir aktuell beim besten Willen nicht vorstellen, dass das noch gut aussieht.

Wenn Tests etwas anderes zeigen, ändere ich meine Meinung gerne, aber bis dahin setze ich meine Hoffnung lieber in Navi mit hoffentlich genug Leistung für native 1440p mit reduzierten Details und FreeSync
 
hab bisher den 'neuen kram' von NV nicht so wirklich im auge bahalten, ist einfach schlicht unverschämt teuer und fällt daher für mich gleich weg.

daher hab ich jetzt erst begriffen das bei DLSS also quasie in schlechterer auflösung gerendet und dann hochgerechnet wird, was ist das denn für ein bullshit ?!

hab im hinterkopf das man ehr den umgekehrten weg genommen hatte, in höheren als der monitor-auflösung das spiel zu rendern und dann runter zu skalieren, damit man ein schöneres bild hat?!

scheinbar geht nv, mangels echter rechenleictung, nun den umgekehrten weg und meint der kunde würde das nicht merken/sich das gefallen lassen, wobei, es scheint so das sie recht behalten, der kunde ist eben blöd.

für mich ist das rendern in kleinerer auflösung und dann hochskallieren ein rückschritt in die vergangenheit und das für den preis der karten.
das schlimme ist, man bejubelt diesen mist auchnoch!

unterm strich hat man also jetzt/demnächst mit den neuen karten eine spiegelungs-berechnung die das spiel nurnoch in 1080p mit anständigen bildraten spielbar macht, also extrem bremst,
und dazu noch eine renderungsberechnung die mit schlechterer auflösung das ganze spiel berechnet und das dann hoch skalliert?!

das ist ja wie bei den konsolen wo man, mangels hardwareleistung, auch angefangen hat in kleinerer auflösung zu rendern und dann hoch zu sampeln um die 4k darstellen zu können ?!

für mich total unverständlich das da nicht kunden und magazine aufschreiben und sich veralbert fühlen!

nv 20xx generation ist SO für mich jedenfalls tot und es erklärt sich für mich auch, warum man so schnell zusieht die 10xx generation vom markt zu nehmen, es könnte ja irgendwann wenn die ganzen features laufen doch zusehr auffallen wie die neuen karten arbeiten und wie 'toll' das berechnete spiel dann danach ausschaut.....

edit: die nächste frage wäre dann, läuft da auch mit vulkan oder nur mit DX11/12?
ich habe spiele die vulkan nutzen und werde da nicht von ab gehen wollen(und können)......

ps.: und ich trug mich schon mit dem gedanken mir notfalls eine schnellere grafikkarte zu holen, weil ich meine spiele in 4k rendern und nur in 1080p darstellen will, bei mindestens 60hz, das kann ich mir mit nv-karten dann wohl abschminken, die rendern lieber in kleiner um dann hoch zu skallieren, da werden die kanten bestimmt wahnsinnig toll aussehen in zukunft.....
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Mcr-King
@ Laggy

Du versteht es scheinbar nicht!

Wenn Du von der Mona Lisa ein Bild hast was 640x480 Pixel groß ist und es mit nVidias Zaubertechnik auf 4K hohrechnest, hast Du ein Bild irgend einer Frau aber garnatiert niemals die Mona Lisa die Du hättest, wenn Du das Bild in 4K Aufgenommen hättest!

Es hilft auch nicht, wenn Du die Kanten und Farbverläufe verschmierst... das Resultat wird niemals die echte Mona Lisa in 4K zeigen!
 
  • Gefällt mir
Reaktionen: Iscaran, Mr_Tee und Mcr-King
iron_monkey schrieb:
Soso,

DLSS ist also "besser" als das Rohmaterial... dieser Logik nach, braucht man bei genügend KI nicht mal mehr so hohe Ausgangsauflösungen... wann ist Schluss, wenn das Ursprungsmaterial nur noch aus 1x1 Pixel besteht? oder wie ist da die Abgrenzung?

Man muss sich das mal auf der Zunge zehrgehen lassen... da wird in nem Computerforum tatsächlich behauptet, nVidia kann nicht vorhandene Informationen herzaubern und diese übertreffen sogar die Qualität der echten Informationen?

Dass es durchgängig besser sein muss, hat niemand behauptet - es könnte aber besser sein. Dein Denkfehler ist der, dass du meinst, das Referenzmaterial, mit dem das neuronale Netzwerk trainiert wird, wäre 4K. Tatsächlich spricht NV davon, dass das Training mit bis zu 64x Supersampling durchgeführt wird, also weit besser als 4K. Anders formuliert heißt das: Das neuronale Netzwerk hat möglicherweise Informationen, welche bei nativem 4K wegfallen würden.
 
  • Gefällt mir
Reaktionen: Laggy.NET
Esenel schrieb:
:-D
Nein die 980Ti ist nicht schneller als ne 1080.
So viel Prozentchen wie du da rumschmeisst wird einem ja schwindelig.

Meine 1080 schaffte 8500 Timespy Grafikpunkte.
Schafft deine 980Ti das auch?
[...]

Naja, Timespy ist kein sehr guter Vergleich, meiner Meinung nach. Die 980Ti kann OCed schon sehr gut mithalten.
 
  • Gefällt mir
Reaktionen: Mr_Tee und Mcr-King
SKu schrieb:
Ich will gar nichts belegt haben. Du hast doch schon deine Beweise gepostet. Da sehe ich halt keine min. fps bei deinen 165 auf Fjell.

Hab ich doch vorhin schon mal.
Ist dann bei 140 rum.
BF_V_Fjell_DX12_RTX_Off-1.png
 
4K ist selbst nur eine Annäherung und kein "perfektes Abbild". DLSS ist eine Annäherung zu 64x Supersampling. In einem Best-Case-Szenario müsste es deshalb nativem 4K überlegen sein.
 
Trotzdem Lantzen steigen und hohe Internet Geschwindigkeit braucht man auch dann kann man gleich Cloud Gaming machen.
 
Manche verstehen es auch nicht. DLSS soll natives 4k bzw UHD nicht ersetzen sondern nur eine optionale Option sein ein in etwa ähnliches Ergebnis mit stabilerer und höherer Performance zu bieten.

Bei manchen Games geht auch mit den stärksten GPU kein 4k/60fps bei Ultraeinstellung. Oft musst sogar auf mittlere Settings zum Teil zurück. Da kann UHD mit geschischten Setting schlechter sein als DLSS mit Ultra auf 4k hochgejagt.
Für sowas ist es ein Einsatzgebiet.

Ich zocke auch oft in 1800p aber pixelgenau und unskaliert. Per Upscaler am Monitor und TV wird 1800p immer unschärfer und verliert Farbtreue.
Schlechter als Checkerboard der PS4 Pro zum Teil.

Genau setzen solche Techniken wie Checkerboard oder DLSS an. Man verliert zwar Details aber hat trotzdem oft ein etwas besseres Ergebnis als wenn der Bildschirm skaliert.

Keiner zwingt Einen DLSS einzusetzen. Es ist nur eine weitere Möglichkeit der Darstellung. Mehr Optionen sind besser als kaum welche zu haben.

Dinge wie Ghosting bei TAA sind auch nicht gerade ansehnlich. Man spielt Games in Bewegung. Dass natives 4k beim Rumstehen besser aussieht ist halt der Punkt den nicht Jeden so stark juckt.

Mcr-King schrieb:
Trotzdem Lantzen steigen und hohe Internet Geschwindigkeit braucht man auch dann kann man gleich Cloud Gaming machen.

DSLL braucht keine permanente Internetverbindung. Man muss sich nur die trainierten Daten 1x runterladen zum Game von Nvidia.
 
  • Gefällt mir
Reaktionen: Laggy.NET und Belkar
@iron_monkey Meine Oma würde so wie du argumentieren. Die wundert sich auch immer noch warum Fernsehen funktioniert.
 
Zuletzt bearbeitet:
2060 = 350$ = $ ohne Mwst. = 400€ Endkundenpreis in D. Müsste doch nun jeder wissen.
 
  • Gefällt mir
Reaktionen: Mcr-King
Klar ist nur eins wer macht dass Kostenlos sorry NV bestimmt nicht vielleicht bald ein Abo DLSS kaufen. Naja und runter laden danke für jedes Game klar dann lieber Checkerboard der Ps4.
 
Esenel schrieb:
Hab ich doch vorhin schon mal.
Ist dann bei 140 rum.
Anhang anzeigen 738786

Ja, aber Fjell ist jetzt kein Maßstab für die allgemeine Performance in dem Spiel.
Dazu kommt noch, dass "Ultra" erst einmal keine Aussage über die Settings, die getroffen worden sind, zulässt.
Wurde eine .cfg benutzt? Sind auch andere Optionen aktiviert wie AO, Film Grain, FFR, usw.

Mal davon abgesehen, dass in BF keiner auf Ultra spielt, weil es Nachteile mit sich bringt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Was das Spiel viel dringender bräuchte, wäre die Option AA zur Gänze deaktivieren zu können. Wenn man's manuell per Konfig macht sind die Grafikfehler exorbitant.
 
iron_monkey schrieb:
Wenn Du von der Mona Lisa ein Bild hast was 640x480 Pixel groß ist und es mit nVidias Zaubertechnik auf 4K hohrechnest, hast Du ein Bild irgend einer Frau aber garnatiert niemals die Mona Lisa die Du hättest, wenn Du das Bild in 4K Aufgenommen hättest!

das nicht, aber das will man ja auch nicht hinbekommen. Man will nur ein hinreichend gutes Abbild der Mona Lisa in 4K, bei höherer Performance.

Auf PC Grafik gesprochen ist die "4K Mona Lisa" ja das 64x SuperSampled 4K InGame Bild, nicht 4K ohne jedes AA. Jetzt kannst du dir ja mal ausmalen wie viel mehr Performance 4K ohne AA oder 1440p + DLSS gegen 4K bei 64x SSAA liefert. Letzeres dürfte etwa bei 0,2 FPS liegen. :)

Edit: klingt interessant, https://petapixel.com/2017/10/31/website-uses-ai-enhance-photo-csi-style/, gleich ma testen
 
Zuletzt bearbeitet:
Sun-Berg schrieb:
Naja, Timespy ist kein sehr guter Vergleich, meiner Meinung nach. Die 980Ti kann OCed schon sehr gut mithalten.

Natürlich ist Timespy ein super Test, um die Performance einer Grafikkarte zu testen.
Genauso wie Firestrike und Superposition.
Dies sind standardisierte Tests, die ein ziemlich genaues Bild der Performance, einer Grafikkarte zulassen, da die Hersteller bei der Entwicklung dieser Tests mit involviert werden.

Da jedes Spiel und jede Engine auf eine Grafikkarte anders reagiert, nimmt man entweder standardisierte Tests, oder so viele verschiedene Spiele, dass diese eine statistische Auswertung der Gesamtheit zu lassen.
Da sprechen wir aber nicht von 10 Spielen, sondern eher von Tausenden.

Also was ist einfacher und genauer?

Nimm doch z.B. Fallout, welches auf 60 fps limitiert ist, weil die Spielgeschwindigkeit dranhängt.
Oder das neue Hitman welches selbst in 1080p nicht mehr als 60 fps schafft.
Meiner Meinung nach keine guten Tests für die echte Performance einer Karte.

SKu schrieb:
Ja, aber Fjell ist jetzt kein Maßstab für die allgemeine Performance in dem Spiel.
Dazu kommt noch, dass "Ultra" erst einmal keine Aussage über die Settings, die getroffen worden sind, zulässt.
Wurde eine .cfg benutzt? Sind auch andere Optionen aktiviert wie AO, Film Grain, FFR, usw.

Mal davon abgesehen, dass in BF keiner auf Ultra spielt, weil es Nachteile mit sich bringt.

Ja was denn nun?
Zuerst sagst du, es muss in Ultra getestet werden.
Und nun macht Ultra auf einmal keinen Sinn mehr?

Welche Map wäre denn für dich repräsentativ? :-D

Rotterdam mit der schlechtesten Performance?
Panzerstorm mit der Höchsten?
Oder Fjell was zwischendrin ist?

Ultra Preset mit dem Kinoschmarn (AO, Film Grain, FFR, usw.) auf Off.

Und wenn man in Ultra schon über 144 fps schafft, soll es in Einstellungen in "denen die Leute spielen" (Also fast alles auf Low) nicht funktionieren?

Also ich verstehe gerade nicht, wohin deine Argumentation nun führen soll?
 
  • Gefällt mir
Reaktionen: Oneplusfan
Zurück
Oben