News Battlefield V auf Turing: Durch DLSS angeblich mit Raytracing so schnell wie ohne

Dai6oro schrieb:
Welche bugs?

- Flackernde Texturen oder gar keine Texturen
- Gegenstände verschwinden in Gebäuden, Böden oder Brücken (Versorgungskisten)
- Man bleibt überall hängen und kann teilweise nicht über knöchelhohe Hindernisse ohne Animation
- Die Animation bricht ab wenn man durch ein Fenster will oder über ein Hindernis
- unsichtbare Mauern
- Man bekommt Feuerschaden ohne in der Nähe eines Feuers zu sein (Airfield)
- Man bekommt Schaden wenn man über eine Mauer steigt (Arras)
etc. pp und das sind nur die die mir gerade so eingefallen sind. Dergleichen gibt es noch eine Menge mehr. Der Fokus sollte dennoch klar sein. Erst das eigentliche Spiel dann Bling Bling zumal RTX kein Mensch nutzt der das Spiel ernsthaft spielt.


Oh ja, die haben den einzigen Programmierer von den ganzen Bugs abgezogen um sich ausschließlich um RT und DLSS zu kümmern.....
 
  • Gefällt mir
Reaktionen: Lübke82
Pixelhomie schrieb:
Bin mal gespannt was AMD dann zur CES präsentieren will. Wenn eine RTX 2060 für 350$ schon Raytracing und DLSS bietet (und das sogar mit brauchbaren FPS) dann muss AMD aber schon ordentlich was in der Hinterhand haben sonst wirds wieder ein kompletter Fail.

Ansichtssache, wenn Navi auch nur halbwegs in der Nähe der Leaks liegt, ist das mMn der bessere Deal. Nimmt man einfach mal die AdoredTV Leaks als Grundlage wäre der größte Navi Chip "RX 3080" mit den folgenden Eckdaten versehen:
250$
150 Watt TDP
8GB GDDR 6
Vega 64 Leistung+ 15%

Bin ich realistisch/pessimistisch (je nachdem) mache ich daraus:
300$
180 Watt TDP
8GB GDDR 6
Vega 64 Leistung

Damit wäre AMD ~10% hinter einer RTX 2070, die aktuell bei Geizhals ab ~470€ gelistet ist. Die RTX 2060 hingegen ist wohl eher ~15-20% hinter der RTX 2070 bei immer noch 350$.

Da nehme ich persönlich lieber Navi ohne RTX und DLSS, zwei Features bei denen ich immer von der Gnade der Entwickler abhängig bin, ob sie denn jetzt implementiert werden oder nicht und die ich bei älteren Titeln schon mal gar nicht nutzen kann.

In einer Woche sind wir klüger...
 
  • Gefällt mir
Reaktionen: Mcr-King
Redirion schrieb:
Und warum könnte es nicht auch sein, dass auch RT Cores schon in der Titan V enthalten waren und nur nicht genannt wurden? ;) Tensor Cores hatte sie ja auch schon. Eventuell wollte Nvidia noch etwas warten, bevor sie die große Revolution des Hybrid-Renderings verkündeten. Selbst jetzt gibt es mit Battefield V lediglich einen einzigen Titel mit DXR.

Praktisch unmöglich. Der TU102 geht an die Grenzen des technisch machbaren. Da sind drin:
CUDA cores - ~4600 bei der Titan RTX
Tensor cores: 576
RT Cores: 72

Die Titan V soll also das alles haben - sogar mehr CUDA Cores mit 5120 - und soll noch die FP64 capabilities unterbringen, die die Titan RTX nicht hat, genauso wie ihr größerer Bruder aus der Quadro-Reihe. (RTX 8000).
So große Chips sind derzeit nicht machbar.
Ergänzung ()

cruse schrieb:
Nicht nur angeblich. Er hat screens und Einstellungen gepostet. Schau dir mal alles an...
Interessantes Thema. Dranbleiben. Noch fehlts an Bestätigung anderer User. Da ist zwar einer, aber mit anderen Einstellungen und sehr konfus.

@foxio deep learning=Training neuronaler netze

Die Titan V hat kein RT, meines Wissens nach, und ich hab zwei von ihnen im Rechner. Dummerweise bin ich auf Heimaturlaub und der Rechner steht in meiner Wohnung, deswegen hab ich im Moment keinen Zugriff, sonst würde ich es testen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: v_ossi
Das mit den Texturen in BF5 ist so eine Sache... Es gibt da nicht wirklich einen großen Unterschied zwischen Ultra und Low in meinen Augen, sondern das Texture-Streaming verändert sich mehr als die Texture-Qualität selbst.
Das war bei den vorherigen Battlefield Teilen noch anders, nach meinem Empfinden.
 
das_mav schrieb:
Meine 980ti Palit schafft easy 1550mhz ohne ins Powerlimit oder Templimit zu rutschen. Laut 3dGuru und 3dmark Seiten bin ich damit weit jenseits einer 1070 - eher schon ein wenig schneller als eine 1080.
Das Ding hat 200Euro gekostet - so kauft man Grafikkarten. Abgesehen von denjenigen die etwas meinen zu brauchen sind es wirklich nur Möchtegerns die mit 120fps dennoch schlechter sind als jene mit 60.

Spiel' mal gegen ein Brasilianisches Kind Fussball - da kommt die Ausrede "Der Schuh ist schuld" ebenso wenig an. Aber nungut - es muss eben für alles eine Käuferschicht geben. Wie ich hier mitlese weinen dennoch viele über die "Krüppelkarten" und "es soll endlich mal was gescheites" geben, haben aber alle WENIGSTENS eine 1080ti im Rechner stecken. Irgendwas passt da nicht, sind vielleicht auch die Schuhe.

Jop das gleiche bei mir. 300€ vor einem Jahr für die Poseidon, ohne Vcore Erhöhung stabile 1494 unter Luft, nur durch TT eingeschränkt. Wenn ich mal endlich ne custom dran klemmen würde geht sicherlich auch irgendwas in Richtung 1550 mit mehr Spannung und besserer Kühlung. Und von "1080" auf 1080 ti zu upgraden ergab für mich dann auch bei der letzten Generation keinen Sinn ;-)

@ Techno laut CB Benches war die 1080 Maxx ~15% schneller als die 980ti und die FE 9% schneller als eine 1342 mhz 980 ti. Packen wir 10% mehr Takt drauf sind wir nicht wirklich von einer 1080 FE entfernt. Die richtig guten Customs natürlich nochmal ein paar % mehr. Also auf 1080 FE Niveau (+-2% je nach Spiel) ist eine so hoch übertaktete 980 ti definitiv, solange der VRAM nicht limitiert. Dass hier noch ~10% auf die richtig guten Customs fehlen ist denke ich jedem von uns klar, aber wirklich in Grund und Boden getreten werden die 1500+ 980tis nicht.
 
  • Gefällt mir
Reaktionen: UNDERESTIMATED
Dann solltet ihr mal anfangen mit lesen. Selbst Experience wird dazu nicht gebraucht.
 
  • Gefällt mir
Reaktionen: kisser
Ich nenne es liebevoll GayFurz Experience...
 
Ne du solltest noch mal die ersten Ankündigungen dazu suchen. Da hat das Marketing ja noch voll krass von Künstlicher Intelligenz, KI, Neuronalen Netzen und da pow erof da klaut schwabuliert. Dazu alles mit Echtzeitunterstützung exklusiv über Spyperience für mega aktuelle Algorithmen zur Fütterung der RT Cores.

PS:
An dieser Stelle liegt dann auch unser einziges wirkliches Problem mit DLSS: nVidia liefert die Mustererkennungs-Sets leider nicht per Treiber aus, sondern augenscheinlich nur per GeForce Experience. Damit muß man sich dann auch bei nVidia registrieren und zum Erhalt neuer Mustererkennungs-Sets jenes nVidia-Tool ab und zu mitlaufen lassen, unter Umständen sogar ständig (falls der Treiber selbst lokal liegende Mustererkennungs-Sets nicht ohne GeForce Experience einladen kann). Dies mag für den einen ein geringfügiges Ärgernis darstellen, für andere geht es hierbei ums Prinzip: Für ein vollständig bezahltes Produkt sollten keine weiteren Rechtsakte notwendig sein, wie die Annahme der Lizenz zu GeForce Experience einen selbigen darstellt. Und gleichfalls hat das vollständig bezahlte Produkt auch den vollen Produktumfang inklusive des versprochenen Supports zu enthalten, ohne jegliche Bedingungen und Zwang zu zusätzlichen Tool, AGBs etc. Da DLSS sowohl ganz am Anfang als auch langfristig (wegen neu erscheinender Spiele) nur mit der Nachlieferung von neuen Mustererkennungs-Sets sinnvoll erscheint, gehören selbige nicht in ein extra Produkt wie GeForce Experience hinein – sondern zum originalen Produkt in Form der Grafikkarte hinzu, und damit eben nur in deren Treiber hinein.


Es gibt hierzu sogar Bedenken, ob nVidia das ganze nicht nur zum Puschen von GeForce Experience benutzten könnte, sondern letztlich auch als Einstieg für einen späteren Abo-Dienst – wo es gewisse Leistungen, die Cloud-basiertes Rechnen erfordern, nur noch mittels extra Accounts und später extra Bezahlung im Abonnement gibt. DLSS eignet sich hierfür noch nicht wirklich, da für DLSS ja nur ab und zu neue Mustererkennungs-Sets heruntergeladen werden müssen – etwas, was zu wenig ist, um da eine Gebühr dran zu hängen. Dies kann mit zukünftigen Innovationen aber auch ganz anders aussehen, denn insbesondere die kommende Grafikberechnung per RayTracing wird alte Gepflogenheiten komplett umkrempeln und damit clever denkenden Fast-Monopolisten durchaus Möglichkeiten an die Hand geben, die darauf folgenden Neuerungen vorsätzlich zugunsten der eigenen Kasse & Markstellung zu modellieren. Sofern nVidia sich nicht dazu durchringen sollte, die Mustererkennungs-Sets für DLSS auch in den normalen Treiber zu packen, tritt jenes eigentlich sehr hoffnungsvoll aussehende Feature mit einem durchaus schlechten Vorzeichen an.

26 august.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Sebbi
Btw. nix gegen Gays und auch nix gegen Fürze...
 
PrinceVinc schrieb:
Anstatt diesem müll sollten sie einfach endlich GPU's auf den Markt bringen die 4k@60FPS Rendern können und nicht etwas "entwickeln" das es "simuliert aber doch nicht ganz so gut aussieht"
Wie kann man nur so eine beschränkte Sichtweise haben?
Wenn es nach dir ging hätten wir heute keine ComputeShader, kein Tesselation und all die anderen wichtigen Technologien, die in jedem Spiel zum Einsatz kommen.
All diese Hardware-Features konnten bei ihrer Einführung auch nicht wirklich genutzt werden und haben zu großen Performanceeinbrüchen geführt, wenn man sie nutzte. Erst Jahre später wurden sie unverzichtbar.
Das war schon immer so und wird auch immer so bleiben. Bestehende Technik kann man nicht bis in alle Ewigkeit Jahr für Jahr verbessern.
Sei froh, dass Nvidia diesen Schritt unternimmt und dir nicht wieder nur eine 25% schnellere Grafikkarte andrehen will. Hier geht es um eine Investition in die Zukunft.

https://de.wikipedia.org/wiki/Disruptive_Technologie

PS:
Abgesehen davon soll DLSS teilweise sogar besser aussehen als natives 4k.
Ist fast so wie mit MP3. Die hören sich teilweise auch besser an als die originalen Wave Files obwohl sie mit Verlusten komprimiert sind.
Teilweise sieht es auch schlechter aus, aber im großen und Ganzen st es wohl ein sehr guter Kompromiss. Besonders weil es auch strake Framedrops sehr gut minimiert, die beim nativen Rendering auftreten.
Wenn es darum geht minimale Qualitätseinbußen in Kauf zu nehmen und dafür eine stabilere und höhere Framerate zu bekommen, dann weiß ich aber was ich davon wähle.
 
Zuletzt bearbeitet:
v_ossi schrieb:
Damit wäre AMD ~10% hinter einer RTX 2070, die aktuell bei Geizhals ab ~470€ gelistet ist. Die RTX 2060 hingegen ist wohl eher ~15-20% hinter der RTX 2070 bei immer noch 350$.

Die Frage wird nur sein, wann?

Preisvergleiche zu ziehen für mit einer Karte, die noch nicht mal angekündigt wurde und einer Karte die es seit 3 Monaten zu kaufen gibt, ist immer schwierig. Wenn es die Karten von AMD irgendwann gibt und wenn sie zu dem von dir genannten Preis auch in Deutschland lieferbar sind, kann Nvidia noch immer den Preis reduzieren und hat RTX ebenfalls als Bonus obendrauf. Zudem dürfte es bis dahin auch wesentlich mehr Titel geben die RTX/DLSS unterstützen.

Mit etwas "Pech" läuft es dann mit den AMD Karten wie bisher und monatelang sind sie nicht zu bekommen, erst recht nicht zu dem geleakten Preis.
 
Also spiele auch auch Battlefield, nur kommt es mir so vor, als würde die Performance von Woche zu Woche schlechter werden.

Ich habe im Schnitt 60 - 80FPS oder etwas mehr, mir kommt es aber so vor, als ob die Enginge ( Nebel, Regen, umfallende Bäume, einbrechende Häuser usw.) um mich herum träge bis ruckelt, was sehr irritierend ist. Auch habe ich das Gefühl, dass meine Eingaben verzögert reagieren (Input Lag?).

Ich habe mir erst vor wenigen Tagen noch eine Asus 1080 gekauft, weil meine 970 Ram Technik am Limit lief und es deswegen geruckelt hat. Die mini Lags die manchmal auch 1 Sekunden anhalten können, sollte eigentlich jeder kennen und haben.

Meine Spezifikationen liegen dabei sogar über dennen, die ich haben müsste bzw. die empfohlen werden.

1920x1200 60hz
MOBO Asus Rampage IX Extreme Treiber 417,35
Intel 4820 3,9Ghz unter Boost 3,9Ghz
GSKill Trident X F3 - 1600C7Q-32GTX CL 7.8.8.24 1,5Volt 32GB
läuft aktuell bei 668,5 1:10 9.9.9.24

Ich verstehe daher nicht wo hin die Vergleiche und Diskussionen um Raytracing und CO. hinführen sollen, wenn das Game so schon nicht Ruckelfrei läuft. Eigenartigerweise scheint es bei einigen Youtubern rückelfrei zu laufen und die nehmen noch neben bei auf. Also woran liegt es? Cache Speicher?

Hier noch ein paar Bilder von meinen aktuellen Settings, die ich eigentlich nicht so haben müsste.
Ich merke allerdings keinen wirklich Unterschied zwischen High und Ultra, es läuft immer gleich beschissen.
Ergänzung ()

RYZ3N schrieb:
Wenn sich die RTX 2060 auf dem Niveau der GTX 1070 Ti [teils sogar GTX 1080] einpendeln sollte, kein schlechter Deal für 350,— Euro.

400,— Euro fände ich schon wieder zu viel, denn selbst ein RX VEGA 56 [z.B. Sapphire Pulse RX VEGA 56 für 389,— Euro] bekommt man mit UV+OC auf das Niveau einer RX VEGA 64 [und somit GTX 1080.]

Natürlich ist eine RTX 2060 viel effizienter, aber mehr als 350,— Euro halte ich dennoch nicht für angemessen.

Hinzu kommt, wenn da nicht die 3, 4 und 6GB VRAM wären.

Liebe Grüße
Sven


Nope, die Vega 64 ist schlechter als eine 1080er und kostet 450€!
Auch hier funktioniert deine Angehensweise, da übertakte ich meine 1080er und bin schon wieder besser als eine Vegas 64. :-D
Ergänzung ()

Botcruscher schrieb:
Ne du solltest noch mal die ersten Ankündigungen dazu suchen. Da hat das Marketing ja noch voll krass von Künstlicher Intelligenz, KI, Neuronalen Netzen und da pow erof da klaut schwabuliert. Dazu alles mit Echtzeitunterstützung exklusiv über Spyperience für mega aktuelle Algorithmen zur Fütterung der RT Cores.

PS:
An dieser Stelle liegt dann auch unser einziges wirkliches Problem mit DLSS: nVidia liefert die Mustererkennungs-Sets leider nicht per Treiber aus, sondern augenscheinlich nur per GeForce Experience. Damit muß man sich dann auch bei nVidia registrieren und zum Erhalt neuer Mustererkennungs-Sets jenes nVidia-Tool ab und zu mitlaufen lassen, unter Umständen sogar ständig (falls der Treiber selbst lokal liegende Mustererkennungs-Sets nicht ohne GeForce Experience einladen kann). Dies mag für den einen ein geringfügiges Ärgernis darstellen, für andere geht es hierbei ums Prinzip: Für ein vollständig bezahltes Produkt sollten keine weiteren Rechtsakte notwendig sein, wie die Annahme der Lizenz zu GeForce Experience einen selbigen darstellt. Und gleichfalls hat das vollständig bezahlte Produkt auch den vollen Produktumfang inklusive des versprochenen Supports zu enthalten, ohne jegliche Bedingungen und Zwang zu zusätzlichen Tool, AGBs etc. Da DLSS sowohl ganz am Anfang als auch langfristig (wegen neu erscheinender Spiele) nur mit der Nachlieferung von neuen Mustererkennungs-Sets sinnvoll erscheint, gehören selbige nicht in ein extra Produkt wie GeForce Experience hinein – sondern zum originalen Produkt in Form der Grafikkarte hinzu, und damit eben nur in deren Treiber hinein.


Es gibt hierzu sogar Bedenken, ob nVidia das ganze nicht nur zum Puschen von GeForce Experience benutzten könnte, sondern letztlich auch als Einstieg für einen späteren Abo-Dienst – wo es gewisse Leistungen, die Cloud-basiertes Rechnen erfordern, nur noch mittels extra Accounts und später extra Bezahlung im Abonnement gibt. DLSS eignet sich hierfür noch nicht wirklich, da für DLSS ja nur ab und zu neue Mustererkennungs-Sets heruntergeladen werden müssen – etwas, was zu wenig ist, um da eine Gebühr dran zu hängen. Dies kann mit zukünftigen Innovationen aber auch ganz anders aussehen, denn insbesondere die kommende Grafikberechnung per RayTracing wird alte Gepflogenheiten komplett umkrempeln und damit clever denkenden Fast-Monopolisten durchaus Möglichkeiten an die Hand geben, die darauf folgenden Neuerungen vorsätzlich zugunsten der eigenen Kasse & Markstellung zu modellieren. Sofern nVidia sich nicht dazu durchringen sollte, die Mustererkennungs-Sets für DLSS auch in den normalen Treiber zu packen, tritt jenes eigentlich sehr hoffnungsvoll aussehende Feature mit einem durchaus schlechten Vorzeichen an.

26 august.


Jepp und jetzt heißt es auf einmal, sie muss für jedes Spiel extra antrainiert werden.
Als ob die Hersteller von Spielen nicht schon genug zu tun hätten.
Nun müssen sie auch noch Spiele VR fähig machen, PhysikX Kompatibel, Raytracing optimieren, DLSS optimieren und ganz neben bei noch die eigenen Bugs Fixen und InGame Optimierungen vornehmen...
 

Anhänge

  • BF1 Bild.jpg
    BF1 Bild.jpg
    174,8 KB · Aufrufe: 422
  • BF5 Bild 2.png
    BF5 Bild 2.png
    568,7 KB · Aufrufe: 437
Zuletzt bearbeitet:
Creeper777 schrieb:
Nope, die Vega 64 ist schlechter als eine 1080er und kostet 450€!
Nö, deine Rechnung geht leider nicht auf.

In FullHD sind RX VEGA 64 und GTX 1080 exakt gleich schnell.

Und in WQHD [die eigentliche Zielauflösung für diese GPUs], ist die RX VEGA 64 ~ 4% schneller als die GTX 1080.

19BF22A3-2699-4314-8566-EFAACC973030.jpegB8FFC76C-F30A-4848-991D-157F941E65DA.jpeg

Creeper777 schrieb:
Auch hier funktioniert deine Angehensweise, da übertakte ich meine 1080er und bin schon wieder besser als eine Vegas 64. :-D

Auch hier liegst du falsch, denn die RX VEGAs lassen sich per UV und OC ganz ausgezeichnet übertakten und auch in den Benchmarks siehst du eine übertaktete 64er Strix vor einer übertakteten 1080.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: Iscaran, Acedia23, Terminator-800 und eine weitere Person
noxon schrieb:
Wie kann man nur so eine beschränkte Sichtweise haben?
Wenn es nach dir ging hätten wir heute keine ComputeShader, kein Tesselation und all die anderen wichtigen Technologien, die in jedem Spiel zum Einsatz kommen.
All diese Hardware-Features konnten bei ihrer Einführung auch nicht wirklich genutzt werden und haben zu großen Performanceeinbrüchen geführt, wenn man sie nutzte. Erst Jahre später wurden sie unverzichtbar.
Das war schon immer so und wird auch immer so bleiben. Bestehende Technik kann man nicht bis in alle Ewigkeit Jahr für Jahr verbessern.
Sei froh, dass Nvidia diesen Schritt unternimmt und dir nicht wieder nur eine 25% schnellere Grafikkarte andrehen will. Hier geht es um eine Investition in die Zukunft.

https://de.wikipedia.org/wiki/Disruptive_Technologie

PS:
Abgesehen davon soll DLSS teilweise sogar besser aussehen als natives 4k.
Ist fast so wie mit MP3. Die hören sich teilweise auch besser an als die originalen Wave Files obwohl sie mit Verlusten komprimiert sind.
Teilweise sieht es auch schlechter aus, aber im großen und Ganzen st es wohl ein sehr guter Kompromiss. Besonders weil es auch strake Framedrops sehr gut minimiert, die beim nativen Rendering auftreten.
Wenn es darum geht minimale Qualitätseinbußen in Kauf zu nehmen und dafür eine stabilere und höhere Framerate zu bekommen, dann weiß ich aber was ich davon wähle.

Ich hab so meinen groll wenn es um Nvidia geht der bis zur GTX970 zurück geht.

Bedauerlicherweise haben sie mittlerweile ein quasi-Monopol wenn es um GPU's geht und ihre hände in fast jedem neuem Spiel.

Aber die Tatsache, dass sie sich davor verschließen Freesync freizuschalten um ihr ~200€ teureres minimal bessere G-Sync zu verkaufen, der V-Ram GTX970 "Skandal", Ray Tracing als etwas neues zu Verkaufen obwohl es vor Jahren schon erfunden wurde und es als Grund nehmen die Preise zu erhöhen Kurz nachdem die 10xx serie abgeschlossen wurde, und jetzt zich versionen der RTX2060 rausbringen und material auf diese weiße verschwenden, lässt mich sehr skeptisch werden.

Ich gebe zu das es doch eher harsch formuliert war. Und neue Technik zu entwickeln ist gut. Das "Problem" ist nur die Leute die es gerade entwickeln stehen für mich nicht gerade im besten licht zur zeit.
 
  • Gefällt mir
Reaktionen: Mcr-King, Unnu und Traumwandler 75
Marflowah schrieb:
Bin nicht so überzeugt davon, Auflösungen "heimlich" zu verringern und dann zu versuchen, diese mit KI-DeepLearning-Hokuspokus hochzuschummeln.
mir ist es persönlich egal wie man zu besseren/schöneren "bildern" kommt, hauptsache es funktioniert.
viele spieler reduzieren ja die grafiksettings in multiplayer-spielen um damit 100+fps zu erreichen, dafür bekommen die dann auch 100+ frags, angeblich XD

ich versuche immer mit maxsettings zu spielen, von einer schönereren grafik habe ich persönlich mehr als von einem kill mehr oder weniger.
 
  • Gefällt mir
Reaktionen: Mcr-King und Lübke82
Trochaion schrieb:
Dummerweise bin ich auf Heimaturlaub und der Rechner steht in meiner Wohnung, deswegen hab ich im Moment keinen Zugriff, sonst würde ich es testen.
Jo mach mal bitte. Orientier dich am besten an den Einstellungen von
TobiWahnKenobi, die er hier gepostet hat: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=590648&page=158
Kannst ja auch mal die restliche Diskussion dort mitverfolgen.
Hat ja jetzt keine Eile... Ist ja schließlich Urlaubszeit ;-)
 
noxon schrieb:
PS:
Abgesehen davon soll DLSS teilweise sogar besser aussehen als natives 4k.
Ist fast so wie mit MP3. Die hören sich teilweise auch besser an als die originalen Wave Files obwohl sie mit Verlusten komprimiert sind.

Man kann bei 4k mehr Bildpunkte ergo Information darstellen, als bei geringerer Auflösung, was ja wohl bei DLSS verwendet wird. Wenn also nativ die Information für 4k Darstellung vorhanden ist, kann also schon rein durch den gringeren Informatonsgehalt bei geringerer Auflösung, die Darstellung nicht besser sein, egal was ich da für Prozesse darauf los lasse. Sie kann höchstens anders und von mir aus glatter (oder für Dich schöner) aussehen. Sie kann aber nicht besser sein, da man ja die fehlende Information nicht herbeizaubern kann.
Das gleiche gilt für MP3's. Die durch die Kompression verlorene Information kann nicht herbeigezaubert werden.
Es kann Dir besser gefallen was dabei rauskommt. Besser als das Orginal kann es aber nicht sein. Genau deshalb hat man ja auch verlust freie(re) Kompressionsmethoden als alternative zu MP3 entwickelt

Cunhell
 
  • Gefällt mir
Reaktionen: zhompster, Recharging, cM0 und 3 andere
Zurück
Oben