• Mitspieler gesucht? Du willst dich locker mit der Community austauschen? Schau gerne auf unserem ComputerBase Discord vorbei!

Test Avatar: Frontiers of Pandora im Test: Fantastische Grafik will viel GPU-Leistung

@Taxxor Danke für's Korrigieren!
Ich hatte nur allgemein an das Upscaling gedacht. "FMF" spielt für mich (bzw. meine RX 5700 XT) noch keine Rolle.
 
UVLWheezle schrieb:
Was ich immer wieder spaßig finde, sind die Leute, die eine 4070 TI als 4K-Karte sehen. das ist eine WQHD-Karte, die in Ausnahmefällen 4K kann, aber dafür nicht designt wurde. Ich kann ehrlich gesagt keinen 4k-Monitor-Besitzer verstehen der sich dazu nur eine 4070 TI "gönnt".

Wenn schon 4K-Monitor, dann auch eine Grafikkarte die auch dafür designt wurde.

Für WQHD ist die Karte super geeignet.

Roach13 schrieb:
Kann ich so unterschreiben 👍

Für 4k kauft man eine 4080 bzw 7900 XTX oder am besten gleich die 4090

Äh nö?

Mag sein das div. Leute auf dem Holzweg sind, wenn Sie behaupten "eine xx70ti müsse doch alles in UHD mit guter Performance bewältigen können".

Die Kombi 3070Ti und UHD-Monitor funktioniert für mich aber ganz wunderbar. D.h. sehe ich die Aussage sehr pauschalisierend an.
Ich spiele immens viele Spiele mit Release bis zum Erscheinungsjahr der 3070Ti mit bis zu UHD-Auflösung. Danach nimmt der prozentuale Anteil der Games zu wo ich entsprechend etwas regeln muss (um UHD zu halten) oder man (falls möglich) die gerenderte Auflösung prozentual herunterregelt. Alles fine.
Wenn man damit zufrieden ist, warum sollte man einen nicht ganz unerheblichen Aufpreis zur xx80(Ti) oder gar xx90 zahlen?
Wusste gar nicht das ich Geld im Überfluss ausscheide und es daher keine Kompromisse mehr gibt :daumen:

Und (falls das "Argument" kommt) der Aufpreis WQHD-Monitor zu UHD-Monitor hat damit nicht zwingend was zutun, wenn man damit z.B. auch noch Fotos bearbeitet/Filme schaut/im HomeOffice knechtet....

D.h., jede Anwendung kann mit einer gamingtauglichen Grafikkarte je nach Performance ganz entspannt verwendet werden. Auch mit einer 4070Ti ...
UND nein der Kauf eines UHD-Monitors setzt nicht automatisch den Kauf einer sehr teuren/performanten Grafikkarte voraus, warum auch...
Ergänzung ()

UVLWheezle schrieb:
Das sind eher die Nutzer, die sich darüber beschweren, dass sie nicht mit 144Hz (alles darunter verursacht "Augenkrebs" :)) spielen können und in 4K über "nur" 12GB VRAM jammern:heul:.
Wen du damit meinst, hab ich jetzt erst gelesen. Du schreibst aber auch so, dass man es schnell falsch verstehen kann.
Die Leute die du da beschreibst haben einfach keine Ahnung welche Technik ihre Bedürfnisse voraussetzen. Und diese Brille wendest du auf jeden an?

UVLWheezle schrieb:
Wer hat dich denn gezwungen?
Warum hast du keine leistungsfähigere Grafikkarte?
Auch dieser Satz wieder, man muss doch nicht von "jemanden" gezwungen sein so wie du das scheinbar implizierst. Als stünde einem da jemand mit einer Knarre im Nacken. Nein man kann aufgrund diverser Kaufentscheidungen, Vorlieben, GRÜNDE, technologischer Zusammenhänge "gezwungen" sein eine Auflösung zu verwenden. Ist doch völlig okay.

UVLWheezle schrieb:
Davon ab, wenn du mit 60 Hz zufrieden und ggf. in der Lage Regler zu bedienen bist, bist du nicht der richtige Adressat meines Posts.

Er hat einen 4K-Monitor und eine 4070Ti, du hast selbst geschrieben, dass du solche Leute nicht verstehen würdest. Darauf hat er sich bezogen. Vllt. einfach mal klarer differenzieren ;) ...
UVLWheezle schrieb:
Ich kann ehrlich gesagt keinen 4k-Monitor-Besitzer verstehen der sich dazu nur eine 4070 TI "gönnt".
 
Zuletzt bearbeitet:
Czk666 schrieb:
Bei mir hängt sich das Spiel immer nach paar Minuten auf. Sowas hatte ich schon sehr lange nicht mehr. So viel zum Thema sauberer Release.
OC oder UV am laufen?
Dann nehms mal raus, vielleicht ist es nicht stabil.
 
Sierra1505 schrieb:
Mag sein das div. Leute auf dem Holzweg sind, wenn Sie behaupten "eine xx70ti müsse doch alles in UHD mit guter Performance bewältigen können".
Genau um diese Leute geht es.

Sierra1505 schrieb:
Die Kombi 3070Ti und UHD-Monitor funktioniert für mich aber ganz wunderbar. D.h. sehe ich die Aussage sehr pauschalisierend an.
Ja keine Frage, dass kann ich mir sogar gut vorstellen, aber viele Posts, auch in diesem Thread, lassen auf etwas anderes schließen (siehe weiter unten).
Sierra1505 schrieb:
Ich spiele immens viele Spiele mit Release bis zum Erscheinungsjahr der 3070Ti mit bis zu UHD-Auflösung. Danach nimmt der prozentuale Anteil der Games zu wo ich entsprechend etwas regeln muss (um UHD zu halten) oder man (falls möglich) die gerenderte Auflösung prozentual herunterregelt. Alles fine.
Wenn man damit zufrieden ist, warum sollte man einen nicht ganz unerheblichen Aufpreis zur xx80(Ti) oder gar xx90 zahlen?
Da gehörst du glaube ich aber nicht mehr zur Mehrheit. Bei ganz vielen habe ich den Eindruck, dass alles außer alle Regler nach rechts schon überfordert.

Das Spiele, die 2 1/2 Jahre und älter sind mit der 3070 TI funktionieren kann ich mir gut vorstellen, bei aktuellen Spielen sieht das aber, wie du selbst schreibst, ganz anders aus.
Sierra1505 schrieb:
D.h., jede Anwendung kann mit einer gamingtauglichen Grafikkarte je nach Performance ganz entspannt verwendet werden. Auch mit einer 4070Ti ...
UND nein der Kauf eines UHD-Monitors setzt nicht automatisch den Kauf einer sehr teuren/performanten Grafikkarte voraus, warum auch...
Hier geht es aber nicht um Anwendungen, die kann ich auch mit integrierter Grafikkarte gut nutzen, sondern um aktuelle Spiele. Auch ich mache natürlich Kompromisse, gehe diese aber bewusst ein und beschwere mich nicht nachher, dass alles nicht so performt, wie ich es gerne hätte.
Sierra1505 schrieb:
Er hat einen 4K-Monitor und eine 4070Ti, du hast selbst geschrieben, dass du solche Leute nicht verstehen würdest. Darauf hat er sich bezogen. Vllt. einfach mal klarer differenzieren ;) ...

Nochmal zur Klarstellung: Ich kann die Leute nicht verstehen, die sich einen 4K Monitor zum Spielen kaufen und dann bei der Grafikkarte sparen wollen, um sich danach in aktuellen Spielen über nicht vorhandene Performance bei Maximaleinstellungen zu beschweren. Differenziert genug ;)? Wobei ich nicht sage, dass der Mitforianer sich beschwert hätte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx
@Wolfg
Wolfgang schrieb:
Das ist dann also auch böse ;) DLSS und FSR nutzen dagegen Bildinformationen von bis zu 40, 50, 60 Frames vorab.
Soso, 60 Frames im Voraus und das ohne Latenzverzögerung, bin mal gespannt wie das funktionieren soll. Das Spiel kann keine 60 Frames voraus sehen, wenn die Daten dafür noch gar nicht da liegen. Ergo ist dies nur möglich mit einer Latenz. Es sei denn, dein Computer ist eine Zeitmaschine. Ansonsten lassen sich keine Daten vorab berechnen, welche noch gar nicht vorhanden sind.

Und dass du Anmaßend bist, zeigt alleine die Tatsache wie du dich darüber äußerst. Stichwort „böses DLSS“. Du machst dich über Kritik sogar lustig. Mehr ist dazu denke ich, nicht zu sagen.
 
Zuletzt bearbeitet von einem Moderator:
Oje, diese ganzen "Technologien"...

Solange meine Leistungseinteilung in "Niedrig", "Mittel", "Hoch" und "Ultra" funktioniert, brauch ich das Zeug nicht. Und wenn es ein Spiel "zwingend" bräuchte, kaufe ich es einfach nicht...
 
  • Gefällt mir
Reaktionen: Tanzmusikus
„Florida Man starts a dwarven revolt, because games are tested with upscaling.”

Warum soll man neue Spiele nicht ausschließlich mit Upscaling testen, wenn dies unterstützt wird und das Spiel nativ unspielbar wäre <25 fps?

Ich vergaß: Kein Upscaling z.B. DLSS implementiert -> Aufstand. „Gekaufte Entwickler“, „Entwickler überlassen der Modding Community die Fertigstellung des Spiels!“, Verschwörungstheorien (Starfield).

Wenn Upscaling implementiert ist: „Das Spiel ist schlecht optimiert, die Entwickler sind zu faul gewesen!. -> Das musst du doch erstmal beweisen du Snowdropengine-Experte 😊. Was wurde wie, wo, schlecht optimiert?



Die Frametimes sind lt. Chart smooth, so wie sie sein sollten. Auch bei Gamestar sagten die Tester, dass es keine Ruckler oder ähnliches gab bei 40h Spielzeit. Wo ist das jetzt schlecht optimiert?

Ohne Upscaling würde sich vermutlich auch die Grafik nicht weiterentwickeln. Ich bin froh, das Spiele endlich immer besser aussehen. Ob mit oder ohne UpScaling ist das doch egal. Ich weis noch wie jedes COD genau wie der Vorgänger aussah, weil man die „breite Masse“ glücklich machen muss, die nicht die Top Hardware haben. Jetzt geht das für alle, auch die die keine Top GPU haben können FSR nutzen.

Zudem braucht man mit UpScaling ja auch weniger Strom! Das wollte ich hier nochmal betonen, weil hier im Forum ja gerne 5-Seiten über AMD/INTEL Idle-Watt verbraucht sinniert werden kann. Ich käme jetzt nie auf die Idee meinen PC zum Idlen anzuwerfen😊

Als Entwickler kannst du dieses Spiel nicht gewinnen.
 
  • Gefällt mir
Reaktionen: bluna, Oudenstekelig und MrHeisenberg
FX-Multimedia schrieb:
Soso, 60 Frames im Voraus und das ohne Latenzverzögerung, bin mal gespannt wie das funktionieren soll. Das Spiel kann keine 60 Frames voraus sehen
Ist vermutlich einfach nur missverständlich von @Wolfgang formulliert aber er wollte damit garantiert aussagen das DLSS und FSR mehr vorherigen Frames (im Vergleich zu TAA) nutzen um zukünftige Bilder zu berechnen.

Und für das Latenz Thema gibts bei DLSS Reflex und bei FSR Antilag+
FX-Multimedia schrieb:
Ansonsten lassen sich keine Daten vorab berechnen, welche noch gar nicht vorhanden sind.
Das ist so nicht richtig.
Daten werden immer im voraus berechnet. Theoretisch kann man auch 60 Frames im Voraus berechnen und dann nur die Abweichungen der jeweiligen Frames in die Ausgabe des nächsten Frames mit einbeziehen.
Passiert so natürlich nicht aber möglich wäre es definitiv 🙃

FX-Multimedia schrieb:
Und dass du Anmaßend bist, zeigt alleine die Tatsache wie du dich darüber äußerst. Stichwort „böses DLSS“. Du machst dich über Kritik sogar lustig. Mir ist dazu denke ich, nicht zu sagen.
Jo weils mitlerweile echt ermüdend ist die immer wieder gleichen Themen bei Supersampling zu lesen obwohl vieles davon einfach nicht mehr aktuell ist.

Ich hab sehr oft das Gefühl das die ganzen Nativ > über allem Poster sowohl DLSS oder FSR noch nie oder sehr lange schon nicht mehr genutzt haben aber trotzdem der Meinung sind sie wüssten es besser. Die Features entwickeln sich stetig weiter und stehen nicht still.
Da werden dann Fehler bei DLSS oder FSR gesucht aber es wird vollkommen außer Acht gelassen was auch natives Rendering teilweise für Schwächen und Artefakte mit sich bringt.
Ergänzung ()

patze812 schrieb:
Ohne Upscaling würde sich vermutlich auch die Grafik nicht weiterentwickeln. Ich bin froh, das Spiele endlich immer besser aussehen. Ob mit oder ohne UpScaling ist das doch egal. Ich weis noch wie jedes COD genau wie der Vorgänger aussah, weil man die „breite Masse“ glücklich machen muss, die nicht die Top Hardware haben. Jetzt geht das für alle, auch die die keine Top GPU haben können FSR nutzen.
Das trifft es ganz gut.
Ich hab keine Lust auf 900 Watt GPUs oder so nur um mehr Rohleistung für natives Rendering zu bekommen.
Und anders wirds vermutlich nicht möglich sein.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx, bluna, Quidproquo77 und 4 andere
FX-Multimedia schrieb:
@Wolfg

Soso, 60 Frames im Voraus und das ohne Latenzverzögerung, bin mal gespannt wie das funktionieren soll. Das Spiel kann keine 60 Frames voraus sehen, wenn die Daten dafür noch gar nicht da liegen. Ergo ist dies nur möglich mit einer Latenz. Es sei denn, dein Computer ist eine Zeitmaschine. Ansonsten lassen sich keine Daten vorab berechnen, welche noch gar nicht vorhanden sind.

Und dass du Anmaßend bist, zeigt alleine die Tatsache wie du dich darüber äußerst. Stichwort „böses DLSS“. Du machst dich über Kritik sogar lustig. Mehr ist dazu denke ich, nicht zu sagen.
Wir reden hier doch von Super Resolution? Du schreibst von Upscaling, das sollte dann Super Resolution sein. Frame Generation ist viel mehr eine Interpolation. Natürlich schaut SR nicht 60 Frames im Voraus, sondern zurück. Und daher lernt es, wie die Pixel wandern und erhält für den aktuellen Frame viel mehr Informationen. Das komplizierte ist es dann, diese Informationen sinnvoll im aktuellen Frame einzusetzen. Da erstehen dann die Unterschiede zwischen den verschiedenen Technologien.

Frame Generation nutzt immer die Informationen von 2 Frames und nicht mehr. Das tun weder DLSS, noch FSR.

Ich weiß immer noch nicht, warum es für mich als Journalist EXTREM anmaßend sein soll zu behaupten, dass natives Rendern am aussterben ist. Wie ich teste, ist schlussendlich sowieso alleine meine Angelegenheit und die meines Arbeitgebers. Es ist professionell so zu testen, wie man es für die eigenen Leser am sinnvollsten hält. Und das tun wir. Das stimmt nur offenbar nicht mit deiner Meinung überein. Aber warum ist das nun extrem anmaßend? Und über Kritik mache ich mich nicht lustig. Den "extrem anmaßend" Teil finde ich nur äußerst merkwürdig, verwirrend und auch etwas beleidigend. Daher nehme ich das auch nicht ernst. Mehr habe ich dazu denke ich auch nicht zu sagen.
 
  • Gefällt mir
Reaktionen: xXBobbyXx, Syrian, Quidproquo77 und 5 andere
FX-Multimedia schrieb:
Soso, 60 Frames im Voraus und das ohne Latenzverzögerung, bin mal gespannt wie das funktionieren soll. Das Spiel kann keine 60 Frames voraus sehen
"vorab" (was Wolfgang geschrieben hat) und "im Voraus"(was du geschrieben hast) ist das genaue Gegenteil von "voraus sehen".

DLSS Super Resolution schaut nicht voraus sondern zurück.
Es werden Informationen von bis zu 60 der vorherigen Frames in die Berechnung des aktuellen Frames miteinbezogen, also bevor der aktuelle Frame gezeigt wird(-> vorab).

Dadurch kann der aktuelle Frame stets deutlich akkurater berechnet werden, als es mit TAA der Fall ist, und da das ganze auch noch in geringerer Auflösung erfolgen kann, bekommst du auch noch mehr FPS on Top.

Und ja, das kostet natürlich Rechenleistung, weshalb du mit 4K+DLSS Quality auch ~15% weniger FPS erhältst als du mit nativen 1440p erreichen würdest(oder umgekehrt in 1440p ~20% mehr FPS als in 4K+DLSS Q).
Bei FSR müssen übrigens weniger Frames genutzt werden, um den gleichen Performancegewinn zu erzielen, weil man hier nicht auf spezialisierte Hardware zur Verarbeitung zurückgreifen kann, weshalb es eben in der Bildqualität fast immer unterlegen ist.

Aber mit der Latenz hat das nichts zu tun, denn diese Berechnungen haben nur einen Einfluss auf die Performancesteigerung, die am Ende dabei raus kommt.
Die Latenz wird einzig durch die FPS bestimmt, die du am Ende hast. Sind es mehr als vorher, ist die Latenz geringer, ganz einfach.

Wenn hier die FPS nun statt von 60 auf 100 FPS(Sprung von 4K runter auf 1440p) nur von 60 auf 85FPS(Sprung von 4K auf 4K+DLSS Q) steigen, hast du immer noch einen deutlich niedrigere Latenz als in nativem 4K durch das Mehr an Frames.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: xXBobbyXx, Bademeister69, MrHeisenberg und 2 andere
Wolfgang schrieb:
Wir reden hier doch von Super Resolution? Du schreibst von Upscaling, das sollte dann Super Resolution sein. Frame Generation ist viel mehr eine Interpolation. Natürlich schaut SR nicht 60 Frames im Voraus, sondern zurück. Und daher lernt es, wie die Pixel wandern und erhält für den aktuellen Frame viel mehr Informationen. Das komplizierte ist es dann, diese Informationen sinnvoll im aktuellen Frame einzusetzen. Da erstehen dann die Unterschiede zwischen den verschiedenen Technologien.

Frame Generation nutzt immer die Informationen von 2 Frames und nicht mehr. Das tun weder DLSS, noch FSR.

Ich weiß immer noch nicht, warum es für mich als Journalist EXTREM anmaßend sein soll zu behaupten, dass natives Rendern am aussterben ist. Wie ich teste, ist schlussendlich sowieso alleine meine Angelegenheit und die meines Arbeitgebers. Es ist professionell so zu testen, wie man es für die eigenen Leser am sinnvollsten hält. Und das tun wir. Das stimmt nur offenbar nicht mit deiner Meinung überein. Aber warum ist das nun extrem anmaßend? Und über Kritik mache ich mich nicht lustig. Den "extrem anmaßend" Teil finde ich nur äußerst merkwürdig, verwirrend und auch etwas beleidigend. Daher nehme ich das auch nicht ernst. Mehr habe ich dazu denke ich auch nicht zu sagen.
Man kann ja dazu stehen, wie man möchte. Auch zu diesen ganzen Upscale Technologien. Aber das Messverfahren sollte man einfach bei dem alten belassen einfach um auch eine gewisse Vergleichbarkeit zu haben. Das nenne ich einfach seriös und professionell. Just my 2 Cents …
 
FX-Multimedia schrieb:
Aber das Messverfahren sollte man einfach bei dem alten belassen einfach um auch eine gewisse Vergleichbarkeit zu haben. Das nenne ich einfach seriös und professionell.
Inwiefern ist es denn nicht vergleichbar, wenn alle GPUs in der gleichen Art gemessen werden?
 
FX-Multimedia schrieb:
Man kann ja dazu stehen, wie man möchte. Auch zu diesen ganzen Upscale Technologien. Aber das Messverfahren sollte man einfach bei dem alten belassen einfach um auch eine gewisse Vergleichbarkeit zu haben. Das nenne ich einfach seriös und professionell. Just my 2 Cents …
Messverfahren einfach beim Alten zu belassen, weil man es ja immer so gemacht hat, ist im Gaming-Business bzw. bei Hardware allgemein vermutlich das schlechteste, was man machen kann. Das ist für mich genau das Gegenteil von seriösem Testen, sondern viel mehr Testen nach Schema X, weil man es nicht anders kennt. Dann kann man neue Technologien ja nie benutzen, weil es das früher so nicht gab. Das funktioniert so nicht. Und auf Dauer funktioniert so nichts auf der Welt. Zumindest nicht, wenn es irgendwo Änderungen geben soll. Messverfahren ändern sich in der Branche andauernd, weil es generell große Fortschritte und Änderungen gibt und man sich an die Gegebenheiten anpassen muss.

Und was ändert das an der Vergleichbarkeit überhaupt? Verschiedene Spiele sind ohnehin nicht miteinander vergleichbar, jedes Spiel reagiert anders. Verschiedene Grafikkarten lassen sich mit Upscaling genauso vergleichen wie ohne Upscaling, es halten einzig kleinere Besonderheiten (wie wird Upscaling berechnet, wie effektiv ist der eigene Algorithmus) Einzug. Was sich natürlich etwas ändert sind die Leistungsunterschiede zwischen den einzelnen Auflösungen und da Upscaling je nach Spiel unterschiedlich viel Leistung kostet, kann es auch zwischen den Auflösung und verschiedenen Spielen mehr Varianz geben als ohne Upscaling. Wobei auch ohne Upscaling Spiele schon ganz unterschiedlich auf eine andere Anzahl an Renderpixel reagieren.

Ich sehe nicht, wie Upscaling etwas an einer Vergleichbarkeit ändert.
 
  • Gefällt mir
Reaktionen: Quidproquo77 und MrHeisenberg
Schönes Spiel, die Grafik ist wirklich wunderschön. Optisch einer meiner favouriten dieses Jahr, nur das Cyberpunk dlc sah noch besser aus
 
FX-Multimedia schrieb:
Man kann ja dazu stehen, wie man möchte. Auch zu diesen ganzen Upscale Technologien. Aber das Messverfahren sollte man einfach bei dem alten belassen einfach um auch eine gewisse Vergleichbarkeit zu haben. Das nenne ich einfach seriös und professionell. Just my 2 Cents …
schlussfolgerlich (gibts das wort?) wäre der test mit upscaling dann unseriös und unprofessionell?
wow....das muss man cb erstmal vorwerfen....

um das klarzustellen, du schreibst: "das nenne ich"......nicht etwa: das ist meiner meinung nach..., oder das finde ich.....

attitude sag ich da nur
 
Kann mir bitte jemand versuchen zu erklären, warum die 6800 XT vor der 7800 XT liegt.

Die Verwunderung darüber hab ich jetzt schon mehrmals gelesen, nur noch keine Antwort dazu.
 
So selten ist das ja nicht, die RX 6800 XT liegt immer mal wieder gleich auf oder auch vor der 7800 XT.
Die 6800 XT hat eben mehr Shadereinheiten als die 7800 XT. Letztere taktet im Referenzdesign zwar etwas höher, reine Rechenleistung ist aber eben eher leicht weniger vorhanden. Nun hat die 7800 XT mit RDNA 3 noch die modernere Architektur, nur offenbar bringt die eben nicht viel (oder auch gar nichts) in Avatar. Und zudem hat die 7800 XT zwar einen schnelleren, aber auch nur halb so großen Infinity Cache. Potenziell kann es also auch da passieren, das etwas nicht in den IC der 7800 XT passt, in den der 6800 XT aber schon. Nicht vergessen werden sollte die modulare Bauweise als Chiplet-GPU, auch hier geht Leistung verloren. Vielleicht ist RDNA 3 also schneller als RDNA 2 in Avatar, aber nicht so viel schneller, um den Leistungsnachteil der Chiplet-Bauweise auszugleichen.

Das sind die drei wahrscheinlichsten Gründe, warum die 6800 XT ebenbürtig bis etwas überlegen zur 7800 XT sein kann.
 
  • Gefällt mir
Reaktionen: msv, DeadlyStriker, KempA und 2 andere
Welch Überraschung, dass Ubi hier wieder in exakt dem Niveau mit exakt dem Gameplay abliefert, dass sie schon seit X Jahren genau so verfolgen: Mittelmaß nach Schablone und nicht einen % mehr. Reicht ja aus um zu überleben und der Name Avatar oben drauf dürfte auch mehr Leute an Board holen, als es AC oder FC sonst tun würden.

Am besten daran aus meiner Sicht ist, dass FSR3 FG hier gut läuft, was der Technik eventuell dann auch etwas mehr Kredibilität verleiht und sie so auch eventuell in andere Titel bringt.
 
Wolfgang schrieb:
Ich sehe nicht, wie Upscaling etwas an einer Vergleichbarkeit ändert.

In dem Fall solltest du keine Grafiktests mehr machen, weil klar ist das die Leser von dir falsch informiert werden!


PS: Hat natürlich auch nichts mit der generellen "Empfehlung" seiten nvidia zu tun nur noch mit USc-Tech zu testen.
Das ist bestimmt reiner Zufall das das zeitlich gleich läuft.
 
  • Gefällt mir
Reaktionen: FX-Multimedia
@GreatEvil

Weil?
Warum werden Leser falsch informiert, wenn man Benchmarks mit Upscaling macht und diese so kennzeichnet?

Ja, und vor allem das viele Lob unserer Seite aus für FSR 3 Frame Generation hat bestimmt richtig viel mit Nvidia zu tun! Also manche haben echt Gedanken...

Und was sind USc-Seiten? Meinst du US-Seiten? Oder ist das eine merkwürdige Abkürzung für Upsampling? Wenn ja, da gibt es keine Empfehlung von Nvidia. Natürlich empfiehlt jeder Hersteller, immer möglichst viel mit ihrer eigenen Technologie zu testen. Das tut Nvidia, das tut AMD, das tut Intel, das tut jeder.
 
  • Gefällt mir
Reaktionen: DeadlyStriker, msv, Quidproquo77 und 3 andere
Zurück
Oben