Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Battlefield V auf Turing: Durch DLSS angeblich mit Raytracing so schnell wie ohne
Esenel
Commodore
- Registriert
- Juni 2017
- Beiträge
- 4.099
gunmarine schrieb:@ Techno laut CB Benches war die 1080 Maxx ~15% schneller als die 980ti und die FE 9% schneller als eine 1342 mhz 980 ti. Packen wir 10% mehr Takt drauf sind wir nicht wirklich von einer 1080 FE entfernt. Die richtig guten Customs natürlich nochmal ein paar % mehr. Also auf 1080 FE Niveau (+-2% je nach Spiel) ist eine so hoch übertaktete 980 ti definitiv, solange der VRAM nicht limitiert. Dass hier noch ~10% auf die richtig guten Customs fehlen ist denke ich jedem von uns klar, aber wirklich in Grund und Boden getreten werden die 1500+ 980tis nicht.
:-D
Nein die 980Ti ist nicht schneller als ne 1080.
So viel Prozentchen wie du da rumschmeisst wird einem ja schwindelig.
Meine 1080 schaffte 8500 Timespy Grafikpunkte.
Schafft deine 980Ti das auch?
hier kannst du ja auch sehen wie schnell die Karten sind:
https://www.computerbase.de/forum/threads/nvidia-benchmark-rangliste-nach-modellen.1830406/
Danke an @KCX .
Hier ist die schnellste 980Ti bei 6700 Punkten.
Und ich glaube @pupsi11 und @even.de schonen die Karte da nicht gerade.
Creeper777
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 915
RYZ3N schrieb:Nö, deine Rechnung geht leider nicht auf.
In FullHD sind RX VEGA 64 und GTX 1080 exakt gleich schnell.
Und in WQHD [die eigentliche Zielauflösung für diese GPUs], ist die RX VEGA 64 ~ 4% schneller als die GTX 1080.
Anhang anzeigen 738717Anhang anzeigen 738718
Auch hier liegst du falsch, denn die RX VEGAs lassen sich per UV und OC ganz ausgezeichnet übertakten und auch in den Benchmarks siehst du eine übertaktete 64er Strix vor einer übertakteten 1080.
Liebe Grüße
Sven
Das ist nur eine Liste!
Wenn du dir hingegen mehrere Tests anschaust und sie miteinander + Youtube Videos im Life Test dazu vergleichst, siehst du dass die Vegas 64 nicht so gut ist wie eine 1080 Custom Design.
In den meisten Spieleanwedungen liegt die 1080 ein paar FPS weiter vorne, spart mehr Strom und einige Hersteller deaktivieren ihre Lüfter im Desktop Betrieb.
Ich stand selbst vor der Wahl eine Vegas 64 oder eine Asus 1080, ich habe mich für die 450€ teure Asus 1080 entschieden.
Auch aus dem Grund, weil eine 1080er Stromsparender ist.
Wenn man eine 1080er noch übertakten würde, wäre man nochmal schneller. ;-)
Viel Unterschied ist dabei nicht, das stimmt. :-)
Ergänzung ()
PrinceVinc schrieb:Ich hab so meinen groll wenn es um Nvidia geht der bis zur GTX970 zurück geht.
Bedauerlicherweise haben sie mittlerweile ein quasi-Monopol wenn es um GPU's geht und ihre hände in fast jedem neuem Spiel.
Aber die Tatsache, dass sie sich davor verschließen Freesync freizuschalten um ihr ~200€ teureres minimal bessere G-Sync zu verkaufen, der V-Ram GTX970 "Skandal", Ray Tracing als etwas neues zu Verkaufen obwohl es vor Jahren schon erfunden wurde und es als Grund nehmen die Preise zu erhöhen Kurz nachdem die 10xx serie abgeschlossen wurde, und jetzt zich versionen der RTX2060 rausbringen und material auf diese weiße verschwenden, lässt mich sehr skeptisch werden.
Ich gebe zu das es doch eher harsch formuliert war. Und neue Technik zu entwickeln ist gut. Das "Problem" ist nur die Leute die es gerade entwickeln stehen für mich nicht gerade im besten licht zur zeit.
Warum sollte Nvidea - AMD´s Freesync nutzen?
Rückblick: Nvideas Gsync war vor Freesync auf dem Markt!
Warum nutzt also AMD nicht Nvideas Lizenz?
Es geht hier auch nicht darum wer hier die beste Monitor-Chip-Integration anbietet, die sind ey speziell auf die GRAKAs der jeweiligen Hersteller abgestimmt und optimiert.
Diese Chips solln jedeglich die GPU entlassten, wenn man im höheren HZ Bereich spielen möchte.
Hardware ist und war schon immer eine Verschwendung von Resourcen und arme Menschen müssen die kostbaren Rohstoffe / Erden für unsere Luxusprobleme abbauen!
Sowas ist aber nicht auf ein Firma zurückzuführen, es geht schon beim eigenem Konsum los!
Zuletzt bearbeitet:
PrinceVinc
Lt. Commander
- Registriert
- Okt. 2014
- Beiträge
- 1.227
Creeper777 schrieb:Warum sollte Nvidea - AMD´s Freesync nutzen?
Rückblick: Nvideas Gsync war vor Freesync auf dem Markt!
Warum nutzt also AMD nicht Nvideas Lizenz?
Die Freesync Schnittstelle gab es schon vorher. Man nennt es DisplayPort Adaptive-Sync.
So gut wie jeder Monitor mit Display Port 1.2 kann FreeSync benutzen, sogar bevor FreeSync vorgestellt wurde.
FreeSync benutzt also Technologie die schon vorhanden war und dem Verbraucher nichts extra kostet.
Deshalb sollte Nvidia DisplayPort Adaptive-Sync benutzen können und es wurde auch schon bewiesen das es geht.
Palmdale
Captain
- Registriert
- Apr. 2009
- Beiträge
- 3.150
Tom_111
Banned
- Registriert
- Juli 2018
- Beiträge
- 560
PrinceVinc schrieb:Anstatt diesem müll sollten sie einfach endlich GPU's auf den Markt bringen die 4k@60FPS Rendern können und nicht etwas "entwickeln" das es "simuliert aber doch nicht ganz so gut aussieht"
60FPS ist Konsolengrafik.
Ich will wenn schon 144 FPS. Das schaffen die aktuellen Grafikkarten noch nicht einmal in WQHD.
BlackhandTV
Commander
- Registriert
- Apr. 2015
- Beiträge
- 2.227
Frohes Neues, wann kommt DLSS eigentlich endlich für PUBG?
PrinceVinc schrieb:Die Freesync Schnittstelle gab es schon vorher. Man nennt es DisplayPort Adaptive-Sync.
So gut wie jeder Monitor mit Display Port 1.2 kann FreeSync benutzen, sogar bevor FreeSync vorgestellt wurde.
FreeSync benutzt also Technologie die schon vorhanden war und dem Verbraucher nichts extra kostet.
Sorry aber das ist absoluter Quatsch, den du da schreibst!
G-Sync wurde Ende 2013 von NVidia vorgestellt, da hatte AMD gerade die Mantle-API vorgestellt, aber etwas vergleichbares zu G-Sync hatten sie da noch nicht.
https://www.computerbase.de/2013-12/nvidia-gsync-test/
Freesync wurde von AMD dann als Antwort auf der CES 2014 "vorgestellt".
https://www.computerbase.de/2014-01/amd-zeigt-g-sync-alternative-namens-freesync/
Im Gegensatz zu NVidia, hat AMD aber mit VESA zusammengearbeitet und somit wurde Freesync ein Bestandteil von DisplayPort 1.2a.
https://www.computerbase.de/2014-05/adaptive-sync-vesa-displayport-1.2a-amd-freesync/
Bei weitem nicht jeder Monitor ist gleich Freesync kompatibel, denn es benötigt ebenfalls eine entsprechende Hardware.
Monitore, die dem neuen DisplayPort-Standard 1.2a entsprechen, müssen wie bei G-Sync über einen Frequenzteiler (Scaler) verfügen, der in Bezug auf die Bildwiederholraten anpassungsfähig ist („adaptive refresh-aware“). Der Standard kann von VESA-Mitgliedern ohne kostenpflichtige Lizenz eingesetzt werden. Zukünftig soll ein Logo Modelle mit Adaptive Sync kennzeichnen. DisplayPort-1.2a-Monitore können Adaptive Sync nutzen, müssen es aber nicht.
https://www.computerbase.de/2014-05/adaptive-sync-vesa-displayport-1.2a-amd-freesync/
Ändert aber natürlich nichts an der Tatsache, dass Nvidia die blöde Strategie endlich mal begraben sollte und neben G-Sync auch Freesync unterstützen sollte. Der Zug ist abgefahren und sowohl die Konsolen, als auch Intel unterstützen es und auch einige Fernseher werden es unterstützen. Wer will kann ja gerne noch immer, ein entsprechendes Gerät mit G-Sync kaufen, die Technik ist besser aber aufwändiger und teuerer.
Zuletzt bearbeitet:
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.287
Auch ne Möglichkeit die Videocardz da treibt: Hohe Erwartungshaltung schüren und sich dann ins Fäustchen lachen wenn es nicht so kommt und der Shitstorm tobt
Äh das ist nicht richtig G-Sync und Freesync sind von der Qualität her gleich. Es wird vermutetet das AMD durch die direkte Integration in die Monitorhardware sogar kleine Latenzvorteile hat.xexex schrieb:Ändert aber natürlich nichts an der Tatsache, dass Nvidia die blöde Strategie endlich mal begraben sollte und neben G-Sync auch Freesync unterstützen sollte. Der Zug ist abgefahren und sowohl die Konsolen, als auch Intel unterstützen es und auch einige Fernseher werden es unterstützen. Wer will kann ja gerne noch immer, ein entsprechendes Gerät mit G-Sync kaufen, die Technik ist besser aber aufwändiger und teuerer.
Gamefaq
Vice Admiral
- Registriert
- Jan. 2005
- Beiträge
- 7.061
Dai6oro schrieb:Langsam werde ich echt sauer. Das Spiel hat Tonnen von anderen Bugs und Problemen die erstmal behoben werden sollte. Dice get your shit done und zwar das wirklich wichtige.
Bleib mal geschmeidig. Die die bei Dice an der Technik der Engine schrauben haben mit dem eigentlichen Spieldesign bei "den Spielen" nicht zu tun. Und ja "den Spielen" ihr könnt sicher sein das alles was jetzt in BF 5 eingebaut wird so auch in kommenden anderen EA Spielen dann ab Werk zu finden sein wird. Da hier von DICE an der Frostbite Engine generell geschraubt wird. Die Spieldesigner sind eigenständig und haben mit der Engine Entwicklung nichts am Hut.
Und die Spekulationen zur Leistung der 1060 finde ich witzig. WAS gibt es da zur Leistung überhaupt noch zu Spekulieren wenn (in Tests erwiesen) die 2070 so schnell wie eine 1080 ist , die 2080 so schnell wie eine 1080TI und die 2080TI nochmals 30% schneller ist? Ist es dann nicht Logisch das die 2060 so schnell wie eine ehemals 1070 wird?! Ihr könnt hier höchstens darüber fachsimpeln ob sie gleich 1070 oder eher gleich 1070TI sein wird. Aber selbst das ist eigentlich egal weil der Preis am Ende entscheidet was die Leute kaufen werden.
Aktuell sieht es extrem danach aus das hier nur noch die Wahl welche RTX Karte man kauft und AMD Vega(2) keine Rolle spielt da man auf einen Refresh (es ist ja keine neu Entwicklung) nicht warten muss da sie durch die Verkleinerung auf die 7nm Fertigung höchstens 15% mehr Leistung herausbekommen werden (womit sie nicht mal die alte 10x0 Generation in Form der 1080TI erreichen würden!) ohne das sie Raytracinbg & DLSS bieten, um sagen zu können wir sind für Zukünftige Spiele gerüstet um noch mehr Grafik (Raytracing) oder Leistung (DLSS) heraus zu kitzeln. Denn diese Techniken muss AMD nun erstmal in einer zukünftigen Grafikkartengeneration "in Hardware" also mit eigenen zusätzlichen Chips im Chip verbauen/realisieren. Und sie müssen dann auch mindestens so gut wie die von nVidia funktionieren. Das kann AMD nicht mal eben zwischen zwei Generationen Entwickeln wenn nVidia laut eigener Aussage die Letzten 10 Jahre daran gebastelt hat. Denn selbst das "besser gut kopiert als schlecht selbst Entwickelt" dauert. Da für VEGA (egal welche Zahl man dahinter schreibt) das nie vorgesehen war.
Hier wurde AMD praktisch letztes Jahr mit heruntergelassenen Hosen erwischt. Sie haben erwartet das nVidia nur eine (wie alle Jahre üblich) stärkere Generation vorstellt und mann selbst ist dann nur "etwas" , auch wenn das etwas nur an Rohleistung aktuell gut 60% bedeutet..da VEGA 64 durchschnittlich mit einer 1080 , nicht 1080TI konkurriert hat, schwächer ist. Was auch die Preise von nVidia schon der 1xxx Generation erklärt hat (kauf eine "in Spielen" sparsame nVidia 10x0 oder eine Heizung in Form von VEGA die ihre Leistung durch eine exorbitante Stromaufnahme erkauft) Das nVidia für Heimanwender komplett neue Techniken in ihren Grafikkarten anbietet hatte niemand auf dem Schirm. Insbesondere AMD nicht, dort heißt es nun so schnell wie möglich etwas eigenständiges an Raytracing/DLSS Entwickeln bevor nVidia durch kommende Spiele immer mehr zeigen kann das an ihren Karten kein Weg vorbei führt. Oder VEGA durch eine neuen Karte die auf Raytracing & DLSS verzichtet dafür aber exorbitant mehr Leistung als bisher bietet ersetzen. Denn aktuell hat AMD das Problem sie bieten weder die Leistung , noch die Technik. Und das zeigt sich bereits jetzt schon in Ihren letzten VEGA Verkaufszahlen die extrem durch das Mining beflügelt wurden und seit es vorbei ist nun ins Bodenlose abfallen!
Ergänzung ()
Volkimann schrieb:Wenn ich das alles so lese stellt sich mir die Frage ob nvidias Architektur (Maxwell, Pascal, Turing sind ja nicht die gigantischen Unterschiede) eigentlich am Ende ist und durch Raytracing einfach ein neues Feature drangeflanscht wurde und das Deep Learning usw das ganze kompensieren soll.
Natürlich ist die am Ende. Jede Technik ist mal am Ende das hat der CEO auf der Messe als die RTX präsentiert wurde aber auch schon so gesagt! Es ist wie bei den CPU's, du kannst den Takt nicht unendlich hoch schrauben, du kannst die Effektivität der Berechnung nicht unendlich erhöhen. Also muss die genutzte Technik selbst eine andere sein in dem der bisherige Nachteil der neuen Technik durch andere Technische Entwicklungen kompensiert wird so das am Ende doch mehr Leistung dabei heraus kommt.
Zuletzt bearbeitet:
L
Laggy.NET
Gast
syfsyn schrieb:Das was hier angegeben wird ist nichts anderes als checkerboarding
Kleinere auflösung hochskallieren ohne zu interpolieren
Könnte man auch als Super sampling bezeichnen nur ohne das bild vorher höher berechnet wird
Das Deep learning ist mehr marketing als wahrheit
Der Ursprung ist das denoising was wirklich mit deep learning verwendet wird
Also DLSS nur mit RT
daher machte s bei einer kleinenren gpu als der rtx2080 kein Sinn
Siehe performance verlust in 4k
Nein, das ist definitiv nicht das gleiche, weil Checkerboarding nur in Kombination mit Temporal-AA funktioniert.
DLSS funktioniert komplett ohne irgend einen bekannten AntiAliasing Modus und hat entsprechend auch deren Nachteile nicht. Manche Spiele mit etwas schlechterem TAA leiden z.B. unter Ghosting. Das ist dann mit DLSS komplett weg, da DLSS ohne TAA auskommt und sowohl hochskaliert, als auch glättet.
cunhell schrieb:Man kann bei 4k mehr Bildpunkte ergo Information darstellen, als bei geringerer Auflösung, was ja wohl bei DLSS verwendet wird. Wenn also nativ die Information für 4k Darstellung vorhanden ist, kann also schon rein durch den gringeren Informatonsgehalt bei geringerer Auflösung, die Darstellung nicht besser sein, egal was ich da für Prozesse darauf los lasse. Sie kann höchstens anders und von mir aus glatter (oder für Dich schöner) aussehen. Sie kann aber nicht besser sein, da man ja die fehlende Information nicht herbeizaubern kann.
Das gleiche gilt für MP3's. Die durch die Kompression verlorene Information kann nicht herbeigezaubert werden.
Es kann Dir besser gefallen was dabei rauskommt. Besser als das Orginal kann es aber nicht sein. Genau deshalb hat man ja auch verlust freie(re) Kompressionsmethoden als alternative zu MP3 entwickelt
Cunhell
Hier das selbe. DLSS kommt ohne TAA aus und kann deshalb, wenn das TAA nicht sonderlich gut ist, durchaus deutlich besser aussehen. Zumal die zusätzlichenInformationen nicht aus dem „nichts“ kommen. Die neuronalen Netze mussten schließlich vorher mit referenzmaterial trainiert werden und genau daher kommen auch die Bildinformationen. Natürlich werden diese vom Algorithmus stark abstrahiert, aber grundsätzlich stammen die Informationen vom Referenzmaterial.
Allgemein würde ich schon behaupten, dass bei DLSS relativ wenig marketing Bullshit drinnsteckt. Die technik erzeugt Bilder, die mit herkömlichen AntiAliasing methoden nicht vergleichbar sind und skaliert zudem das Bild sauber hoch. Würde man einfach nur den besten Upscaler, den man sich vorstellen kann nutzen, dann würde durch das Upscaling das Aliasing und das Flimmern zwangsläufig verstärkt bzw. wirklich „vergrößert“ werden. Das ist aber hier nicht der Fall. Hier werden tatsächlich aus einem ungeglätteten Bild in niedriger Auflösung geglättete in hoher Auflösung erzeugt.
Ich glaube, wirklich bewusst, was DLSS leistet, würde es den meisten erst werden, wenn sie sehen würden, mit welchem Rohmaterial DLSS arbeiten muss.
Immer wird TAA vs DLSS verglichen, aber beeindruckend wirds halt erst, wenn man realisiert, dass DLSS nur das rohe Bild ohne TAA zur Verfügung hat... Und wer in einem modernem Spiel mit Pysically Based Rendering (PBR) mal das TAA ausgemacht hat, der weiß, wie schlecht das Bild ohne TAA aussieht. Da kannste froh sein, durch das Geflimmer keinen epileptischen Anfall zu kriegen. Da Flimmern nicht nur die Kanten, sondern auch sämtliche Shading Effekte incl. Texturen bzw. Objektoberflächen.
Rise of the Tomb Raider (also der zweite Teil) war in der Hinsicht z.B. sehr auffällig. Das Spiel hatte kein TAA, hätte es aber dringenst nötig gehabt. Das Game hat selbst mit 4xSSAA noch geflimmert.... Bei mir musste ich damals tatsächlich 5K DSR + 4x SSAA nutzen, damit das wirklich mal gut aussah. Spielbar war das dann mit den 2-3 FPS natürlic nicht mehr...
Zuletzt bearbeitet von einem Moderator:
Mcr-King
Admiral
- Registriert
- Juli 2016
- Beiträge
- 7.181
Also DLSS AI Käse mh klar wo soll die Berechnung stattfinden in deinen PC klar.
So also permanent online Käse und Checkerboard ist nicht gleich Checkerboard siehe Xbox X VS PS4 Pro da ist die Xbox etwas besser. Trotzdem wenn ich einen FHD Monitor habe möchte ich auch in FHD offline zocken können. Auch 4K bitte in echten 4k und keine komischen Mogelpackung nix anderes ist DLSS. 😉
Und nur weil NV drauf steht heißt es nicht dass neu ist. 😉
Sage nur Freesync alias Adaptivsync gab es schon länger als GSync den es ist wie beim RAM es gibt schon lange DDR5 und gibt es ihn noch nicht verstanden.
Auch wie gesagt stehe nicht auf Cloud Gaming Käse.
So also permanent online Käse und Checkerboard ist nicht gleich Checkerboard siehe Xbox X VS PS4 Pro da ist die Xbox etwas besser. Trotzdem wenn ich einen FHD Monitor habe möchte ich auch in FHD offline zocken können. Auch 4K bitte in echten 4k und keine komischen Mogelpackung nix anderes ist DLSS. 😉
Ergänzung ()
Und nur weil NV drauf steht heißt es nicht dass neu ist. 😉
Sage nur Freesync alias Adaptivsync gab es schon länger als GSync den es ist wie beim RAM es gibt schon lange DDR5 und gibt es ihn noch nicht verstanden.
Auch wie gesagt stehe nicht auf Cloud Gaming Käse.
Esenel
Commodore
- Registriert
- Juni 2017
- Beiträge
- 4.099
Tom_111 schrieb:60FPS ist Konsolengrafik.
Ich will wenn schon 144 FPS. Das schaffen die aktuellen Grafikkarten noch nicht einmal in WQHD.
Ach komm.
Hab doch jetzt schon öfters geschrieben, dass die 2080 Ti in WQHD 165 fps+ schafft.
Und in 4k 60fps+.
Muss halt nur die CPU schnell genug sein.
Man kann die Tatsachen auch immer schön verdrehen wie man will.
Laggy.NET schrieb:Nein, das ist definitiv nicht das gleiche, weil Checkerboarding nur in Kombination mit Temporal-AA funktioniert.
DLSS funktioniert komplett ohne irgend einen bekannten AntiAliasing Modus und hat entsprechend auch deren Nachteile nicht. Manche Spiele mit etwas schlechterem TAA leiden z.B. unter Ghosting. Das ist dann mit DLSS komplett weg, da DLSS ohne TAA auskommt und sowohl hochskaliert, als auch glättet.
Hier das selbe. DLSS kommt ohne TAA aus und kann deshalb, wenn das TAA nicht sonderlich gut ist, durchaus deutlich besser aussehen. Zumal die zusätzlichenInformationen nicht aus dem „nichts“ kommen. Die neuronalen Netze mussten schließlich vorher mit referenzmaterial trainiert werden und genau daher kommen auch die Bildinformationen. Natürlich werden diese vom Algorithmus stark abstrahiert, aber grundsätzlich stammen die Informationen vom Referenzmaterial.
Allgemein würde ich schon behaupten, dass bei DLSS relativ wenig marketing Bullshit drinnsteckt. Die technik erzeugt Bilder, die mit herkömlichen AntiAliasing methoden nicht vergleichbar sind und skaliert zudem das Bild sauber hoch. Würde man einfach nur den besten Upscaler, den man sich vorstellen kann nutzen, dann würde durch das Upscaling das Aliasing und das Flimmern zwangsläufig verstärkt bzw. wirklich „vergrößert“ werden. Das ist aber hier nicht der Fall. Hier werden tatsächlich aus einem ungeglätteten Bild in niedriger Auflösung geglättete in hoher Auflösung erzeugt.
Ich glaube, wirklich bewusst, was DLSS leistet, würde es den meisten erst werden, wenn sie sehen würden, mit welchem Rohmaterial DLSS arbeiten muss.
Immer wird TAA vs DLSS verglichen, aber beeindruckend wirds halt erst, wenn man realisiert, dass DLSS nur das rohe Bild ohne TAA zur Verfügung hat... Und wer in einem modernem Spiel mit Pysically Based Rendering (PBR) mal das TAA ausgemacht hat, der weiß, wie schlecht das Bild ohne TAA aussieht. Da kannste froh sein, durch das Geflimmer keinen epileptischen Anfall zu kriegen. Da Flimmern nicht nur die Kanten, sondern auch sämtliche Shading Effekte incl. Texturen bzw. Objektoberflächen.
Rise of the Tomb Raider (also der zweite Teil) war in der Hinsicht z.B. sehr auffällig. Das Spiel hatte kein TAA, hätte es aber dringenst nötig gehabt. Das Game hat selbst mit 4xSSAA noch geflimmert.... Bei mir musste ich damals tatsächlich 5K DSR + 4x SSAA nutzen, damit das wirklich mal gut aussah. Spielbar war das dann mit den 2-3 FPS natürlic nicht mehr...
Ich frage mich, wie das trainierte neuronale Netzwerk reagiert, wenn man ihm unbekannte/untrainierte Spielszenen vorsetzt. In einem Spiel hat man ja die Möglichkeit, seinen eigenen Weg zu gehen - insofern würde ich davon ausgehen, dass die Bildverbesserungsleistung (schönes Wort ) schlechter ausfallen wird, je mehr man sich vom Referenzmaterial entfernt. D. h. man hat mitunter starke Schwankungen in der Bildverbesserungsleistung (das zeigt auch der Test).
Esenel
Commodore
- Registriert
- Juni 2017
- Beiträge
- 4.099
SKu schrieb:Eine 2080 Ti schafft aber nicht annähernd 144fps mit Settings auf Anschlag in WQHD.
Weder in Single- als auch Multiplayern. Dafür müssten schon die Settings reduziert werden.
Schmarn.
In BF V auf Panzerstorm Ultra schafft se 180fps avg.
Fjell 160 fps.
Etc.
In Vermintide 2 160 fps avg.
Witcher 3 150 fps avg.
Also wenn CPU oder Spieleengine nicht limitieren ist se schnell genug dafür.
iron_monkey
Rear Admiral
- Registriert
- Juli 2005
- Beiträge
- 5.191
Soso,
DLSS ist also "besser" als das Rohmaterial... dieser Logik nach, braucht man bei genügend KI nicht mal mehr so hohe Ausgangsauflösungen... wann ist Schluss, wenn das Ursprungsmaterial nur noch aus 1x1 Pixel besteht? oder wie ist da die Abgrenzung?
Man muss sich das mal auf der Zunge zehrgehen lassen... da wird in nem Computerforum tatsächlich behauptet, nVidia kann nicht vorhandene Informationen herzaubern und diese übertreffen sogar die Qualität der echten Informationen?
Kleiner Tipp, fragt mal bei Mercedes zum Thema Elchtest nach... da hat auch irgendwo sone Pappnase behauptet, seine intrerpolierten Daten wären genauso gut wie die echten Daten.
Das Ende von dem lustigen Lied kennen wohl auch die, die keinen Mercedes oder Elch besitzen...
Das ist alles doch nur billiges Marketing...
Der Aufpreis zu letzten Gen, war wohl nicht mit dem Leistungsplus zu rechtfertigen... da hat man dann einfach ein paar "Killerfeatures" hinzugebastelt...
Und schon reden alle Marketinghörigen nur noch über diesen Quatsch... und weil das echte Leistungsplus niemanden vom Hocker haut, bastelt man jetzt ne Konsolenlösung und pappt da ein paar neue Marketingbegriffe mit dazu...
KI, Deep Learing, neuronale Netze, super hyper mega...
Wenn ich 1 kg Hack kaufe, will ich ein Kilo Hack un net 800g Hack und 200g Wasser!
Auf die Fanboys übertragen, ist es so, alsob dann auf einmal alle nur noch das gepunschte Hack kaufen und einem einreden wollen, es wäre besser und würde besser schmecken und überhaupt! Da darfs dann auch etwas mehr kosten!
Ich glaube, bei Hack ist aber der geistige Anspruch den dümmlichen Marketingbullshit zu durchschauen nicht so hoch, wie bei Themen der Informatik.
Manchmal hat man bei CB in den Newsthreads net genügend Hände und Gesichtsfläche! Das ist dann nur noch INSTANT FACEPALM!
DLSS ist also "besser" als das Rohmaterial... dieser Logik nach, braucht man bei genügend KI nicht mal mehr so hohe Ausgangsauflösungen... wann ist Schluss, wenn das Ursprungsmaterial nur noch aus 1x1 Pixel besteht? oder wie ist da die Abgrenzung?
Man muss sich das mal auf der Zunge zehrgehen lassen... da wird in nem Computerforum tatsächlich behauptet, nVidia kann nicht vorhandene Informationen herzaubern und diese übertreffen sogar die Qualität der echten Informationen?
Kleiner Tipp, fragt mal bei Mercedes zum Thema Elchtest nach... da hat auch irgendwo sone Pappnase behauptet, seine intrerpolierten Daten wären genauso gut wie die echten Daten.
Das Ende von dem lustigen Lied kennen wohl auch die, die keinen Mercedes oder Elch besitzen...
Das ist alles doch nur billiges Marketing...
Der Aufpreis zu letzten Gen, war wohl nicht mit dem Leistungsplus zu rechtfertigen... da hat man dann einfach ein paar "Killerfeatures" hinzugebastelt...
Und schon reden alle Marketinghörigen nur noch über diesen Quatsch... und weil das echte Leistungsplus niemanden vom Hocker haut, bastelt man jetzt ne Konsolenlösung und pappt da ein paar neue Marketingbegriffe mit dazu...
KI, Deep Learing, neuronale Netze, super hyper mega...
Wenn ich 1 kg Hack kaufe, will ich ein Kilo Hack un net 800g Hack und 200g Wasser!
Auf die Fanboys übertragen, ist es so, alsob dann auf einmal alle nur noch das gepunschte Hack kaufen und einem einreden wollen, es wäre besser und würde besser schmecken und überhaupt! Da darfs dann auch etwas mehr kosten!
Ich glaube, bei Hack ist aber der geistige Anspruch den dümmlichen Marketingbullshit zu durchschauen nicht so hoch, wie bei Themen der Informatik.
Manchmal hat man bei CB in den Newsthreads net genügend Hände und Gesichtsfläche! Das ist dann nur noch INSTANT FACEPALM!
Esenel
Commodore
- Registriert
- Juni 2017
- Beiträge
- 4.099
SKu schrieb:Nur weil sie in bestimmten Situationen das schafft, heißt das nicht, dass sie es durchweg schafft.
Wen interessieren AVG FPS?
Was willst du denn nun hören?
Oder belegt haben?
Ähnliche Themen
- Antworten
- 601
- Aufrufe
- 67.359
- Antworten
- 226
- Aufrufe
- 34.001