News Next-Gen-GPU: AMD Navi 21 „Big Navi“ offenbar mit 5.120 ALUs

ZeT schrieb:
Das is keine Mär sondern der Treiber ist einfach Müll. Solange man vor einem Kauf erstmal nachschauen muss welche Games laufen und welche nicht, solange kann dieser Elektroschrott keine Option sein.

Systeme sind unterschiedlich, bei System A kann ein Problem auftreten, welches bei System B nicht auftritt. Du kannst mit einer NVIDIA Karte genau so Probleme bekommen wie mit einer AMD Karte. Ich habe mit meiner 5700XT überhaupt keine Probleme, die läuft wie Butter und der WHQL Treiber ebenfalls und das in jedem Spiel. Wenn du etwas haben willst was funktioniert und wo du keine Eigenarbeit reinstecken willst, Kauf dir eine Konsole. Ein PC ist nun mal keine Plattform für Faule Menschen und meistens sitzt das Problem vor dem Bildschirm, nur mal so nebenbei.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: E1nweg und Demon_666
ragnaroek666 schrieb:
Wenn du etwas haben willst was funktioniert und wo du keine Eigenarbeit reinstecken willst, Kauf dir eine Konsole. Ein PC ist nun mal keine Plattform für Faule Menschen und meistens sitzt das Problem vor dem Bildschirm, nur mal so nebenbei.

Ein bekanntes Problem wofür es keine Lösung gibt ist mit Eigenarbeit nicht zu beheben.
 
Ein bekanntes Problem was vielleicht einige haben, es gibt auch genügend Baustellen bei NVIDIA Karten oder überliest du NVIDIA Foren? Allerdings zu pauschalisieren und zu sagen, AMD Treiber sind von Grund auf Schrott ist Blödsinn. Es reicht eine Inkompatibilität mit einem Programm oder ein Treiberkonflikt mit einem anderem Hardwareteil in deinem PC und schon läuft halt nix. Ein gut konfiguriertes und sauberes System kostet viel Arbeit, solche Probleme zu lösen kostet Zeit. Aber man macht es sich einfach und schiebt alles sofort auf neu verbaute Hardware.

Die Problematiken die momentan viele haben sind übrigens zu beheben, dazu muss man nur mal Google anwerfen, Zeit investieren und Recherchieren.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: KlaraElfer, Iapetus und Demon_666
ragnaroek666 schrieb:
Kauf dir eine Konsole. Ein PC ist nun mal keine Plattform für Faule Menschen und meistens sitzt das Problem vor dem Bildschirm, nur mal so nebenbei.
Nur mal so, hab jüngsten Sohnemann mal eine Xbox One gekauft. Er war noch minderjährig, und ich wollte nur mal kurz für ihn Fifa einrichten. Das Wochenende war weg, um zig Konten und Zugriffe incl. das notwendige Xbox Abo zu konfigurieren, nur weil er das Online spielen wollte. Von wegen "einfach". :rolleyes:

Da frage ich mich immer wieder, wie das Nicht-IT-affine Eltern immer so schaffen, wenn selbst ich mir einen abbreche, um mal so eine Konsole zum Laufen zu bekommen.:rolleyes: Ne, da ist ein PC für mich einfacher zu handhaben. ;)
 
@xexex

Dast recht, Denkfehler meinerseits.
Dennoch ist die Rechnung im Bezug auf den Kartenpreis sinnlos da die GPU nur ein Teil davon ist.
Ich habe allerdings eine kleine Gegenüberstellung der Speicherkosten bei Hardwareluxx gefunden:
https://www.hardwareluxx.de/index.p...se-fuer-gddr-speicher-und-hbm-analysiert.html
Damit würden die 11 GB GDDR6 vielleicht ca. 130$ kosten, die GDDR5 Preise von 2013 finde ich natürlich nicht mehr, dürften aber deutlich über den Angaben von 2018 gelegen haben. So oder so scheint sich dessen Anteil am Preis einer 2080Ti allerdings in Grenzen halten, erst recht wenn man die Komponenten der VII dagegen setzt.
Damit bleibe ich bei meiner Aussage das der Großteil der Preissteigerung in die Gewinnmaximierung geflossen ist und das sieht man auch anhand der Umsatz/Gewinnentwicklung.


Edit: wenn weiterer Diskussionsbedarf besteht, Rest => PM
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: xexex
PHuV schrieb:
Nur mal so, hab jüngsten Sohnemann mal eine Xbox One gekauft. Er war noch minderjährig, und ich wollte nur mal kurz für ihn Fifa einrichten. Das Wochenende war weg, um zig Konten und Zugriffe incl. das notwendige Xbox Abo zu konfigurieren, nur weil er das Online spielen wollte. Von wegen "einfach". :rolleyes:

Da frage ich mich immer wieder, wie das Nicht-IT-affine Eltern immer so schaffen, wenn selbst ich mir einen abbreche, um mal so eine Konsole zum Laufen zu bekommen.:rolleyes: Ne, da ist ein PC für mich einfacher zu handhaben. ;)

Weil du es gewohnt bist einen PC zu nutzen, du besitzt vermutlich auch schon sehr lange einen, genau so wie ich auch. Konsolen sind in der Handhabung deutlich einfacher, du musst keine Treiber installieren, keine Hardware wechseln, jedes System ist gleich, was für Spieleentwickler ein Traum ist.
 
@ragnaroek666

Wo steht das du das am PC machen musst?
Schraube die Details auf ein vergleichbares Maß runter und schon kommst du auf ein ähnliches Resultat, sofern es kein 0815 Schrott Port war.
 
Entwickler müssen Spiele/Programme am PC auf jedem System lauffähig bekommen und wie ich bereits erwähnt habe, sind Systeme komplett unterschiedlich von der Kombination. Dieses Problem haben Entwickler bei Konsolen einfach nicht, weil das System der Spieler überall exakt dasselbe ist, somit müssen sie es nur auf das eine System optimieren, was vom Aufwand deutlich besser ist.
 
PHuV schrieb:
Als Mittelklasse-GPU Benutzer mußt Du eben abwarten, bis die Gebrauchtpreise für die ehemals HighEnd-GPUs sinken, ganz einfach. Wenn Du Dir das nicht leisten willst (oder kannst), muß Du eben bis dato verzichten.

Also an sich sehe ich kein Problem darin 500-700€ in eine GPU zu investieren, ggf. auch geringfügig mehr, wenn ich dann wüsste ich hätte eben auch damit 3 Jahre Ruhe und zumindest stabil überall mindestens 60+ FPS (Tendenz 100 wäre natürlich besser) auf meinem 1440p FreeSync Monitor. Bei Spielen die etwas älter sind (wie Far Cry 5) eben mehr, bei MMOs (wie FFXIV, Lost Ark, Astellia) wäre es halt in allen Situationen wünschenswert, darf aber gerne auch mehr sein.
Shooter wie Modern Warfare laufen auch im MP schon gut, aber da ist mehr bekanntlich auch besser.
Nur wage ich zu bezweifeln, diese Ruhe mit dem Geld erkaufen zu können. Unabhängig von einer Aufwertung des R5 2600, die dann eh fällig wäre.
 
@Summerbreeze
Komisch das Focus GX 550 ist eigentlich ein sehr gutes NT und sollte easy reichen.
Die W8100 ist ja Hawaii mit 225W. Das müsste locker gehen.

Ich hab noch ein 1000W OCZ ZX im System und unter Gamelast hab ich kein Problem mit der GTX1080.
Nur wenn das System aus dem Standby aufwacht, kommt es mal vor dass der HDMI Sound mal weg ist. Und das auch erst seit dem vorletzten Treiber.
Ich würde schwer auf den Treiber tippen.
 
modena.ch schrieb:
@Summerbreeze
Komisch das Focus GX 550 ist eigentlich ein sehr gutes NT und sollte easy reichen.
Die W8100 ist ja Hawaii mit 225W. Das müsste locker gehen.
Das habe ich auch gedacht, das das locker gehen sollte. Die hat mit dem Netzteil aber auch auf den anderen Monitoren öfter Sekunden Bildaussetzer gehabt und ich war schon ziemlich knatschig, da ich gedacht habe die Karte tut es nicht. Weil ich noch ein Digifanless 550 hier hatte, kurzerhand testweise angeschlossen und -sie lief.
Normalerweise hätte das aber wirklich locker passen müssen. War vermutlich irgendwas kaputt. Hab ich aber auch nicht den Nerv gehabt mich um die Garantie zu kümmern.

Logo, wenns nach einem Treiberwechsel nicht mehr tut, ist der Fall ziemlich klar. ;)
 
Wadenbeisser schrieb:
Es wird von AMD keine ach so günstigen Karten geben weil es vom Markt nicht honoriert wurde und man sich durch die geringeren Erlöse nur selbst geschadet hat.
Es lässt sich damit auch kein Geld verdienen, oder hast du dir schon mal die Bilanzen der RTG angesehen? Glaube keiner der, die hier von billigen Preisen phantasieren, haben sich die Bilanzen von AMD zur Gemüte geführt.

Preissenkungen sind überhaupt nicht drinnen, alleine bei dem Risiko, das man fährt, muss es diese Aufschläge geben.
 
  • Gefällt mir
Reaktionen: PHuV
.Sentinel. schrieb:
Da bin ich nebst dem Bereich eines Engine Techies inzwischen gelandet...

Hoerte sich stark danach an.

.Sentinel. schrieb:
Mit Errechnen ist in diesem Sinne nicht gemeint, etwas Neues zu berechnen, sondern bereits bekannte Informationen mittels neugewonnener Informationen zu kumulieren. Du setzt ja nur ein Mosaik unter Einsatz von Jitter wieder zusammen.

Moment, da verwechselst du etwas. Die "neugewonnenen" Informationen sind sehr wohl neu berechnet und der Output des Neuronalen Netzes (Wobei das wohl sehr viel eher Convoluational Layers sein werden). Und genau in dem Output sind Fehler drin. Die sind nicht komplett vermeidbar. Was wichtig ist, das Netz besitzt keine Informationen selber, sondern nur Wege wie von Input zu Output etwas berechnet wird.

.Sentinel. schrieb:
Exakt, deswegen hat das DLSS- Bild ja auch nicht durchgehend bessere Qualität. Ursächlich dafür ist meist nicht konsistentes berechnetes Ausgangsmaterial. Wenn man zum Beispiel im Post- Processing anfängt, im Screenspace rumzufummeln oder da etwas nachträglich einzublenden.
Dort geht dann dem DLSS die essenziell wichtige Bewegungsinformation flöten sprich die Mosaiksteinchen werden nicht mehr an den richtigen Platz gesetzt und es gibt Fehler.

Ich komme nicht aus dem Game Design Bereich, deswegen glaube ich dir was du in dem Bereich sagst. Ich kenne mich allerdings im Data Science/Machine Learning Bereich etwas aus. Was auch mein Kritikpunkt an deinem Post war. Wenn das Input Material fuer das Netz natuerlich veraendert wird und staerker abweicht von dem was das Netz aus dem Training gewohnt ist, dann ist es kein Wunder, dass das Ergebnis schlechter ist. Da verringert sich einfach die Genauigkeit des Netzes und du bekommst mehr Fehler raus. Da ist es auch egal welche Version von DLSS das ist.

.Sentinel. schrieb:
Muss sie auch nicht sein, da durch die Nutzung der Bildinformation von 3 Bildern so viel Pixelmaterial vorhanden ist, dass es, wenn ordentlich programmiert auch mit Deutungsfehlern in der Praxis noch höher aufgelöst ist als nativ.

Ja, du brauchst halt einen zusaetzlichen Schritt um problematische Stellen zu erkennen und zu korrigieren. Hier koennen aber erneut Fehler auftreten.

.Sentinel. schrieb:
Werden die Framebuffer richtig übergeben, ist es das nicht. Du kannst durch die Motion- Vektoren zielgerichtet bestimmen, wo die kumulierten Pixel anzuordnen sind.

Das mag sein, hilft aber nicht wenn die Pixel falsch aus dem Netz kommen. Das muss in einem separaten Schritt geprueft werden.

.Sentinel. schrieb:
Zudem scheinst Du bei DLSS1.0 stehengeblieben zu sein. Ich beziehe mich auf DLSS2.0. Dort werden die Texturen nicht angerührt. Die bleiben in voller Auflösung erhalten. Sollten da irgendwelche Texturen verschwinden, ist es schlampig oder fehlerhaft implementiert.
Aufgrund dieser letzten Aussage von Dir muss ich vermuten, dass Du Dir meinen Link nicht durchgelesen hast, in dem alles erklärt wird.

Es geht mir rein um das Netz und was das zum leisten im Stande ist. DLSS 1.0 ist auf einzelne Spiele trainiert, DLSS 2.0 genereller. Das bringt Vorteile, aber auch Nachteile mit sich. An der grundlegenden Problematik des Netzes aendert sich da aber wenig. Wenn es daneben liegt, liegt es immer noch daneben. Ich habe aber wahrscheinlich den Falschen Begriff verwendet, da ich das Bild in niedriger Aufloesung meinte. Und da kann man durchaus immer noch das Problem haben, dass moeglicherweise Inhalt falsch dargestellt wird. Das wird gravierender je weiter sich das ganze vom Trainingsset unterscheidet. Man kann auf das Problem zwar immer mehr Daten drauf schmeissen, aber es ist derzeit noch nicht gesichert ob man damit wirklich eine komplette Generalisierung erreicht.

.Sentinel. schrieb:
Wenn Du unter dem Terminus "nvidia Marketing" den faktischen technischen Ablauf der Bildgenerierung durch DLSS 2.0 verstehst, dann hast Du recht. Das habe ich gepostet.

Ne, eher die Versprechen die Nvidia abgibt. Die spiegeln sich etwas in deinem Beitrag wider.

.Sentinel. schrieb:
Da ich den ganzen Spaß gerade in unsere Engine integriere, kann ich Dir halt einfach nur erklären, was technisch Sache ist. Das kannst Du annehmen, musst es aber nicht.
Und doch- Es ist so einfach, wenn man eben vor der Verarbeitung durch DLSS saubere Renderinformation liefert.

Da spreche ich dir auch gar nicht die Expertise ab. Es ging mir rein um das Netz, und dass das eben eine Fehlerquelle sein kann.

.Sentinel. schrieb:
Da spielen aber die alten Gewohnheiten der Optimierung vor dem TAA- Aufruf oftmals Streiche.
Die Programmierer gehen im Augenblick da noch einen Kompromiss ein. Denn noch müssen sie dafür Sorge tragen, dass die Spiele auch ohne DLSS möglichst performant laufen.
Deswegen wird getrickst. Dass es dann deshalb hier und da zu Artefakten kommt, nimmt man derzeit aufgrund der noch nicht allumfassenden Verbreitung von RTX- Karten noch billigend in Kauf.

Ist das eigentlich komplett proprietaer oder ueber eine DirectX Schnittstelle moeglich? Ansonsten bleibt der Hybridansatz noch sehr lange erhalten. Ausser natuerlich man will seine Kundengruppe gezielt einschraenken.

pietcux schrieb:
Dafür, das es nach deiner Meinung gar nicht richtig funktionieren kann/darf, sieht es inzwischen in der Praxis sehr gut aus. Um das zu bewerten reicht es schon es einfach nur zu benutzen. Das braucht keinen Fachmann aus dem Game Design Bereich.

Wie waere es meinen Post genauer zu lesen und sich mit dem technischen Aspekt und den daraus resultierenden Problemen auseinanderzusetzen? Oder ist das zuviel verlangt? Denn dein Post macht ziemlich klar, dass du nach dem zitierten Teil aufgehoert hast zu lesen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
@KlaraElfer

War das nicht der Bereich wo sich die aktuellen Navi Modelle ganz gut verkaufen und wozu auch die Konsolen Chips gehören sollen? Wie steht es um die normalen APUs bei denen derzeit darüber spekuliert wird dass die Nachfrage das Angebot überschreiten würde?
Mit anderen Worten, was gehört alles zur "Radeon Technologies Group"?

Ich frage mich aber warum du über Preissenkungen redest. Angesichts des Preisgefüges am Markt halte ich es für egal ob sie möglich wäre, sie ganz einfach nicht erforderlich.
 
@Kacha
Ich weiss worauf Du
Kacha schrieb:
Moment, da verwechselst du etwas. Die "neugewonnenen" Informationen sind sehr wohl neu berechnet und der Output des Neuronalen Netzes (Wobei das wohl sehr viel eher Convoluational Layers sein werden).
Wenn Du das aus Richtung der Stage betrachtest, wo die KI das Bild aufschlüsselt, dann ja- Die Farbwerte, die da analysiert und geändert werden sind, wie Du es schon sagst, eher ein educated guess.

Und genau in dem Output sind Fehler drin. Die sind nicht komplett vermeidbar. Was wichtig ist, das Netz besitzt keine Informationen selber, sondern nur Wege wie von Input zu Output etwas berechnet wird.
Genau- Aber darauf beziehe ich mich mit meinen Aussagen garnicht. Der Ursprung der Diskussion ist ja, dass bei vielen die Meinung vorherrscht, dass man ein 520p Bild nimmt, dann die große unbekannte KI kommt und anfängt Zaunlatten, Wegdetails und was weiss ich noch alles dazu zu denken.

So läuft der Hase aber nicht. Denn das 520p Bild ist nach 3- Facher Iteration eben kein 520p Bild mehr, sondern besitzt durch die Abtastung, die wiederum gejittert ist bereits einen erheblich höheren "echten" Informationsgehalt, auf dem dann prinzipbedingt eher ein DSR auf die native Auflösung denn ein Upscaling stattfindet. Ein Upscaling versucht ja, fehlende Zwischeninformationen über einen Mittelwert, der durch das Sampling umgebender Punkte errechnet wird zu füllen.
DLSS2.0 als Derivat von nennen wir es 3- Fach Checkerboarding mit Motion- Vector- Korrektur, denkt sich den Wert nicht aus, sondern übernimmt den tatsächlichen Wert z.B des Vorgängerbildes und setzt ihn durch die Bewegungsvektoren positionskompensiert an dem Platz, der ihm bei der höheren Auflösung zugedacht ist.

Dadurch ergibt sich eine echte, physisch greifbare Auflösungssteigerung, die durch den Nachteil des Rechenaufwands und des Lags von einem Frame generiert wird.
Ist wie in meinen Beispielen wie bei modernen 4K Beamern im Niedrig/Mittelklassesegment.
Da wird ein 1080P Bild projeziert und dann werden die Spiegel in affenartiger Geschwindigkeit 4x um einen Pixel im Kreis verschoben. Da das Auge träge ist (deshalb ist das Beispiel so schön, weil eben auch dort dir Temporale Komponente eine Rolle spielt), sieht es dann nur das hochauflösende Bild.

Ich kenne mich allerdings im Data Science/Machine Learning Bereich etwas aus. Was auch mein Kritikpunkt an deinem Post war. Wenn das Input Material fuer das Netz natuerlich veraendert wird und staerker abweicht von dem was das Netz aus dem Training gewohnt ist, dann ist es kein Wunder, dass das Ergebnis schlechter ist.
OK- Ich glaube ich habe Dich da etwas missverstanden. Es ist jedoch so, dass eben das Ausgangsmaterial bevor es an den KI Part weitergereicht wird, in vielen Teilen bereits mehr "echten" Informationsgehalt hat, als das native Bild. Dadurch kann man der KI natürlich schon ordentlich auf die Sprünge helfen, da sie eben nicht mehr so viel "dazuraten" muss.

Ich denke, dass die Version 1 tatsächlich erheblich mehr auf das KI und Trainingsmodell gebaut hat, wohingegen ich inzwischen den Verdacht hege, dass die KI in DLSS2.0 tatsächlich eher zur Mustererkennung nach Charakteristika von Artefakten bzw. Aliasing sucht und die dann glättet.

Ja, du brauchst halt einen zusaetzlichen Schritt um problematische Stellen zu erkennen und zu korrigieren. Hier koennen aber erneut Fehler auftreten.
Es ist ja eine Frage der Wahrnehmung. Auch mit 16K Auflösung gäbe es noch Aliasing. Nur würde man es physisch nicht mehr wahrnehmen.
Die gesamte künstliche Bilderzeugung ist so gesehen eine Aneinanderreihung von Schummeleien, die die starke Kompensationsfähigkeit des Gehirns und im Gegenzug die Schwächen des Sehapparates ausnutzt.

Die Frage ist halt immer, welche Fehler das Auge eher verzeihen kann. Der ein oder andere durch die KI falsch geratene Farbwert im Bild wird wohl erheblich weniger auffallen als fortwährendes Kantenflimmern oder Monte Carlo Rauschen.
Insofern ist der Tradeoff gerade in Hinblick der doch erheblichen Leistungssteigerung durch dieses Verfahren ein No- Brainer.

Es geht mir rein um das Netz und was das zum leisten im Stande ist. DLSS 1.0 ist auf einzelne Spiele trainiert, DLSS 2.0 genereller. Das bringt Vort ... mehr Daten drauf schmeissen, aber es ist derzeit noch nicht gesichert ob man damit wirklich eine komplette Generalisierung erreicht.
So ist es, weswegen nvidia mit DLSS2.0 der KI durch eine deutlich erweiterte Datenbasis erheblich weniger Rateaufwand zumutet

Ne, eher die Versprechen die Nvidia abgibt. Die spiegeln sich etwas in deinem Beitrag wider.
Das prinzip funktioniert verblüffend gut. Während es mit DLSS 1 tatsächlich nur nette Worthülsen waren, haben sie sich mit DLSS 2.0 meines Erachtens ein wenig rausgeschummelt. Dennoch- und das muss man neidlos zugestehen- mit beeindruckendem Endergebnis.
Und das ist ja letztenendes das was zählt.

Ist das eigentlich komplett proprietaer oder ueber eine DirectX Schnittstelle moeglich? Ansonsten bleibt der Hybridansatz noch sehr lange erhalten. Ausser natuerlich man will seine Kundengruppe gezielt einschraenken.
Die DLSS- Bibliotheken sind propretär. In gewisser Art und Weise eine Blackbox. Ich bin am experimentieren, ob ich innerhalb der Bibliothek Hooks oder Breaks setzen kann, so dass man denjenigen, die das Prinzip verstehen wollen, die Einzelschritte in Bildform aufschlüsseln kann.
Dann lägen die Fakten mal transparent und bildlich nachvollziehbar auf dem Tisch.
 
Zuletzt bearbeitet:
Novasun schrieb:
In den Standbilder sind die Ergebnisse ja schon sehr beintruckend
Wenn man sich das deutlich ruhigere Bewegt-Bild finde ich das fast wichtiger als das + an Schärfe im Standbild. Letztes hab ich selten im Spiel.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Wadenbeisser schrieb:
Wie ich bereits schrieb fing das Spiel mit der Titan (Feb. 2013) als Preistreiber bereits bei der normalen 780er (Mai 2013) an und nein, +30% Fläche und nochmal 20% gestiegene Fertigungskosten oben drauf sind nicht +50% sondern +36% im Bezug auf den Ausgangszustand. Spass mit der Prozentrechnung eben.

Wir haben derzeit die Situation, dass der Marktführer Gewinne einfährt und der unterlegene Marktteilnehmer in dem Fall AMD, kaum Gewinne einfährt, die RTG sogar teilweise Verluste geschrieben hat, zu wenig Geld hatte um Big Chips zu produzieren, Risiken einzugehen.

Nun, dank Ryzen können sie wieder agieren, weil endlich wieder das nötige Geld da ist.
Hier Preissenkungen zu fordern, ist völlig realitätsfern. Wir haben im GPU Markt zwar ein Oligopol, allerdings sehe ich, dass Angebot und Nachfrage schon sehr gut die Preise drücken.

So stark, dass AMD´s RTG ums überleben kämpft und kämpfte. Wo siehst du da Spielraum für Preissenkungen?
Wenn Nvidia die Preise senkt, muss AMD sie auch senken, was genau ist dann gewonnen? Dass AMD pleite geht und wir nur noch einen Anbieter von dGPUs haben? Sinn?

Die Diskussion hatten wir schon öfter und den Einwand hatte ich schon mehrfach gebracht, du bist aber nicht darauf eingegangen, und vertrittst immer wieder die Meinung Nvidia müsse die Preise senken und alles sei so unverschämt, aber an AMD denkst du dabei nie, welche dann auch ihre Preise senken müssen.

Also wieso immer die Kritik? Für mich nicht nachvollziehbar.
Eine RTX Titan ist verglichen mit der Quadro 8000 echt ziemlich günstig und ist für Entwickler ein grunsolides Werkzeug, war auch schon die Titan V.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: PHuV und adAstra
Kacha schrieb:
Wie waere es meinen Post genauer zu lesen und sich mit dem technischen Aspekt und den daraus resultierenden Problemen auseinanderzusetzen? Oder ist das zuviel verlangt? Denn dein Post macht ziemlich klar, dass du nach dem zitierten Teil aufgehoert hast zu lesen.
Bloß weil ich mich an die Foreregel halte, die besagt, dass man komplett Zitate vermeiden soll habe ich sehr wohl deinen gesamten Beitrag gelesen. Meine Aussage bezieht sich auf dein Gesamtwerk.
 
Kacha schrieb:
Wie waere es meinen Post genauer zu lesen und sich mit dem technischen Aspekt und den daraus resultierenden Problemen auseinanderzusetzen? Oder ist das zuviel verlangt? Denn dein Post macht ziemlich klar, dass du nach dem zitierten Teil aufgehoert hast zu lesen.

Du siehst DLSS ziemlich eindimensional und beschränkst dich eigentlich nur auf die Nachteile/Probleme der Technologie ohne das Gesamtbild zu sehen, welches einfach mittlerweile - kleinere Artefakte mal ausgeklammert - besser glättet als bisherige Methoden und das inkl. herbem Performanceboost.

Abgesehen der seltenen Schlieren, die mittlerweile besser in Death Stranding geworden sind, ist das im Vergleich zu anderen verfügbaren Glättungsmethoden + dem Performancezuwachs über jeden Zweifel erhaben. Deal with it.
 
  • Gefällt mir
Reaktionen: pietcux
KlaraElfer schrieb:
Abgesehen der seltenen Schlieren, die mittlerweile besser in Death Stranding geworden sind
Die entstehen mit an Sicherheit grenzender Wahrscheinlichkeit deshalb, weil Informationen an den zwangsweise zu übergebenden Framebuffern ausgeklammert werden. Das ist kein Fehler von DLSS... Sonst müssten alle DLSS2.0 Titel diese Schlieren zeigen.
Ich denke, dass das per Patch noch nachgebessert werden wird.
 
Zurück
Oben