Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Wadenbeisser schrieb:
@.Sentinel.

Ist es nicht, du ignorierst nur alles was nicht zu deiner Argumentation passt.
Das wird nicht ignoriert. Ich stelle es aber immer wieder unermüdlich richtig.

Das Bild wird klein gerendert (daher der Leistungsvorteil) und anschließend per DLSS auf die Ausgabegröße aufgeblasen, wie ist für den Ablauf herzlich egal.
Du nimmst bei Deiner Gleichung den gesamten Arbeitsschritt vom Supersampling von DLSS aus dem Spiel.

Aus dem Grund kann das Bild auch nicht besser als das Bild in nativer Auflösung werden sondern nur anders denn fehlende Bildinformationen (durch die geringere Ausgangsauflösung) kann auch der beste Algorithmus nicht komplett ausgleichen.
Du diskutierst hier über DLSS und nimmst alles, was DLSS aber ausmacht aus dem Spiel.
Und Deinen Denkfehler kann ich offenbar auch mit noch so vielen Beispielen nicht beseitigen. Seis drum.
 
  • Gefällt mir
Reaktionen: McFritte, KlaraElfer, Laphonso und eine weitere Person
B3nutzer schrieb:
Wie gewinnt man Bildinformationen?

Garnicht, man kann nur interpretieren um was vergleichbares rauszubekommen.
Das kann bei einfachen Bildelementen deutlicher als im Orginal sein aber auch komplett in die Hose gehen, wie man seinerzeit bei der ersten DLSS Generation recht deutlich sehen konnte. Alles hängt am Algorithmus und dessen Möglichkeiten zusätzliche Informationen zu interpretieren.
 
Wadenbeisser schrieb:
wie man seinerzeit bei der ersten DLSS Generation recht deutlich sehen konnte. Alles hängt am Algorithmus und dessen Möglichkeiten zusätzliche Informationen zu interpretieren.
Diese Aussage sieht für mich doch wieder nur danach aus, als würdest du immer noch denken, dass DLSS 1.0 und DLSS 2.0 auf die gleiche Weise arbeiten
 
  • Gefällt mir
Reaktionen: KlaraElfer, Laphonso, .Sentinel. und eine weitere Person
Wadenbeisser schrieb:
Garnicht, man kann nur interpretieren um was vergleichbares rauszubekommen.
Du musst Dinge nicht interpretieren, die bereits berechnet sind. Die sind ganz real schon da.

Und wenn Du den Dingen, die schon da sind noch Information dazufügst, ganz egal wie wenig das sein mag (niedrig aufgelöster jitter- offset), erhältst Du mehr Details.
 
Unterm Strich ist doch eigentlich nur interessant was am Ende heraus kommt.

Die Ergebnisse mit DLSS 2.0 haben die Fachredaktionen weltweit sehr überzeugt, besonders im Kontrast zu DLSS 1.0 , dass nun nicht besonders gut aussah.

Jetzt macht hier bitte aber keine DLSS-Diskussion draus.......

Es gab so viele Änderungen bei Ampere.
Und jede einzelne Änderung ist es wert diskutiert zu werden......
 
.Sentinel. schrieb:
Du nimmst bei Deiner Gleichung den gesamten Arbeitsschritt vom Supersampling von DLSS aus dem Spiel.
Dummerweise gibt es bei mir keine Gleichung sondern nur den Arbeitsablauf aus der von dir verlinkten Dokumentation. Was bei DLSS abläuft ist danach nämlich beim Rendern irrelevant und genau das ignorierst du beharrlich weil es dir offensichtlich nicht in den Kragen passt.

Damit ist das Thema für mich selbst dann durch wenn du weiter Rumpelstielzchen spielst.
 
Wadenbeisser schrieb:
Dummerweise gibt es bei mir keine Gleichung sondern nur den Arbeitsablauf aus der von dir verlinkten Dokumentation.
Und den sollte man in seine Überlegungen halt auch mal in Betracht ziehen.

Was bei DLSS abläuft ist danach nämlich beim Rendern irrelevant und genau das ignorierst du beharrlich weil es dir offensichtlich nicht in den Kragen passt.
Rendern nennt man den Vorgang der künstlichen Bilderzeugung. Wenn Du die Schritte zum fertigen Frame als irrelevant erachtest, dann kann man halt auch nicht helfen.

Damit ist das Thema für mich selbst dann durch wenn du weiter Rumpelstielzchen spielst.
Ich versuche Dir auf x- Verschiedene Weisen nahezubringen, wie das ganze funktioniert.

Jedoch muss natürlich auch immer ein gewisser Wille dabei sein, es auch verstehen zu wollen.
Ein par Deiner Aussagen stimmen mich aber geneigt anzunehmen, dass Du nicht bereit bist, dazuzulernen bzw. Deine Meinung unverrückbar ist.

Dann ist das halt so....
 
  • Gefällt mir
Reaktionen: Schattenspender, McFritte, KlaraElfer und 2 andere
Taxxor schrieb:
Diese Aussage sieht für mich doch wieder nur danach aus, als würdest du immer noch denken, dass DLSS 1.0 und DLSS 2.0 auf die gleiche Weise arbeiten
Weil?
Die erste Generation war auf eine externe Quelle für den Algorithmus angewiesen, welcher auch noch ziemlich starr war. Da fand der DL Teil zur Erzeugung des Algorithmus eher auf nvidias Server statt, die zweite Generation ist hier deutlich flexibler und scheint auch mehr Bildinformationen zur Verarbeitung zu nutzen, der Grundsätzliche Arbeitsablauf scheint sich aber wenig geändert zu haben. Das Bild wird klein gerendert und danach per DLSS auf die gewünschte Auflösung aufgeblasen. Was bei DLSS selbst abläuft ist dafür irrelevant weil es keinen Einfluss auf den Rendervorgang hat udn auch das Ergebnis ändert am grundsätzlichen Ablauf selbst herzlich wenig.
 
monitorhero schrieb:
Es war doch 2080 (non-super) gegen 3080 in dem DF Test. Das heißt gegen 2080 Ti sieht die Mehrleistung noch geringer aus oder?

Im DF Video war es eine 2080. Darauf habe ich mich aber bei den Zahlen bezogen.

Darkscream schrieb:
Schau bei HisN in den Thread rein dann weißt du es:

Da gibts kaum Spiele die es brauchen. Einige die es mühelos belegen, aber kaum welche die es brauchen. Wie das bei Next Gen Titel aussieht, mal schauen.

Wadenbeisser schrieb:
Mit nur 50% mehr Leistung pro Watt ist man bei den 225W der 5700 XT bereits ein Stück weit an der 2080Ti vorbei, sofern man nicht UHD nimmt und die Karte ins VRAM Limit rennen läßt und bis 300W kann man nochmal gute 30% drauflegen. Selbst unter diesem Gesichtspunkt sollte die 3070 mehr als nur knackbar sein.

Ja wobei Performance pro Watt ein schwieriges Thema nimmt, wenn man nicht die Ausgangskonfiguration kennt. Die tatsächliche Effizienz und der reale Verbrauch lassen sich dann am Ende z.B. relativ schnell wieder killen, wenn der Takt zu hoch angesetzt wird. Sieht man auch bei Navi. Navi 10 kann super effizient sein, ist von haus aus aber auch schon relativ hoch getaktet. Im bereich um 150 Watt ist der Chip aber ein echt effizientes Stück Hardware. Daher ist es schwierig das 1 zu 1 anhand der Leistungsaufnahme hochzurechnen, zumal wir Speicher und Speicherinterface nicht kennen. Ein 512 Bit Interface mit 16GB GDDR6 ist z.B. schon ein ziemlicher Energiefresser. Glaube daher mittlerweile auch, dass Navi 21 eher auf ein 384 Bit Interface setzen wird, da hier das Verhältnis aus Geschwindigkeit, Kosten und Energieaufwand noch deutlich besser passt. Aber mal sehen, vielleicht baut AMD ja doch mal wieder so ein verrücktes Interface und investiert dort einen Teil der Effizienz.
 
Freut sich eigentlich niemand darüber, dass die Gamingamperes HDMI 2.1 im vollen Umfang unterstützen?

Das würde in vielen Threads davor immer wieder gefragt.
Aber hier findet man kaum einen Posts zu diesem Thema.....
 
  • Gefällt mir
Reaktionen: Foxel, Nero1 und Shoryuken94
matty2580 schrieb:
Freut sich eigentlich niemand darüber, dass die Gamingamperes HDMI 2.1 im vollen Umfang unterstützen?
Das wäre nur ein Diskussionsthema geworden, wenn es gefehlt hätte ;)
 
  • Gefällt mir
Reaktionen: .Sentinel.
Bin mal echt auch Benchmarks/ Tests gespannt. Aber nach der 1070 will ich wieder AMD eine Chance bieten.
Von daher kann ich warten. Was mir sehr schleierhaft ist, warum einige schon ein scheitern von RDNA2 vorhersagen. Sony und Microsoft werden sich nicht ohne Grund dafür entschieden haben...
 
So so ihr Schlingel, gemeckert wird also immer, außer es fehlt etwas was ihr euch gewünscht habt. ^^
 
  • Gefällt mir
Reaktionen: Colindo
matty2580 schrieb:
Ich persönlich finde es nicht klug, und würde an Stelle von AMD der Konkurrenz mit aggressiven Leaks ordentlich in die Suppe spucken. 😜

od. AMD weiß das Nvidas RTX 3000 Serie ee erst nächstes Jahr ordentlich verfügbar ist und die early Adopter würden so od. so kaufen und spart sich das ganze einfach weil im Oktober sowieso eine Ankündigung folgen wird :)
 
@Shoryuken94

So ist es, das neue Design oder der Fertigungsprozess brauch seitens der Energieeffizienz nur besser mit dem Takt zu skalieren und schon verbiegt sich das Ganze oben raus recht deutlich. Solange die Ausgangsfaktoren für solche Aussagen nicht bekannt sind ist die Aussagekraft relativ gering.
Gab es nicht mal Aussagen das die GPUs mit GDDR6 und HBM2 umgehen könnten? In dem Fall würde ich bei den 16 GB sogar mit HBM2 rechnen und die kleineren Modelle könnten "nur" GDDR6 bekommen, dann reicht auch ein 384 Bit GDDR6 Speicherinterface und würde dennoch 12 GB unterbekommen.
Da wäre ein direkter Vergleich mal spannend. ^^
 
So würde ich das nicht sehen.
Wer auf AMD fokussiert ist, wird sowieso nichts von Nvidia kaufen, und auf Navi 2.0 warten.

Die Masse der AMD-Fans, obwohl es viele sind, reicht für die RTG aber nicht aus.

Das sieht man gut daran, dass AMD bei den dGPUs weltweit gleich 9% an Nvidia abgegeben hat, und man jetzt bei 20% steht.
 
gr1nd schrieb:
Das wäre nur ein Diskussionsthema geworden, wenn es gefehlt hätte ;)
Ich denke nicht, dann wäre es nur ach so überflüssig gewesen weil es eh kaum Geräte dafür gibt und überhaupt. ;)
 
  • Gefällt mir
Reaktionen: gr1nd
matty2580 schrieb:
Das sieht man gut daran, dass AMD bei den dGPUs weltweit gleich 9% an Nvidia abgegeben hat, und man jetzt bei 20% steht.

Mal ehrlich, wer sich informiert und das beste Produkt für sich finden möchte, wen interessiert dabei der Marktanteil?
 
  • Gefällt mir
Reaktionen: .Sentinel.
Wadenbeisser schrieb:
Garnicht, man kann nur interpretieren um was vergleichbares rauszubekommen.
Das kann bei einfachen Bildelementen deutlicher als im Orginal sein aber auch komplett in die Hose gehen, wie man seinerzeit bei der ersten DLSS Generation recht deutlich sehen konnte. Alles hängt am Algorithmus und dessen Möglichkeiten zusätzliche Informationen zu interpretieren.

Versteh ich dich richtig? Du behauptest echt, dass DLSS oder TAA keine echten Bildinformationen gewinnt, sondern sie nur erfindet oder erratet?

Ich hab dir grade ganz genau erklärt, warum das nicht der Fall ist.
Sorry, aber scheinbar hast du keinen blassen Dunst, wie AntiAliasing funktioniert.
Solange du nichtmal dieses Prinzip verstanden hast, brauchen wir über TAA oder DLSS gar nicht diskutieren.

Abgesehen davon hab ich dir die Funktionsweise erläutert, genauso wie einige andere hier. Das sollte für jeden logisch nachvollziehbar sein.
Du bringt hingegen nur behauptungen, dass dem nicht so sei.

Wenn du es besser weißt, dann erklär doch mal wie TAA oder DLSS nach deiner Ansicht funktionieren und was genau mit dem Bild passiert. Viel Spaß beim blamieren. :freak:
 
  • Gefällt mir
Reaktionen: KlaraElfer
@B3nutzer

Nein verstehst du mich nicht. ;)
Es interpretiert die fehlenden Informationen aus unterschiedlichen Quellen, beispielsweise ist ein Strich ein Strich und keine gepunktete Linie, erst recht wenn sie bei der Bewegung entsprechend mit wandern und deren Helligkeit, sowie die Veränderung bei der Bewegung (Position) könnte Aufschluß auf deren Dicke haben. Eine Information die im gering aufgelösten Bild nicht selten kaum vorhanden ist.
Solche Informationen sind es dann die von DLSS verarbeitet und interpretiert werden um das letztendliche Bild zu erzeugen. Bei relativ groben Strukturen ist es noch recht einfach, ans Eingemachte geht es dann bei vielen feinen Bilddetails bei denen die erste Generation gern mal versagte und ein häßlicher Matsch bei rauskam.
 
Zurück
Oben