Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

SKu schrieb:
Igor hat in der Hinsicht auch schon angedeutet, dass Benchmarks unterschiedlich stark ausfallen. ;)

Wird man denn schon (theoretisch) vorhersagen können, welche Engines/Spiele besser und welche schlechter skalieren werden? Also gibt es da sowas wie nen Leitfaden, welche Engines mehr Int und wo mehr FP verwendet wird?
 
SKu schrieb:
Nennen wir Ampere Gleitperformance-Sieger.
Darauf können wir uns einigen!

SKu schrieb:
Igor hat in der Hinsicht auch schon angedeutet, dass Benchmarks unterschiedlich stark ausfallen.
Also ich will jetzt klarstellen, dass ich Igors Seite mag, auch wenn er manchmal vielleicht über die Texte drüber lesen sollte. Genau so ist Igor, was Hardware angeht durch seine Kontakte echt genial vernetzt und einer der wenigen Journalisten, denen ich blind auf dem Gebiet vertraue.

Aber um das zu »erahnen« brauch ich Igor nicht, da reicht ein Informatikstudium und mein Spieltrieb, was Grundlagen angeht. Aber es ist schön, wenn jemand wie Igor durch seine Videos als auch Aussagen die eigenen Annahmen zumindest bestärkt.
 
  • Gefällt mir
Reaktionen: Der Nachbar
Wadenbeisser schrieb:
Das ändert herzlich wenig am grundsätzlichen Ablauf, nämlich dass das Bild erst in der kleinen Auflösung gerendert und danach per DLSS aufgeblasen wird. Wie es aufgeblasen wird steht dann eben auf der Folgeseite und am Schluss kommen noch die Post Effekte drüber.
Genau. Der Punkt ist, WIE das ganze durch DLSS aufgeblasen wird.
Und ein ganz erheblicher Faktor ist da nicht etwa das dazuraten oder dazuerfinden von Pixeln, sondern ein Mehrfach- Sampling der tatsächlich vorhandenen Information auf mehreren Ebenen.

Und da wird von einigen leider hier immernoch gedacht, dass die KI das niedrig aufgelöste Bild nimmt, sich dann ein wenig betrachtet und dann anfängt zu raten, wo da evtl. Details hinkommen müssten. Also Dinge einfach dazuerfindet.

Woher sich auch wiederum der Irrglaube gründet, dass DLSS keine bessere Qualität als Nativ bieten könne.
Und das ist nunmal grundlegend daneben.

Stell Dir das so vor. Du hast einen Zaun und stehst davor.
Pro Planke kannst Du nicht sehen, was dahintersteckt.

Jetzt schnappst Du Dir Dein Fahrrad und fährst schnell an dem Zaun vorbei und siehst Dir die Szene nochmal an.
Durch die Temporale Komponente und dem "Jitter", also der Positionsverschiebung der Planken (analog der Pixel bei DLSS), kannst Du nun hinter den Zaun schauen, als ob dieser nicht da wäre und das auch bei deutlich weniger Durchsichtsfläche (Auflösung) als Plankenfläche.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: GERmaximus, noxon, monitorhero und eine weitere Person
Oneplusfan schrieb:
Das ist dann aber einerseits sehr selektives Lesen deinerseits

Nö, diese Totschlagargumente kamen nicht von mir und haben immer das Ziel Diskussionen zu unterdrücken. Entweder ist es relevant oder nicht aber offensichtlich war es nur einmal mehr nur ein pseudo Argument.

Zu meiner Einstellung zu dem Thema, seit der HD3870 X2 habe ich immer mit 300W für die Grafikkarte geplant und schon vorher 120W für den Prozessor eingerechnet, das "Strommonster" Geblubber das vor allem bei Kepler anfing ist mir also nur zu gut in Erinnerung geblieben. Was später aus der ach so effizienten GTX680 wurde sollte ja bekannt sein.
 
Wadenbeisser schrieb:
Und wie gesagt, dabei wurde idR. der Verbrauch an sich als Totschlagargument genutzt weil ja ganz bestimmt neue (stärkere) Netzteile erforderlich sind, der Radau durch die stärkere Kühlung (natürlich inkl. Gehäusebelüftung) und weil die Abwärme im Sommer die Räume so unerträglich aufheizt.
Leute mit 650W Netzteilen sind ganz gut versorgt, ich gehöre da mit dazu, weil ich gerne etwas Reserve für (unverhoffte) Aufrüstvorhaben habe.
Zum Glück brauche ich, nach meinen Umbauten am Gehäuse keine Gehäuselüfter mehr für die GraKa. Ob die Jetzt auf 450RPM oder auf 1000RPM laufen macht keinen Unterschied bei der GraKa. Bei dem Kühlsystem der Karte selber hast du aber recht.
Gehe im Sommer mehr raus, dann heizt sich auch nichts auf, das tut es mit weniger Abwärme nämlich auch schon.
Mache ich auch so, vor 21 Uhr wird im Sommer nicht gezockt, ab da sind dann die Fenster auf und man kann es ertragen.
 
.Sentinel. schrieb:
Genau. Der Punkt ist, WIE das ganze durch DLSS aufgeblasen wird.

Ist es nicht denn dafür ist dein Beispiel und deine gesammte Argumentation grundlegend falsch weil du bei deinem Beispiel das Gesammtbild aus Teilbildern (zur gleichen Auflösung) zusammensetzt (was bei DLSS eben nicht der Fall ist) und das Bild eben doch in der kleinen Auflösung gerendert und nachträglich von DLSS auf die Zielauflösung aufgeblasen wird. Wie ist für den Ablauf herzlich egal.
 
.Sentinel. schrieb:
Woher sich auch wiederum der Irrglaube gründet, dass DLSS keine bessere Qualität als Nativ bieten könne.
Und das ist nunmal grundlegend daneben.
+1
Eigentlich ging ich davon aus, dass den meisten spätestens seit den Kameras in den Pixel Phones klar sein sollte, wie gut Software im Vergleich zu vermeintlich besserer Hardware sein kann und wie wichtig sie ist. Offensichtlich lag ich daneben :)
 
CrustiCroc schrieb:
Der war gut. Versuchen gegenzuhalten macht derzeit AMD.
Versuchen noch abzukassieren bevor AMD launcht macht derzeit NV, richtig.

Ach ja, das wird noch lustig. Wobei, für diejenigen, die sich jetzt eine GeForce (insb. mit dem mickrigen Speicher) kaufen, eher nicht so.
 
Wadenbeisser schrieb:
Ist es nicht denn dafür ist dein Beispiel und deine gesammte Argumentation grundlegend falsch weil du bei deinem Beispiel das Gesammtbild aus Teilbildern (zur gleichen Auflösung) zusammensetzt (was bei DLSS eben nicht der Fall ist) und das Bild eben doch in der kleinen Auflösung gerendert und nachträglich von DLSS auf die Zielauflösung aufgeblasen wird. Wie ist für den Ablauf herzlich egal.
Es ist egal, ob es Teilbilder oder Pixel sind.

Ein Pixel ist ein künstliches Konstrukt, also ein Teilbild oder eine Kachel, die den Farbwert bereits Quantisiert auf eine gewisse Zielauflösung erhält!
Da ist das ganze rastern schon durch. Das ist es bei DLSS aber nicht!

Schau Dir mein Edit oben mit dem Zaunbeispiel an...
 
Taxxor schrieb:
Du meinst also AMD wird eine 2080Ti nicht schlagen können?
Denn ca da wäre die 3080 gelandet, wenn man sie nicht auf dem 102 Chip gebracht hätte, dann wäre sie das geworden, was jetzt die 3070 ist, eine Karte mit dem gleichen Verbrauch wie die 2080, nur 30-35% schneller.

Und dann hätte AMD die 3080 locker überholt, genau deshalb wird man sie direkt auf dem 102 gebracht und den Verbrauch erhöht haben, um nochmal 30% und damit genug Abstand zu haben.

So wird AMD nun vmtl irgendwo zwischen 3070 und 3080 landen.

Gibt es dafür schon irgendwelche Beweise?
 
monitorhero schrieb:
Gibt es dafür schon irgendwelche Beweise?
Natürlich nicht, wie auch? Das sind alles Spekulationen, basierend auf den Chips in den Next-Gen Konsolen und anderen Gerüchten bzw. versuchen zwischen den Zeilen diverser Tweets zu lesen.
Und das Thema Software wird leider oft komplett außen vor gelassen.
 
monitorhero schrieb:
Gibt es dafür schon irgendwelche Beweise?
Nein, aber man muss schon äußerst pessimistisch sein um zu glauben, dass AMD mit 275-300W und 72-80CUs die 50% effizienter sind als die bisherigen, weniger als 50% auf eine 5700XT drauflegen könnte.
 
@Darkscream

Wobei die Ausgangsleistung des Netzteils auch nicht alles ist.
Ich glaube bei meiner Vega Karte hatte ich bei einem alten Netzteil Probleme mit der Überlast Abschaltung obwohl es mehr als genug Reserve hatte. Das reagierte einfach zu empfindlich auf die Lastschwankungen durch das Power Limit und machte dann einfach dicht. Mit hochgeschraubten Limit lief es dann deutlich stabiler weil die Karte kaum noch drosselte aber die Lautstärke.....reden wir besser nicht darüber. 😆
Mit dem neuen und effizienteren Netzteil verschwand das Problem vollständig und durch die stärkere +12V Rail reichte sogar ein etwas schwächeres Modell.
 
.Sentinel. schrieb:
Es ist egal, ob es Teilbilder oder Pixel sind.

Ein Pixel ist ein künstliches Konstrukt, also ein Teilbild oder eine Kachel, die den Farbwert bereits Quantisiert auf eine gewisse Zielauflösung erhält!
Da ist das ganze rastern schon durch. Das ist es bei DLSS aber nicht!

Schau Dir mein Edit oben mit dem Zaunbeispiel an...

DLSS arbeitet doch u.A. auch nach dem Prinzip von TAA oder eben TSSAA. Oder nicht?

Sprich das Bild wird über mehrere Frames hinweg gejittert (leichter Pixelversatz) wodurch eine Szene über Zeit mehrfach abgetastet wird.

Richtig verrechnet und bewegungsvektoren mit einbezogen erhält man dann den gleichen Effekt wie bei echtem Supersampling.

DLSS ist toll, aber dass durch einen "filter" mehr Infos im Bild erscheinen, als ursprünglich ohne Filter vorhanden waren ist seit TAA eigentlich keine Hexerei mehr?!

Keine Ahnung warum die Leute dann nicht glauben können, dass DLSS super funktioniert. Das ist einfach TAA weiter gedacht. Wie es im Detail genau funktioniert weiß ich aber auch nicht. Gibts da irgendwo infos? Würd mich grundsätzlich interessieren.
 
  • Gefällt mir
Reaktionen: Colindo und .Sentinel.
Pixelhomie schrieb:
Die spannende Frage ist, ob Nvidia auch zum Weihnachtsgeschäft genug Karten liefern kann?

Nvidia hat das wie folgt kommentiert:

PCGH schrieb:
Verfügbarkeit und Fertigung
"Yields are great, shipment has started last week", zu Deutsch: Die (Chip-)Ausbeute ist gut und die Auslieferung (der nötigen Teile) hat vergangene Woche begonnen, mit diesen Worten startete der faktenschwangere Teil der ersten Nvidia-Veranstaltung. Zuletzt ging das Gerücht, Ampere werde nach der ersten Charge rasch und langanhaltend ausverkauft sein. Nvidia dementierte und versichert, dass man sich der großen Nachfrage bewusst sei, mit entsprechenden Maßnahmen. Ob die verhältnismäßig geringen Preise für die Geforce RTX 3080 und RTX 3070 aus dieser Perspektive optimal sind, wird sich zeigen. Auf die Frage, weshalb man die Chips bei Samsung und nicht mehr bei TSMC fertigen lasse, entgegneten die Nvidia-Verantwortlichen, was man an dieser Stelle immer zu hören bekommt: "Samsungs 8-nm-Prozess war die beste Wahl für diese Produkte". Wer handfeste Informationen dazu sucht, wird das vermutlich noch eine Weile tun müssen. Möglicherweise war alles genau so geplant, Ampere hat seine Designziele erreicht und Samsung offeriert Nvidia gute Preise für seine Dienste, die allem Anschein nach an die Endkunden weitergereicht werden. Genaueres wird sich den nächsten Quartalszahlen entnehmen lassen, sonderlich viel Marge dürfte bei RTX 3070 und RTX 3080 aber nicht anfallen.
https://www.pcgameshardware.de/Gefo...3090-RTX-3080-RTX-3070-Launch-kaufen-1357443/

Es muss sich also niemand Sorgen machen, dass Ampere schnell ausverkauft ist.
 
Zuletzt bearbeitet von einem Moderator:
Taxxor schrieb:
Nein, aber man muss schon äußerst pessimistisch sein um zu glauben, dass AMD mit 275-300W und 72-80CUs die 50% effizienter sind als die bisherigen, weniger als 50% auf eine 5700XT drauflegen könnte.
50% sind ja auch die angepeilten Ziele die AMD selbst in seinen Präsentationen nannte. Aber reicht das für eine 3080?
 
B3nutzer schrieb:
Sprich das Bild wird über mehrere Frames hinweg gejittert (leichter Pixelversatz) wodurch eine Szene über Zeit mehrfach abgetastet wird.

Richtig verrechnet und bewegungsvektoren mit einbezogen erhält man dann den gleichen Effekt wie bei echtem Supersampling.

Bingo!! Noch jemand, der es verstanden hat.

Also in diesem Thread sind schon sehr viele Informationen zu DLSS zu finden.
Ansonsten vielleicht auch hier nochmal nachsehen:
https://www.computerbase.de/forum/t...dlss-2-0-und-fidelityfx.1958099/post-24391765
 
  • Gefällt mir
Reaktionen: B3nutzer und gr1nd
monitorhero schrieb:
50% sind ja auch die angepeilten Ziele die AMD selbst in seinen Präsentationen nannte. Aber reicht das für eine 3080?
Nein 50% ist die Perf/Watt Steigerung die für RDNA2 als Architektur genannt wurde, dazu kommt ja noch dass man die CUs nicht nur durch RDNA2 CUs austauscht sondern auch noch verdoppelt.

50% als absolute Mehrleistung würden für die 3070 reichen, die wie vorhin erwähnt, eigentlich die 3080 gewesen wäre, wenn Nvidia die TDP und den Chip der 2080 beibehalten hätte.
Jetzt werden sie die 3080 vielleicht nicht erreichen, aber zumindest nah ran kommen.
 
  • Gefällt mir
Reaktionen: monitorhero
Der Merowinger schrieb:
amd wird wohl nichts gegen nvidia diesmal haben.

ach und wie kommt man zu dieser Einschätzung?
 
Wadenbeisser schrieb:
Wobei die Ausgangsleistung des Netzteils auch nicht alles ist.
Das natürlich nicht, aber ein RM 650 wie ich es habe schafft auch Lastwechsel. Zudem wurde im Luxx eine Abschaltung erst ab 840W beobachtet.
 
Zurück
Oben