Bericht RTX-3000-Technik im Detail: Floating Point ist Amperes Liebling

Darkscream schrieb:
Das natürlich nicht, aber ein RM 650 wie ich es habe schafft auch Lastwechsel. Zudem wurde im Luxx eine Abschaltung erst ab 840W beobachtet.
Also meine Vega56 hat auch bei meinem 550W Netzteil ab und zu eine Abschaltung ausgelöst und die lief mit 250W.
Wenn ich jetzt ne 320W GPU habe die ähnlich starke Lastspitzen haben kann, wird es mit meinen jetzigen 650W vielleicht doch eng^^
 
@.Sentinel.

Ist es nicht, du ignorierst nur alles was nicht zu deiner Argumentation passt.
Das Bild wird klein gerendert (daher der Leistungsvorteil) und anschließend per DLSS auf die Ausgabegröße aufgeblasen, wie ist für den Ablauf herzlich egal.

Aus dem Grund kann das Bild auch nicht besser als das Bild in nativer Auflösung werden sondern nur anders denn fehlende Bildinformationen (durch die geringere Ausgangsauflösung) kann auch der beste Algorithmus nicht komplett ausgleichen.
Mag sein das einem das Ergebnis besser gefällt aber an der Stelle verweise ich gern auf die damalige Vorstellung von "Ashes of the Singularity" zur Demonstration der Vorteile von DX12 wo fleißig mit dem Finger auf AMD zeigt wurde als sich die Bilder zwischen Radeon und Geforce unterschieden weil ihnen das Bild bei der Geforce besser gefiel. Bei wem lag nochmal der Berechnugsfehler vor....?
 
  • Gefällt mir
Reaktionen: thepusher90
B3nutzer schrieb:
Keine Ahnung warum die Leute dann nicht glauben können, dass DLSS super funktioniert. Das ist einfach TAA weiter gedacht. Wie es im Detail genau funktioniert weiß ich aber auch nicht. Gibts da irgendwo infos? Würd mich grundsätzlich interessieren.
Ich glaube das rührt aus dem Film/Fotografie-Bereich, wo es die längste Zeit hieß, dass mit allem Post-processing und Video-/Bildbearbeitung schlechtes Bild-/Videomaterial nicht besser werden kann. Frei nach dem Motto: "Steckst du K*cke rein, kommt höchstens polierte K*cke raus!". Die Vorstellung, das aus etwas schlechterem etwas besseres gemacht werden kann ohne "Zauberei/Schummelei" und negative Nebenwirkungen ruft automatisch Skepsis hervor. Besonders wenn man die Entwicklungsstufen sehen kann wie von DLSS 1.0 zu 2.0 oder den verschiedenen Iterationen von Raytracing in den ganzen verschiedenen Games die es mittlerweile unterstützen. Und so toll DLSS auch ist, es ist aber auch nicht koheränt gut in allen Anwendungsfällen. In der neuen Marbles Demo sind zum Beispiel Artefakte zu erkennen um die Murmeln herum, die wenn ich sowas im Spiel sehen würde, dazu führen würde, dass DLSS 2.0 sofort wieder ausgeschaltet wird, egal ob das den Unterschied zwischen spielbar oder nicht ausmacht. Dann spiele ich eben lieber gar nicht, bis ich die Hardware habe die das nativ ohne die Artefakte spielbar darstellen kann. Aber genau solche Artefakte sind dann der Punkt wo ich mir dann denke: "Ha! Die Trickserei hat ihren Meister gefunden und ist es doch (noch) nicht wert!".
 
  • Gefällt mir
Reaktionen: B3nutzer und monitorhero
Wadenbeisser schrieb:
Aus dem Grund kann das Bild auch nicht besser als das Bild in nativer Auflösung werden sondern nur anders denn fehlende Bildinformationen (durch die geringere Ausgangsauflösung) kann auch der beste Algorithmus nicht komplett ausgleichen.
Das ist beim Image Processing ein verbreiteter Irrglaube. Und auch im Kontext DLSS wurde längst das Gegenteil bewiesen.
 
  • Gefällt mir
Reaktionen: KlaraElfer und .Sentinel.
Ist doch Wurst ob es jetzt genau so ausschaut, es schaut ähnlich gut aus und man hat ~40% mehr FPS... passt doch.
Und Stromkabel schauen ganz ohne Glättung wirklich bescheiden aus, egal in welcher Auflösung.
 
Darkscream schrieb:
Ist doch Wurst ob wie es jetzt genau ausschaut, es schaut ähnlich gut aus und man hat ~40% mehr FPS... passt doch.
Es kann sogar besser aussehen, das ist ja gerade der Punkt. Wie wichtig Software (AI) jetzt schon ist und erst recht noch werden wird, scheinen viele nicht zu realisieren (zu wollen).
 
  • Gefällt mir
Reaktionen: GERmaximus, KlaraElfer und .Sentinel.
Taxxor schrieb:
Nein, aber man muss schon äußerst pessimistisch sein um zu glauben, dass AMD mit 275-300W und 72-80CUs die 50% effizienter sind als die bisherigen, weniger als 50% auf eine 5700XT drauflegen könnte.


Ja da müsste schon etwas ganz gewaltig schief laufen bei AMD und das denke ich nicht. 50% Mehrleistung gegenüber einer 5700Xt wäre schon der absolute worst Case. Ich würde hier mit deutlich mehr rechnen und ausgehend von der Xbox Series X Performance mache ich mir da wenig Sorgen.

In einem Digital Foundry Video wurde über ein frühen Gears 5 Build gesprochen, der mit PC Settings auf der Xbox so schnell wie am PC mit einer RTX 2080 läuft. Mit etwas Optimierung vielleicht auch eine 2080 Super. Die 2080 Super ist schon etwa 25% schneller als eine 5700XT. Mit 80 CUs und mehr Takt sollte da also deutlich mehr gehen, wenn die Performance auch nur halbwegs gut mit den Shadern skaliert. Klar das ist nur ein Spiel und alles andere als ein genauer Benchmark, gibt aber zumindest eine Vorahnung. Ich denke ein 64 CU RDNA 2 Chip wird eine 2080Ti wohl schlagen. bei 80 Cus wird man sehr deutlich schneller sein. Wie viel schneller mal sehen.

Und wie RDNA2 sich gegen Ampere schlägt, auch mal schauen. Ich denke das wird diese Generation noch viel stärker auf die Spiele ankommen, z.B. ob ein Spiel mit dem neuen nvidia Ansatz gut skaliert oder nicht.

Igor hat ja angedeutet, dass die Zahlen von Digital Foundry zur 3080 durchaus realistisch sind und das es je nach Spiel deutlich schwanken kann. Aber so im Mittel der bisher gezeigten Titel liegt die 3080 meist irgendwo zwischen 40 und 60% vorne gegenüber einer 2080Ti. Bei RDNA 2 mit 80 CUs rechne ich mit mindestens 30% Leistungsplus gegenüber eine 2080Ti in der reinen Spieleperformance. Wie das dann mit DLSS, RT etc. aussieht, dass ist noch eine andere Frage. Aber es wird spannend und bei AMD erwarte ich durchaus ein sehr konkurrenzfähiges Produkt.

monitorhero schrieb:
50% sind ja auch die angepeilten Ziele die AMD selbst in seinen Präsentationen nannte. Aber reicht das für eine 3080?

AMD hat nur von 50% mehr Leistung pro Watt gesprochen. In Bezug auf was soll es sollte es denn zur 3080 reichen? Effizienter als eine 3080 zu sein? Oder schneller? Die 3080 ist zumindest laut den ersten Performance Häppchen die man bisher gesehen hat etwa in dem Bereich 5700XT +100% Ob RDNA2 das auch schafft, werden wir sehen.

Die Chance Effizienter als Nvidia zu sein sehe ich durchaus als realistisch, wenn Sie es nicht wieder beim Takt extrem übertreiben und die Chips extrem ausquetschen um die letzten paar % Leistung zu generieren.

Wenn AMD RDNA2 wirklich gut optimiert, die Architektur gut in die breite skaliert und ordentlich taktet, dann ist es auch realistisch, dass man die 3080 erreicht. Ob man die 3090 erreicht? Das wäre eine extrem große Überraschung und eher unrealistisch, aber im Rahmen des möglichen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: thepusher90 und Teralios
gr1nd schrieb:
Es kann sogar besser aussehen, das ist ja gerade der Punkt. Wie wichtig Software (AI) jetzt schon ist und erst recht noch werden wird, scheinen viele nicht zu realisieren (zu wollen).
Jeder hat seine subjektive Wahrnehmung, ähnlich gut beschreibt diese nun mal ohne rum streiten zu müssen am besten :p
 
Marflowah schrieb:
Du findest 10GB ok. Sehe ich eigentlich auch so. Heißt das nun, du findest 8 GB in der 3070 auch noch ok oder ist das zu wenig (auch in Anbetracht des angesetzten Preises)? Und die brachialen 24 GB in der 3090 - wenn du 10 GB als ausreichend siehst, sind 24 dann nicht völlig unsinnig viel und etwas, was den Preis völlig nutzlos in die Höhe jagt?

Du könntest statt im Kreis zu eiern auch einfach meine Frage beantworten, auf die der AMD Fanboi dessen Beiträge du ständig likest nicht eingegangen ist. Kann sie auch gerne wiederholen: Wofür reichen 10GB nicht?

Bitte sieh davon ab weiter what ifs zu spinnen bevor du darauf geantwortet hast. Was ist eigentlich los mit euch, wenn ich mir euere Beiträge so angucke, spielt ihr euch ständig den AMD Fanball gegenseitig zu, statt einfach Tests abzuwarten und das beste Produkt für den eigenen Einsatzzweck zu kaufen? Glaubt ihr echt ihr bekehrt irgendwen mit dem Unsinn, oder habt ihr einfach keine anderen Hobbies?
 
@Wadenbeisser

Wie gewinnt man Bildinformationen?

Im grunde nur, indem du die Szene feiner abtastest und somit mehr Samples nutzt.

Mit klassischem Antialiasing MSAA/SSAA passiert das, indem einfach mehr Samples berechnet werden. Dadurch berechnet man das Bild praktisch in höherer Auflösung und nutzt die Informationen, um die Farbe eines Pixels genauer zu bestimmen. Dadurch steigt der Detailgrad, Aliasing wird vermindert, kostet aber entsprechend mehr Rechenleistung.

Jetzt kann man genau diese samples aber auch gewinnen, indem man die zeitliche Dimension mit einbezieht.
Man nimmt einfach die Samples, bzw. Pixel die man für den vorherigen Frame berechnet hat und nutzt sie, um das neue Frame damit aufzuwerten.

Man gewinnt die Samples nicht durch das berechnen von zusätzlichen Samples in x und y Richtung, sondern man nutzt die zeitliche Dimension. Ist zwar etwas schwieriger zu verrechnen (stichwort bewegungsvektoren) aber dafür sind diese samples komplett gratis. Ich brauch keinen zusätzlichen Rechenaufwand investieren, um sie zu generieren.

Du kannst diese Samples jetzt nutzen, um ein Bild in höherer Auflösung zu erzeugen oder du nutzt sie um ein Pixel mehrfach abzutasten und Aliasing zu verringern. So oder so hast du mehr Bildinformationen, mit denen du arbeiten kannst.

Da TAA und DLSS mehrere Frames verrechnet, gibts wohl genug samples, um die Auflösung zu erhöhen und zugleich die Kanten zu glätten.


Der Punkt ist nunmal dass hier nicht nur ein Frame betrachtet und dann auf magische Weise hochskaliert wird.
Es werden stattdessen Bildinformationen der Spielszene aus mehreren Frames akkumuliert und auf den neuen Frame angewendet. Dadurch steigt der Informationsgehalt eines neuen Frames an. Sprich eine höhere Auflösung kann mit Details gefüllt werden, die sich aus mehreren niedriger aufgelösten Frames angesammelt haben.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: KlaraElfer und .Sentinel.
Shoryuken94 schrieb:
Ja da müsste schon etwas ganz gewaltig schief laufen bei AMD und das denke ich nicht. 50% Mehrleistung gegenüber einer 5700Xt wäre schon der absolute worst Case. Ich würde hier mit deutlich mehr rechnen und ausgehend von der Xbox Series X Performance mache ich mir da wenig Sorgen.

In einem Digital Foundry Video wurde über ein frühen Gears 5 Build gesprochen, der mit PC Settings auf der Xbox so schnell wie am PC mit einer RTX 2080 läuft. Mit etwas Optimierung vielleicht auch eine 2080 Super. Die 2080 Super ist schon etwa 25% schneller als eine 5700XT. Mit 80 CUs und mehr Takt sollte da also deutlich mehr gehen, wenn die Performance auch nur halbwegs gut mit den Shadern skaliert. Klar das ist nur ein Spiel und alles andere als ein genauer Benchmark, gibt aber zumindest eine Vorahnung. Ich denke ein 64 CU RDNA 2 Chip wird eine 2080Ti wohl schlagen. bei 80 Cus wird man sehr deutlich schneller sein. Wie viel schneller mal sehen.

Und wie RDNA2 sich gegen Ampere schlägt, auch mal schauen. Ich denke das wird diese Generation noch viel stärker auf die Spiele ankommen, z.B. ob ein Spiel mit dem neuen nvidia Ansatz gut skaliert oder nicht.

Igor hat ja angedeutet, dass die Zahlen von Digital Foundry zur 3080 durchaus realistisch sind und das es je nach Spiel deutlich schwanken kann. Aber so im Mittel der bisher gezeigten Titel liegt die 3080 meist irgendwo zwischen 40 und 60% vorne gegenüber einer 2080Ti. Bei RDNA 2 mit 80 CUs rechne ich mit mindestens 30% Leistungsplus gegenüber eine 2080Ti in der reinen Spieleperformance. Wie das dann mit DLSS, RT etc. aussieht, dass ist noch eine andere Frage. Aber es wird spannend und bei AMD erwarte ich durchaus ein sehr konkurrenzfähiges Produkt.



AMD hat nur von 50% mehr Leistung pro Watt gesprochen. In Bezug auf was soll es sollte es denn zur 3080 reichen? Effizienter als eine 3080 zu sein? Oder schneller? Die 3080 ist zumindest laut den ersten Performance Häppchen die man bisher gesehen hat etwa in dem Bereich 5700XT +100% Ob RDNA2 das auch schafft, werden wir sehen.

Die Chance Effizienter als Nvidia zu sein sehe ich durchaus als realistisch, wenn Sie es nicht wieder beim Takt extrem übertreiben und die Chips extrem ausquetschen um die letzten paar % Leistung zu generieren.

Wenn AMD RDNA2 wirklich gut optimiert, die Architektur gut in die breite skaliert und ordentlich taktet, dann ist es auch realistisch, dass man die 3080 erreicht. Ob man die 3090 erreicht? Das wäre eine extrem große Überraschung und eher unrealistisch, aber im Rahmen des möglichen.
Es war doch 2080 (non-super) gegen 3080 in dem DF Test. Das heißt gegen 2080 Ti sieht die Mehrleistung noch geringer aus oder?
 
Der Merowinger schrieb:
sonst gäbe es schon brauchbare leaks. aber amd ist nur am schweigen.

aja, weil es in der Geschichte der IT noch nie einen Produktlaunch gegeben hat wo es keine Leaks gegeben hat ....
Ich persönlich würde mir darüber keine Gedanken machen und "leaks" zu RDNA 2 gab es schon ein paar siehe Xbox/PS5 anhand dessen kann man sich schon ausmahlen wo sich die Radeon Karten ca. einordnen werden.
 
  • Gefällt mir
Reaktionen: Iapetus und matty2580
thrawnx schrieb:
Kann sie auch gerne wiederholen: Wofür reichen 10GB nicht?
Schau bei HisN in den Thread rein dann weißt du es:
https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/
Übrigens entsprechen die 10GB mindestens 12GB wenn sie das auf die Reihe kriegen:
- - Vram compress.png
 
monitorhero schrieb:
Es war doch 2080 (non-super) gegen 3080 in dem DF Test. Das heißt gegen 2080 Ti sieht die Mehrleistung noch geringer aus oder?
Gegen die 2080Ti scheinen aktuell 30-40% realistisch zu sein
 
  • Gefällt mir
Reaktionen: monitorhero
AMD unterbindet aber konsequent mögliche Leaks, wie auch Nvidia.

Ob das strategisch klug ist, muss jeder für sich selbst entscheiden.

Ich persönlich finde es nicht klug, und würde an Stelle von AMD der Konkurrenz mit aggressiven Leaks ordentlich in die Suppe spucken. 😜
 
  • Gefällt mir
Reaktionen: Foxel und evilhunter
@thrawnx

Wie soll das jemand ohne Karte testen?
Wer so gern mit Worten wie "Fanboy" um sich wirft sollte besser aufpassen das er nicht selbst im Glashaus sitzt.
 
Darkscream schrieb:
Jeder hat seine subjektive Wahrnehmung, ähnlich gut beschreibt diese nun mal ohne rum streiten zu müssen am besten :p
Vor 15 Jahren hätte auch fast jeder Deepfakes, wie sie heute existieren für völlig unmöglich gehalten.
Es geht hier nicht um die subjektive Wahrnehmung, sondern um KI, die, wenn sie gut ist, nunmal besser ist als die (Hardware) "Realität". Das beste (für die jeweilige Nutzung) Objektiv einer Kamera wird die Realität nicht 1:1 wiedergeben können. Mit AI wird das Ergebnis oftmals deutlich besser, auch wenn man als Input eine geringer aufgelöstes Bild nimmt. Und beim Upscaling ist dies eben genau so möglich. Sowohl von echten Bildern, wie auch von gerenderten Texturen. Ob man es glauben will oder nicht.
Nur weil etwas in der eigenen Vorstellung nicht greifbar ist, bedeutet dies nicht, dass es nicht der Fall sein kann. Wer sich näher mit dem Thema befasst (und damit meine ich nicht ein paar Artikelchen zu lesen), wird auch erkennen, weshalb das so ist.
 
Zuletzt bearbeitet von einem Moderator:
Shoryuken94 schrieb:
Ja da müsste schon etwas ganz gewaltig schief laufen bei AMD und das denke ich nicht. 50% Mehrleistung gegenüber einer 5700Xt wäre schon der absolute worst Case. Ich würde hier mit deutlich mehr rechnen und ausgehend von der Xbox Series X Performance mache ich mir da wenig Sorgen.

Man muss ja nur mal etwas mit den Zahlen spielen.
Mit nur 50% mehr Leistung pro Watt ist man bei den 225W der 5700 XT bereits ein Stück weit an der 2080Ti vorbei, sofern man nicht UHD nimmt und die Karte ins VRAM Limit rennen läßt und bis 300W kann man nochmal gute 30% drauflegen. Selbst unter diesem Gesichtspunkt sollte die 3070 mehr als nur knackbar sein.
 
  • Gefällt mir
Reaktionen: matty2580
Zurück
Oben