Der Merowinger
Banned
- Registriert
- Sep. 2018
- Beiträge
- 147
sonst gäbe es schon brauchbare leaks. aber amd ist nur am schweigen.Benji18 schrieb:ach und wie kommt man zu dieser Einschätzung?
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
sonst gäbe es schon brauchbare leaks. aber amd ist nur am schweigen.Benji18 schrieb:ach und wie kommt man zu dieser Einschätzung?
Also meine Vega56 hat auch bei meinem 550W Netzteil ab und zu eine Abschaltung ausgelöst und die lief mit 250W.Darkscream schrieb:Das natürlich nicht, aber ein RM 650 wie ich es habe schafft auch Lastwechsel. Zudem wurde im Luxx eine Abschaltung erst ab 840W beobachtet.
Ich glaube das rührt aus dem Film/Fotografie-Bereich, wo es die längste Zeit hieß, dass mit allem Post-processing und Video-/Bildbearbeitung schlechtes Bild-/Videomaterial nicht besser werden kann. Frei nach dem Motto: "Steckst du K*cke rein, kommt höchstens polierte K*cke raus!". Die Vorstellung, das aus etwas schlechterem etwas besseres gemacht werden kann ohne "Zauberei/Schummelei" und negative Nebenwirkungen ruft automatisch Skepsis hervor. Besonders wenn man die Entwicklungsstufen sehen kann wie von DLSS 1.0 zu 2.0 oder den verschiedenen Iterationen von Raytracing in den ganzen verschiedenen Games die es mittlerweile unterstützen. Und so toll DLSS auch ist, es ist aber auch nicht koheränt gut in allen Anwendungsfällen. In der neuen Marbles Demo sind zum Beispiel Artefakte zu erkennen um die Murmeln herum, die wenn ich sowas im Spiel sehen würde, dazu führen würde, dass DLSS 2.0 sofort wieder ausgeschaltet wird, egal ob das den Unterschied zwischen spielbar oder nicht ausmacht. Dann spiele ich eben lieber gar nicht, bis ich die Hardware habe die das nativ ohne die Artefakte spielbar darstellen kann. Aber genau solche Artefakte sind dann der Punkt wo ich mir dann denke: "Ha! Die Trickserei hat ihren Meister gefunden und ist es doch (noch) nicht wert!".B3nutzer schrieb:Keine Ahnung warum die Leute dann nicht glauben können, dass DLSS super funktioniert. Das ist einfach TAA weiter gedacht. Wie es im Detail genau funktioniert weiß ich aber auch nicht. Gibts da irgendwo infos? Würd mich grundsätzlich interessieren.
Das ist beim Image Processing ein verbreiteter Irrglaube. Und auch im Kontext DLSS wurde längst das Gegenteil bewiesen.Wadenbeisser schrieb:Aus dem Grund kann das Bild auch nicht besser als das Bild in nativer Auflösung werden sondern nur anders denn fehlende Bildinformationen (durch die geringere Ausgangsauflösung) kann auch der beste Algorithmus nicht komplett ausgleichen.
Es kann sogar besser aussehen, das ist ja gerade der Punkt. Wie wichtig Software (AI) jetzt schon ist und erst recht noch werden wird, scheinen viele nicht zu realisieren (zu wollen).Darkscream schrieb:Ist doch Wurst ob wie es jetzt genau ausschaut, es schaut ähnlich gut aus und man hat ~40% mehr FPS... passt doch.
Taxxor schrieb:Nein, aber man muss schon äußerst pessimistisch sein um zu glauben, dass AMD mit 275-300W und 72-80CUs die 50% effizienter sind als die bisherigen, weniger als 50% auf eine 5700XT drauflegen könnte.
monitorhero schrieb:50% sind ja auch die angepeilten Ziele die AMD selbst in seinen Präsentationen nannte. Aber reicht das für eine 3080?
Jeder hat seine subjektive Wahrnehmung, ähnlich gut beschreibt diese nun mal ohne rum streiten zu müssen am bestengr1nd schrieb:Es kann sogar besser aussehen, das ist ja gerade der Punkt. Wie wichtig Software (AI) jetzt schon ist und erst recht noch werden wird, scheinen viele nicht zu realisieren (zu wollen).
Marflowah schrieb:Du findest 10GB ok. Sehe ich eigentlich auch so. Heißt das nun, du findest 8 GB in der 3070 auch noch ok oder ist das zu wenig (auch in Anbetracht des angesetzten Preises)? Und die brachialen 24 GB in der 3090 - wenn du 10 GB als ausreichend siehst, sind 24 dann nicht völlig unsinnig viel und etwas, was den Preis völlig nutzlos in die Höhe jagt?
Es war doch 2080 (non-super) gegen 3080 in dem DF Test. Das heißt gegen 2080 Ti sieht die Mehrleistung noch geringer aus oder?Shoryuken94 schrieb:Ja da müsste schon etwas ganz gewaltig schief laufen bei AMD und das denke ich nicht. 50% Mehrleistung gegenüber einer 5700Xt wäre schon der absolute worst Case. Ich würde hier mit deutlich mehr rechnen und ausgehend von der Xbox Series X Performance mache ich mir da wenig Sorgen.
In einem Digital Foundry Video wurde über ein frühen Gears 5 Build gesprochen, der mit PC Settings auf der Xbox so schnell wie am PC mit einer RTX 2080 läuft. Mit etwas Optimierung vielleicht auch eine 2080 Super. Die 2080 Super ist schon etwa 25% schneller als eine 5700XT. Mit 80 CUs und mehr Takt sollte da also deutlich mehr gehen, wenn die Performance auch nur halbwegs gut mit den Shadern skaliert. Klar das ist nur ein Spiel und alles andere als ein genauer Benchmark, gibt aber zumindest eine Vorahnung. Ich denke ein 64 CU RDNA 2 Chip wird eine 2080Ti wohl schlagen. bei 80 Cus wird man sehr deutlich schneller sein. Wie viel schneller mal sehen.
Und wie RDNA2 sich gegen Ampere schlägt, auch mal schauen. Ich denke das wird diese Generation noch viel stärker auf die Spiele ankommen, z.B. ob ein Spiel mit dem neuen nvidia Ansatz gut skaliert oder nicht.
Igor hat ja angedeutet, dass die Zahlen von Digital Foundry zur 3080 durchaus realistisch sind und das es je nach Spiel deutlich schwanken kann. Aber so im Mittel der bisher gezeigten Titel liegt die 3080 meist irgendwo zwischen 40 und 60% vorne gegenüber einer 2080Ti. Bei RDNA 2 mit 80 CUs rechne ich mit mindestens 30% Leistungsplus gegenüber eine 2080Ti in der reinen Spieleperformance. Wie das dann mit DLSS, RT etc. aussieht, dass ist noch eine andere Frage. Aber es wird spannend und bei AMD erwarte ich durchaus ein sehr konkurrenzfähiges Produkt.
AMD hat nur von 50% mehr Leistung pro Watt gesprochen. In Bezug auf was soll es sollte es denn zur 3080 reichen? Effizienter als eine 3080 zu sein? Oder schneller? Die 3080 ist zumindest laut den ersten Performance Häppchen die man bisher gesehen hat etwa in dem Bereich 5700XT +100% Ob RDNA2 das auch schafft, werden wir sehen.
Die Chance Effizienter als Nvidia zu sein sehe ich durchaus als realistisch, wenn Sie es nicht wieder beim Takt extrem übertreiben und die Chips extrem ausquetschen um die letzten paar % Leistung zu generieren.
Wenn AMD RDNA2 wirklich gut optimiert, die Architektur gut in die breite skaliert und ordentlich taktet, dann ist es auch realistisch, dass man die 3080 erreicht. Ob man die 3090 erreicht? Das wäre eine extrem große Überraschung und eher unrealistisch, aber im Rahmen des möglichen.
Der Merowinger schrieb:sonst gäbe es schon brauchbare leaks. aber amd ist nur am schweigen.
Schau bei HisN in den Thread rein dann weißt du es:thrawnx schrieb:Kann sie auch gerne wiederholen: Wofür reichen 10GB nicht?
Gegen die 2080Ti scheinen aktuell 30-40% realistisch zu seinmonitorhero schrieb:Es war doch 2080 (non-super) gegen 3080 in dem DF Test. Das heißt gegen 2080 Ti sieht die Mehrleistung noch geringer aus oder?
Vor 15 Jahren hätte auch fast jeder Deepfakes, wie sie heute existieren für völlig unmöglich gehalten.Darkscream schrieb:Jeder hat seine subjektive Wahrnehmung, ähnlich gut beschreibt diese nun mal ohne rum streiten zu müssen am besten
Shoryuken94 schrieb:Ja da müsste schon etwas ganz gewaltig schief laufen bei AMD und das denke ich nicht. 50% Mehrleistung gegenüber einer 5700Xt wäre schon der absolute worst Case. Ich würde hier mit deutlich mehr rechnen und ausgehend von der Xbox Series X Performance mache ich mir da wenig Sorgen.