News AMD Radeon RX 6000: Navi 21 XT erhält große Vorschusslorbeeren

Wadenbeisser schrieb:
Die Möglichkeit zur Hochskalierung des gerenderten Bildes...

Es ist aber kein einfaches Hochskalieren des Bildes, Herrgott.
Stichwort KI, Bewegungsvektoren, Jittered Pixels. Autoencoder, 16K Material.
So kommt man eben ganz anders als mit einfachem Hochskalieren an die "ground truth" heran.
Aber wozu informieren, wenn man weiter schwurbeln kann was?

Wadenbeisser schrieb:
Ach ja, November 2009 und damit vor fast 11 Jahren.

Da fällt einem nichts mehr zu ein langsam.

Chismon schrieb:
...lass Ihnen doch die nVidia Basherei, letztere haben sich Huang und Co. mit RTX Ampere auch redlich verdient und wo sonst, wenn nicht in den AMD/RTG Threads waere das denn passender ;)?

Bashen können sie doch bis sie schwarz werden, gezielt Falschinformationen zu verbreiten ist unredlich, thats it.
Aber mit solchen flatearthern, kann man sich wohl auch nicht auf einen Minimalkonsens einigen.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Taxxor, Web-Schecki und foo_1337
ComputerJunge schrieb:
Clickbait verteufeln, aber selbst jeglichen rationalen Bewertungsmaßstab vermissen lassen. Läuft!

NVIDIA, by the way, cannot be blamed directly, because the fact that MLCCs work better than POSCAPs is something that any board designer who hasn’t taken the wrong profession knows

Das Zitat von Igor, wo fehlt Deiner Meinung nach mein rationaler Bewertungsmaßstab?

Das er Polymer-Elekos mit Markennamen POSCAP bezeichnet, (Salzstange - Soletti, Taschentuch - Tempo)?
Das er nVidia nicht in die Verantwortung nimmt, obwohl diese den AIBs sagen wie das Design auszusehen hat?
Der Fakt das die Instabilität nicht direkt mit den verwenden Kondensatoren zusammenhägt, sondern eher der Software verschuldet ist, welche die Karten über deren Spezifikation betreibt?

Auch bin ich kein Journalist und verdiene mein Geld mit Artikeln zu Computerhardware bzw. den Tests dieser.
Die Erwartungshaltung ist eine Andere.
 
@KlaraElfer

Daraus resultiert der bejubelte Leistungszuwachst und ist damit die primäre Funktion, ob dir das nun passt oder nicht.
Der hübsch mach Anteil kommt da noch oben drauf und entscheidet eher darüber welche Skalierungstechnik man bevorzugt.
 
  • Gefällt mir
Reaktionen: Blekota und Iscaran
@foo_1337 :

Dann wuerde ich mich an Deiner Stelle einmal umschauen bzw. seine Beitraege verfolgen, denn @KlaraElfer laesst doch kaum eine Gelegenheit aus, nicht gegen AMD(/RTG) zu wettern, ob das nun von Intel oder nVidia Seite ist, oft ohne Belege/Quellen ins Blaue hineinphantasiert.

Das kann er auch gerne weiter so handhaben, denn mich stoert es auch nicht (insbesondere, wenn er seine Thesen auch halbwegs belegen kann und falsch liegt jeder irgendwann einmal, das kreide ich weder ihm noch anderen an), ansonsten, gibt es auch 'mal einen Kommentar vo mir dazu.

Sich als Unschuld vom Lande verkaufen kann er sicherlich nicht mehr hier auf ComputerBase, denn dafuer ist er schon zu lange hier und hat aus seinen Vorlieben ab und an auch keinen Hehl gemacht bzw. diese gut durchblicken lassen (auch wenn er offiziell diese bestreitet).

Andere Meinungen (insbesondere, wenn fundiert vorgetragen) sind von mir auch gerne gesehen, aber manchmal fehlt wohl auch das richtige Mass ... ich werde ihn jetzt nicht grundsaetzlich loben aber auch nicht bashen, denn ich denke es ist gut auch Kontraste in einem Forum zu haben, auch wenn @KlaraElfer da oft ueber die Straenge schlaegt.

Dass er sich eine AMD/RTG (Navi RDNA2) kaufen wollen wuerde, waere mir neu, weil er ja sonst nur von seinen nVidia GPU Erfahrungen hier berichtet bzw. RTX vehement verteidigt und eben viel zu sehr auf RTX abfaehrt bzw. dieses lobhudelt, als dass eine AMD/RTG GPU fuer ihn da wirklich eine Alternative darstellen wuerde, so gesehen koennte man dann ueber die Beweggruende fuer so einen Kauf spekuliert werden (es geschehen noch Zeichen und Wunder?), aber gut, wenn er sich dann auch ueber ein eigenes AMD/RTG GPU-Produkt positiv im nachhinein aeussern wuerde, dann waere ich zumindest positiv davon ueberrascht.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Blekota, Onkel Föhn und Mcr-King
KlaraElfer schrieb:
Mein Be Quiet Pure Power 500 Watt hat selbst eine 3080 mit Ryzen 5 3600 gestemmt.

Ist aber hard am limitet und auf Dauer nicht gesund fürs NT beschleunigt halt dass altern der Schaltungen. 😉
 
  • Gefällt mir
Reaktionen: Onkel Föhn
Chismon schrieb:
Dann wuerde ich mich an Deiner Stelle einmal umschauen bzw. seine Beitraege verfolgen, denn @KlaraElfer laesst doch kaum eine Gelegenheit aus, nicht gegen AMD(/RTG? zu wettern, ob das nun von Intel oder nVidia Seite ist, oft ohne Belege/Quellen ins Blaue hineinphantasiert.
Die letzen Wochen konnte ich da nichts sehen, was nicht fundiert war. Aber ich hab bestimmt auch nicht alles gesehen/gelesen. Ich hatte nur mitbekommen, dass er wohl die 3080 (oder war es 3090?) verkauft hat und auf AMD wartet. Kann mich aber auch täuschen. Ich bin btw. überzeugt von Apple Produkten, bashe die aber auch gerne, wenn es eben gerechtfertigt ist. Wieso auch nicht? Wieso soll ich von einer Firma alles gut finden, nur weil ich Produkte davon habe? Ich kann es z.B. überhaupt nicht leiden, wenn Leute Produkte deshalb empfehlen, nur weil sie sie haben. Das macht für mich keinen Sinn. Ich empfehle z.B. zwar auch iPhones, sage aber auch warum und durchaus auch, welche Nachteile vorhanden sind. Und wenn ich merke, dass das iPhone nix für den anderen ist, dann lass ich es auch bleiben. Diese biased Empfehlungen helfen einfach niemanden, in keiner Produktkategorie.
 
Wadenbeisser schrieb:

Im Verbrennungsmotor findet am Ende auch nur eine exotherme Reaktion statt. Sowas kennt der Mensch schon seit über 10.000 Jahren in der Form von Feuer. Du würdest ja auch nicht sagen "Das Grundprinzip wird schon seit 10.000 Jahren benutzt, ein Auto ist also auch nur eine Umsetzung einer Technologie, die es schon ewig gibt".

Also auch wenn bei DLSS im Grunde Leistungszuwachs nur durch Upscaling vorliegt, ist es schon ein Unterschied, wie das umgesetzt wird. Und technisch werden solche "Tricks" halt nötig, wenn die Auflösungen weiter steigen.
Ob jetzt DLSS konkret ne gute Technologie ist oder nicht ist ja eine ganz andere Frage.
 
  • Gefällt mir
Reaktionen: Strubbel99, Mcr-King und foo_1337
foo_1337 schrieb:
Und wer Fidelity FX schön redet, der hat noch nie damit gespielt. Das Geflimmer hält doch keiner aus.
Ja, hallo, hier! Am Fernseher läuft AC:Odyssey mit CAS eingeschaltet und 80% Renderauflösung. Ich vermute, die Tests benutzen alle 70%, damit der Leistungszuwachs stimmt. Bei 80% sehe ich kein Flimmern, es gibt aber im Vergleich zu nativ sicher eine leichte Unschärfe, die mir auf 4m Distanz nicht groß auffällt. Also einfach weniger von AMDs Lösung verlangen (bzgl. FPS-Gewinn), schon stimmt die Bildqualität auch.
 
  • Gefällt mir
Reaktionen: Wadenbeisser, Mcr-King, Blekota und eine weitere Person
foo_1337 schrieb:
.... hatte nur mitbekommen, dass er wohl die 3080 (oder war es 3090?) verkauft hat und auf AMD wartet. Kann mich aber auch täuschen. Ich bin btw. überzeugt von Apple Produkten, bashe die aber auch gerne, wenn es eben gerechtfertigt ist. Wieso auch nicht? Wieso soll ich von einer Firma alles gut finden, nur weil ich Produkte davon habe? Ich kann es z.B. überhaupt nicht leiden, wenn Leute Produkte deshalb empfehlen, nur weil sie sie haben. Das macht für mich keinen Sinn. Ich empfehle z.B. zwar auch iPhones, sage aber auch warum und durchaus auch, welche Nachteile vorhanden sind. Und wenn ich merke, dass das iPhone nix für den anderen ist, dann lass ich es auch bleiben. Diese biased Empfehlungen helfen einfach niemanden, in keiner Produktkategorie.

Mich interessant am Ende nur, was fuer den Kunden (also auch eigennuetziger Weise mich selbst ;) ) dabei heraus kommt, ich habe auch kein Problem AMD/RTG fuer Ihre preislich und quirl-technisch unterirdischen X570 RyZen Boardchipsaetze - deren abgekartetes Launchdatum vom zu spaeten B550 Chipsatz um moeglichst lange die Preise kuenstlich hoch zu halten und um daran gut zu verdienen - zu kritisieren oder von mir aus auch den verpatzten RX Vega Marktstart.

Deswegen interessiert mich auch nicht nur ob Spiel A oder B einwandfrei mit einer Grafikkarte laufen, sondern ob bewusst die Entwickler, also nVidia und AMD/RTG, Kunden durch den Kakao ziehen oder abzocken und meistens sind erstere da noch deutlich dreister unterweges als letztere und ich kann als Kunde dann eben entscheiden, ob ich das belohnen moechte oder eben auch nicht bei aehnlich starken Produkten.

Mit Apple habe ich seit meinem uralten MacBook gar nichts mehr am Hut, weil die an meinen Beduerfnissen Ihre Produkte komplett vorbei entwickelt haben und ich zahle nun einmal keine Mondpreise fuer irgendein Status-Symbol Image, denn das gibt mir nichts im Leben bzw. ich habe genuegend Selbstwertgefuehl und brauche nicht Teil einer Marken-Community sein oder mich dadurch "gesellschaftlich auf zu werten".

Das Preis-Leistungs-Verhaeltnis der meisten Apple Produkte ist m.E. mangelhaft, auch wenn man in der Regel ueberdurchschnittliche Qualitaet bekommt. Das gilt wie erwaehnt nicht fuer alle Apple Produkte, denn das neue iPad ist da bspw. eine ruehmliche Ausnahme, die die Regel aber bestaetigt und mich als Produkt (Tablet) aber nicht interessiert ebenso wie alle die anderen Tech-Spielzeuge der Marke Apple, die bei mir nur herum liegen und Staub ansetzen wuerden.

Der Hauptgrund fuer meine generelle Abkehr sind aber Apples mittlerweile viel zu grosse Marktmacht und das zensierte und diktierte Oekosystem (somit auch deren Politik gegenueber Kunden und kleinen Entwicklern), welches deren Produkte fuer mich grundsaetzlich nicht mehr kaufbar macht, so einfach ist das (mit den eigenen Prinzipien ... und wer keine Prinzipien hat im Leben, der tut mir leid ... es muessen natuerlich nicht die gleichen wie meine sein, aber man sollte schon hinter etwas stehen oder auch dagegen sein koennen, auch wenn es sich immer leichter mitlaufen laesst).

Dass Du Apple Produkte magst, ist doch auch okay, wenn Du damit insgesamt klar kommst ... mehr als damals mein altes 2009er MacBook sehe ich da nicht mehr auf mich zukommen, aber klar, ich gehoere damit sicherlich nicht zum Mainstream (als ich mein MacBook damals gekauft habe war Apple auch noch kein Mainstream und ich konnte mich mit dem Unternehmen auch noch halbwegs identifizieren ... die Zeiten aendern sich eben).

Was Intel und nVidia angeht, sind diese aber beide noch wichtig und generell fuer mich kaufbar, zumal es diese auch braucht um ein gutes Gleichgewicht im Markt her zu stellen ... daher ist vorausschauendes/strategisches kaufen und handeln m.E. nicht zu unterschaetzen ... es ist nur schade, dass der Markt zunhemend undurchsichtiger wird und der Kunde zunehmend weniger im Fokus steht, sondern alle dem Profit an erster Stelle huldigen.
Ergänzung ()

@KlaraElfer :

Manchmal muss man eben auch nachgeben bzw. irgendwann die Reissleine ziehen, wenn man sieht, dass man gar nicht mehr weiter kommt (sich zwei Mauern gegenueber stehen).

Vielleicht laeuft es beim naechsten Mal ja besser mit Euch (Stichwort Minimalkonsens) ... so genervt Du (und Dein Gegenueber) jetzt auch sein magst.
Du machst es einem manchmal aber auch nicht einfach bzw. gehoerst schon eher zur hartnaeckigeren Sorte und er vermutlich ebenso ;).

Better luck next time :)!

Ach ja, uebrigens entgegen den im Artikel angemeldeten Zweifeln einer hohen Taktrate von Navi21 (sorry @Volker ;) ), findet sich da jetzt eindrucksvoll (wie oft) von Igor's Lab widerlegt.


Von wegen es koennen unmoeglich die RDNA2 GPUs auf mehr als 2.5 GHz getaktet werden. Dass RDNA2 sehr hochtaktfreudig sein wuerde haben doch auch schon die hohen Taktraten der Next-Gen Konsolen angedeutet, die meist ja noch wegen des Verbrauchs eher konservativ/zurueckhaltend getaktet werden ;).

Navi21 XL mit 290W (maximal) ist schon arg am Limit fuer mich (eigentlich hatte ich maximal 250W angepeilt) und Undervolting wollte ich eigentlich nicht aufwaendig betreiben ... hm?
 
Zuletzt bearbeitet:
Enurian schrieb:
Powerlimit ist bei AMD Chip + Speicher und eventuell noch was, da kommt schon noch was drauf. Igors Prognose ist da aber zu hoch, das zeigen ältere AMD-Karten (zum Beispiel RDNA1). Ich hatte letztens schon gezeigt: Die Nitro+ hat 225W Powerlimit und insgesamt 260W Verbrauch. 255W PL sind daher ca. 300W gesamt.
Und wie gesagt: Das ist hier wieder eine Nitro+ oder gar Toxic, das ist nicht der Maßstab.
Jo

Ich hab nochmal über die spezielle Custom-XT nachgedacht:
+6% PL = 255W (ausgehend von Ref=238W)
+15% PL=277W TGP= GPU+Vram(incl.SOC).............................Die 493W sind wohl Quatsch gewesen!?
Vermutlich bleibt man unter 320..330W für die Graka gesamt OCed und braucht zusammen mit nem Ryzen3600
nur ein 650W-NT.

Bei 300A TDC käme man wohl auf ca. 0,85V für Vollast.--> eff.Takt dann entspr. Chipgüte+Temp.
Das ist eigentlich kein schlechter Bereich. Obs dann tatsächlich ca. 2577MHz (-70MHz ala Navi) wird?
Wenn der Chip bei der Spannung zw. 2450-2500 läuft, dann Hut ab!
 
Zuletzt bearbeitet:
MarkoK schrieb:
Das Zitat von Igor, wo fehlt Deiner Meinung nach mein rationaler Bewertungsmaßstab?
Du hast ihm postwendend jegliche Kompetenz abgesprochen. Das empfand ich beim direkten Lesen als ebenso "reißerisch" wie die entsprechenden Stilmittel zur Formulierung von Clickbait-Titeln.

In der konkreten Sache kann ich das nicht beurteilen, da magst Du teilweise oder größtenteils Recht haben. Zumindest hatte auch ich mitgenommen, dass ein Treiber-Update einige Crashes in der Praxis behoben hat. Andererseits war meines Wissens zumindest EVGA diese Kondensatorenthematik noch eine kurzfristige Revision der Hardware wert. Für mich ergab sich damit das Bild eines Problems multi-kausalen Ursprungs.
Zu den einzelnen Punkten, die Du aufführst kann ich auch nichts Sinnvolles entgegnen, da ich den Artikel/Video nicht gelesenen/gesehen habe. Eine gewisse überspitze/tendenzielle Darstellung würde mich aber auch nicht überraschen.
 
Web-Schecki schrieb:
Im Verbrennungsmotor findet am Ende auch nur eine exotherme Reaktion statt. Sowas kennt der Mensch schon seit über 10.000 Jahren in der Form von Feuer. Du würdest ja auch nicht sagen "Das Grundprinzip wird schon seit 10.000 Jahren benutzt, ein Auto ist also auch nur eine Umsetzung einer Technologie, die es schon ewig gibt".
Das was du meinst ist die Dampfmaschiene denn die Abwärme ist beim Verbrennungsmotor lediglich ein unerwünschtes Abfallprodukt.
Um bei dem wie so oft nutzlose Autovergleich zu bleiben geht es bei dieser Diskussion lediglich darum das ein Verbrennungsmotor auf einmal kein Verbrennungsmotor mehr sein soll weil er weiterentwickelt und z.B. per Turbo oder Kompressor aufgeladen wurde oder wie beim Wankelmotor ein grundsätzlich anderer Aufbau wie beim klassischen Kolbenmotor genutzt wird.
Jeder Autonarr würde denjenigen fragen ob er einen veräppeln will......
 
Wadenbeisser schrieb:
Jeder Autonarr würde denjenigen fragen ob er einen veräppeln will......
Dann stell diesem Autonarr mal die Motorkutsche von Daimler und einen einen aktuellen Maybach hin und sag das ist beides absolut das gleiche ;-)

Ich frag mich ja eh wieso ihr da alle so über DLSS oder FidelityFX diskutiert... ich nutz für meinen Laptop schon seit Jahren einfach das Upscaling meines Monitors. Funktioniert auch.
 
Wadenbeisser schrieb:

Doch, natürlich kommt der Performancevorteil dadurch, dass man in einer niedrigeren nativen Auflösung rendert. Wer bestreitet das?
Aber, wie du richtig erkannt hast, ist Upscaling allein noch nichts besonderes. Dennoch, zwischen bilinearer Interpolation und DLSS gibt es halt nunmal einen Unterschied.
Es gibt sicherlich viel berechtigte Kritik an DLSS, aber die Behauptung, es sei "auch nur Upscaling" ist halt polemisch, mehr nicht.
 
  • Gefällt mir
Reaktionen: Strubbel99
Chismon schrieb:
Navi21 XL mit 290W (maximal) ist schon arg am Limit fuer mich (eigentlich hatte ich maximal 250W angepeilt) und Undervolting wollte ich eigentlich nicht aufwaendig betreiben ... hm?
Ist das (noch) aufwändig? Wenn man es nicht auf die Spitze treiben will, sollte man doch mit drei Iterationen der Kurven in Adrenaline oder Afterburner am akzeptablen Ziel sein.
 
Chismon schrieb:
Navi21 XL mit 290W (maximal) ist schon arg am Limit fuer mich (eigentlich hatte ich maximal 250W angepeilt) und Undervolting wollte ich eigentlich nicht aufwaendig betreiben ... hm?
Die Prognose ist kompletter Humbug.
Falls das 220W Powerlimit stimmt, sind das ~260W Gesamtverbrauch. Zudem wissen wir nicht, ob der Wert von einem OC-BIOS stammt. So oder so: Im Wattman kann man den Slider für das Powerlimit einfach etwas nach links ziehen, da muss man gar keine Zeit investieren (kann es aber natürlich, um die perfekte Spannung zu finden und das Optimum rauszuholen).
 
  • Gefällt mir
Reaktionen: Strubbel99
foo_1337 schrieb:
Der Kern von DLSS ist u.A. das ML, was nVidia 24/7 auf seinen DGX Farmen betreibt. Selbst wenn DLSS offen wäre: Woher sollen die Daten kommen? Soll nVidia die einfach verschenken?
Ergänzung ()
Von Verschenken sagt keiner was. Sie könnten es bspw. lizensieren.

foo_1337 schrieb:
Ich habe folgende Wahl: Ich kaufe ne NV 30xx Karte und hab ne sehr gute Leistung und eine noch bessere bei DLSS und/oder RT enabled Spielen. Kaufe ich AMD, habe ich “nur” die normale, sehr gute Leistung.
Wie, eine noch bessere bei DLSS? Leistung? Joah, kann sein. Sag' ich ja auch. Ist schon geile Technik. RT-enabled? Heißt das jetzt so? Haben die das gesagt? Habe ich da was verpasst? Haben sie wohl aus dem G-Synch Debakel gelernt.
RT habe ich bei AMD auch. Mal sehen wie gut / schlecht.

foo_1337 schrieb:
Du würfelst jetzt RT und DLSS. RT kommt via DXR und wird bei Nvidia Karten dann von den Tensor Cores bearbeitet. Bei AMD Karten gibt es diese nicht und es wird von der normalen Leistung abgezwackt.
Mit DLSS und Konsolen hat das nix zu tun. Sony macht ein eigenes Süppchen und was MS macht, kA.
Okay, ich hätte mich präziser Ausdrücken sollen.
RT-enabled wird von Konsolen und AMD-GPUs bearbeitet, sowie von den nVidia Tensor Cores. OK.
Die Konsolen-HW kommt von AMD und wird RT-enabled ebenfalls unterstützen. OK.
DLSS gibt es nVidia GPU Exklusiv. OK.
Jetzt wagen wir einen Blick in die Glaskugel und schauen uns an, welche der Technologien wohl schneller weiter verbreitet sein wird.
Ich tippe darauf, dass es nicht DLSS sein wird. Völlig egal was nVidia anstellen wird.

foo_1337 schrieb:
Hä? Kannst du das bitte elaborieren?
intel wird dedizierte GPUs auf den Makrt bringen. Werden die RT-Enabled unterstützen, oder DLSS?
Ich tippe eher auf RT-enabled oder wie das dann heißen soll.

foo_1337 schrieb:
Er nennt sich emacs, nicht e-mac ;)
Wo Du recht hast. 🤦‍♂️
Ich habe mir kurz vorher wieder mächtig über Apple aufgeregt. daher wohl der Lapsus. Iss korrigiert.

MrChronos schrieb:
Dass AMD da offener ist, was ihre Technologien angeht, hat dabei auch nichts mit Menschenfreundlichkeit zu tun und Altruismus. Das liegt nur daran, dass sie weniger Marktanteile haben.
Ja und? Wenn sie dadurch gezwungen werden, "altruistischer" zu handeln, als die Konkurrenz, kann ich das nur begrüßen. Daher ist die in dieser Community vielbeschworene Konkurrenz ja auch so verdammt wichtig.
Ich will mir den Albtraum gar nicht erst vorstellen, sollte nVidia eine monoplolstellung bei RT in Spielen erringen via DLSS. Deswegen freue ich mich ja auch auf intel-GPUs, obwohl ich big Blue fast noch weniger leiden kann.
 
  • Gefällt mir
Reaktionen: Iscaran
RTX 3080 FTW3 Ultra ist derweil auf "Keine Informationen" zum Liefertermin gesprungen. AMD hat also noch eine Chance. ;D
 
Zurück
Oben