Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsAMD Radeon RX 6800XT: Navi 21 XT mit 4.608 Shadern und mehr als 2,5 GHz Boost
Die gabs doch zuletzt in der Drehe von 365-375€, auch gute Customs.(x)
Die 3060Ti ist übrigens schon in China gelistet. (so ca. 399€ könnten gut passen)
N22 dauert evtl. noch bis nächstes Jahr.
Noch schlimmer- Die Industrie hat die die Leute schon so weichgekocht, dass sie auf diesen Wahnsinn der Ressourcenverschwendung bezüglich Hardware schon ins gleiche Horn blasen und einfach noch immer mehr Rechenleistung und VRAM auf schlechte Enginetechnik und schlampiges Asset- Design werfen, obwohl den Entwicklern viele Mittel an die Hand gegeben werden, es besser zu machen.
Und weil der Trend wohl auch dahin geht, dass jeder Shooter mit Ultraeinstellungen gespielt werden muss, die dann ne schöne Optik erzeugen, die du in Konzentration auf den nächsten Kill eh nicht wahr nimmst und wo dir dann die Jungs mit ner 1080ti auf geringen Einstellungen andauernd die Rübe wegballern.
Wenn ich mir die Leistungsaufnahmen von Ampere oder die von Igor prognostizierten von Navi21 ansehe, dann wird mir übel.
Bei der Leistungsaufnahme vom Ampere kann man sich ja an Wolfgang orientieren(UV@275W). Weniger ist Mehr.
Für die RX6800 XT wird hoffentlich die Ref. nur mit 238W TGP kommen und die XL mit 203W.
Ob dann die überzogenen Berechnungen von Igor dort zutreffen wird man sehen.
(gerade bei der XL liegt Igor nach m.E. zu hoch, vermutlich eher so wie die RX5700 XT Nitro - siehe Anhang)
und
Im Idle sollen die RDNA2 dank MALL besonders sparsam sein. (beim Surfen)
Mal schauen!
Wem nur die Performance wichtig ist, der kann ja bei den Customs wieder auf ein 2. P-Bios zugreifen.
RDNA2 soll vorraussichtlich besser mit den W skalieren als Ampere.
Für die RX6800 XT wird hoffentlich die Ref. nur mit 238W TGP kommen und die XL mit 203W.
Ob dann die überzogenen Berechnungen von Igor dort zutreffen wird man sehen.
(gerade bei der XL liegt Igor nach m.E. zu hoch, vermutlich eher so wie die RX5700 XT Nitro - siehe Anhang)
und
Im Idle sollen die RDNA2 dank MALL besonders sparsam sein. (beim Surfen)
Mal schauen!
Wem nur die Performance wichtig ist, der kann ja bei den Customs wieder auf ein 2. P-Bios zugreifen.
RDNA2 soll vorraussichtlich besser mit den W skalieren als Ampere.
Du musst aber bedenken, dass bei der Sapphire Nitro 5700XT (welche ich ebenso besitze) das A-BIOS mit 222 Watt, dass eigentliche Second BIOS ist. Damit taktet die Grafikkarte nur minimal schneller als eine Stock Radeon 5700XT.
Immer noch besser und vor allen Dingen leiser und kühler, aber dass ist eben nicht das Default BIOS.
Das BIOS Mit den 260Watt ist das eigentliche Default BIOS und damit wird die Karte und Performance auch beworben.
Ich selbst nutze meist aber auch das A-BIOS.
Worauf ich hinaus möchte:
Auch wenn RDNA2 sparsamer ist als gedacht.
Eine Custom Card wie die 6800 XT Nitro wird schon um die 300 Watt oder mehr brauchen mit dem Default BIOS.
Es muss einfach mehr Speicher versorgt werden, der Chip ist größer als bei der 5700er...
Und sie wird wieder von Haus aus übertaktet sein, dass man vermutlich richtung 2,5Ghz unterwegs ist.
Die 5700er war die Mittelklassen Grafikkarte.
Eine mögliche 6700er oder 6800XL kann ja gerne wieder 200-250 Watt verbrauchen.
Aber die High-End Karte wird vermutlich etwas mehr Leistung ziehen.
Ist ja auch die Frage ob 6800 XT oder non XT oder XL.
Ob es jetzt wirklich über 320Watt gehen wird (je nach Custom Modell) werden wir dann sehen.
Vielleicht schafft es die Stock AMD Radeon 6800 XT ja auch mit 275 Watt (Gesamt) auszukommen.
Aber es würde mich sehr überraschen, wenn die Leistung (gesamt) bei oder unter 250 Watt bleibt für eine High-End Grafikkarte dieser Generation. Undervolting habe ich jetzt bewusst nicht berücksichtigt, da sich vermutlich nicht jeder damit beschäftigen möchte.
Wünschen würde ich es mir auch, aber ich kann es mir noch nicht so richtig vorstellen.
Ergänzung ()
Man darf auch nicht vergessen, dass einige Werte worauf sich Igor bei seinen Berichten bezieht, sich auf eine CUSTOM 6800XT beziehen, welche versuchen wird das letzte bisschen Leistung mit mehr Power rauszukitzeln.
Wer dann eine Nitro oder ROG Strixx haben möchte, wird bei über 300Watt landen - mit Leistungsbios.
Aber wissen tue ich das nicht. ^^ Na ja, morgen wissen wir mehr. Echt spannend dieses Jahr mit den Grafikkarten und Next Gen Konsolen.
Worauf ich hinaus möchte:
...
Es muss einfach mehr Speicher versorgt werden, der Chip ist größer als bei der 5700er...
Und sie wird wieder von Haus aus übertaktet sein, dass man vermutlich richtung 2,5Ghz unterwegs ist.
Schon wg. der Lautstärke macht net immer das Perf.-Bios Sinn.
(finde Es eleganter über das PL ggf. bei einigen Games mehr W zu nutzen und im Regelfall bei 90% der Games wird in WQHD das A-Bios reichen)
Glaube net, das die 2GB-Module soviel mehr als die 1GB-Module von Navi verbrauchen.
Die Anzahl der Module bleibt erstmal gleich.
Die Ref. kommt mit weniger Takt als die Customs = no Need for >203 bzw. >238W TGP
Vermutlich wird der Speicher auch nicht so viel mehr verbrauchen.
Aber es ist nun mal doppelt so viel wie vorher.
Und der Chip ist einfach größer, welcher auch mehr Strom benötigt.
Wenn man dann eine Nvidia 3080 mit 320Watt angreifen möchte, muss man auch ein bisschen bei der Leistung schrauben, auch wenn RDNA2 genügsamer ist, was den Vebrauch betrifft.
Aber es ging mir auch um die 6800XT (also die größte 6800er).
Vielleicht haben die kleineren ja ganz gute Verbrauchswerte und können damit glänzen, so dass auch hier die pasende Gruppe angesprochen wird, denen es auch egal ist 5-10% weniger FPS zu haben, aber dafür mit unter 250 Watt super auskommen. Eine 6700er hat vielleicht auch nur 180-200Watt, wenn RDNA2 wirklich so effizient ist.
Ich wünsche es mir auch, dass bei allem Fortschritt auch die Energerieeffizienz eine Rolle spielt.
Aber ich kann es mir nicht vorstellen, wenn schon die 5700XT Stock um die 210Watt hatte und mit Custom Overclocking 260Watt rauskamen, dass eine 6800 XT dann deutlich mehr Leistung, aber ungefähr den gleichen oder nur leicht höheren Verbauch haben wird.
Ich werde je nach Anwendung vermutlich auch mit den BIOS Einstellungen spielen, wenn es wieder eine Custom Karte wird. Dann kann man sich entscheiden ob mehr Performance oder mehr Ruhe und weniger Verbrauch.
Ergänzung ()
Kurze Ergänzung:
Für mich sind natürlich alle Angaben auf 4K bezogen und auf möglichst hohe Detailstufen mit möglichst allem Schnick Schnack, was man aktuell schon auf 1080P einschalten kann.
Ich jage nicht nach FPS über 60FPS, da ich das nicht benötige.
-> Monitor 4K Freesync 40-60Hz.
Ich spiele keine schnellen Shooter in Multiplayer wo es auf die kleinste ms und jeden Frame drauf ankommt.
Aber es freut mich, wenn die neuen Grafikkarten auch diese Zielgruppe auf 4K oder WQHD bedienen können.
So hat jeder etwas davon.
Das spielt keine Rolle, wenn RDNA1 und RDNA2 mit der selben TGP gecappt sind.
btw.
Interessant finde ich ja das Gerücht zur 3080Ti.
Könnte also passieren, das die RX6900 als RX6800 XTX (LC?) zu nem kleineren Preis kommt.
WIN WIN für alle Käufer
Die gabs doch zuletzt in der Drehe von 365-375€, auch gute Customs.(x)
Die 3060Ti ist übrigens schon in China gelistet. (so ca. 399€ könnten gut passen)
N22 dauert evtl. noch bis nächstes Jahr.
ich hätte gerne ne 5700XT, würd sofort meinen Morpheus draufmachen..ich denk langfristig wird die sogar besser als die 2070super/1080ti da stehen....aber der Preis ist mir noch zu hoch, jetzt im Angesicht der 3070 für 500eu sollte man sich nicht für knapp 400 ne RX 5700 holen...ab 300eu wäre ich wohl dabei. mal gucken, alte AMD Generationen werden ja sehr oft billig abverkauft, im Gegensatz zu den Nvidia Karten.
Kann gut sein, dass sie Karten wie die unbeliebte RX5700 TUF für weit unter 300eu abverkaufen bald, würde mir sehr gut gefallen, den ollen Kühler brauch ich sowieso nicht.
--würd sofort meinen Morpheus draufmachen..ich denk langfristig wird die sogar besser als die 2070super/1080ti da stehen....aber der Preis ist mir noch zu hoch, jetzt im Angesicht der 3070 für 500eu sollte man sich nicht für knapp 400 ne RX 5700 holen...ab 300eu wäre ich wohl dabei. mal gucken, alte AMD Generationen werden ja sehr oft billig abverkauft, im Gegensatz zu den Nvidia Karten.
Kann gut sein, dass sie Karten wie die unbeliebte RX5700 TUF für weit unter 300eu abverkaufen bald, würde mir sehr gut gefallen, den ollen Kühler brauch ich sowieso nicht.
VORSICHT!
Es ging net jeder Morpheus problemlos. Die User im Navithread von PCGH haben da viel Lehrgeld zahlen müssen. AMD NAVI Laberthread | Seite 19 | Die Hardware-Community für PC-Spieler - PCGH Extreme
(die Vega-Edition war glaube net so optimal, eher das viel ältere Modell Morpheus 1 bei EyeRaptor)
Auf dem PCB rechts neben der GPU, von vorn geschaut, gibts nen Bereich, wo VRM+Leiterbahnen+Vram sich gegenseitig aufheizen, dort hatten die Leute dann zusätzlich Pads direkt aufs PCB draufgepappt und Kühlkörper auf den Vram.(frag einfach Gurdi wo genau)
Rel. easy gings mit den billigen RX5700 und dann nur Accelero 2 mit fetteren Lüftern. AMD NAVI Laberthread | Seite 32 | Die Hardware-Community für PC-Spieler - PCGH Extreme
Aber auch Da war ein Zusatz-Lüfter auf der Rückseite net verkehrt.(einfach draufgelegt, je nach Umbau auch ohne Backplate)
Vom Preis her, verstehe ich Was Du meinst. Die RX56 Pulse für 225€ war ja sooooo richtig krass.
Oder ne quasi Ref. für <200€ für Modder, das waren Schnapper!
Nur man sieht sehr wenig Navis, ob da der Preisdruck entsteht?
Der "direkte" Nachfolger N22 kommt ja außerdem erst später.
Mal eine Frage - wieso ist DLSS 2.0 so der Pro punkt für Nvidia wenn doch von Microsoft DirectML in naher zukunft bestimmt auch ähnliches unterstützt wird.
Vllt. sind Wir heute Nachmittag schlauer.
obwohl
AMD bringt normalerweise immer erst Neuerungen im Adrenalin-Treiber vom Dez.,
lässt sich also momentan überhaupt net einschätzen.
Prinzipiell wäre DLSS 2.0 ne große Hilfe wenn man nur nen 4k60Hz-TV ohne HDMi2.1 hat.
Dito gänge an AMD-Grakas evtl. Freesync an einigen wenigen Samsung-TV´s mit HDMi 2.0 schon.(googlen)
Ziel 1: Das Tearing und Ruckeln unterhalb von Vsync=60Hz zu vermeiden.
Ziel 2: DLSS 2.0 kann auch mit UWQHD umgehen (was 1.0 net kann z.Bsp. in BF V und Metro)
Ob ältere 1.0-Games noch nachgepatched werden, weiss man net.
Heute 17:00 ist der Livestream.... ...aber über Verkaufsstart und Test NDAs wissen wir noch garnichts oder?
D.h. wenns wie bei Ryzen 3 läuft, gibts die erst Ende November zu kaufen, obwohl sie gesagt haben vor der PS5/Xbox was ja in 2 Wochen ist. Hat da wer was gehört?
Es gibt dazu mehrere Gerüchte.. die einen sagen vor Xbox verkauf wird es die ersten Karten geben (basierend auf Kumars Aussage), die anderen sagen nicht vor ende nov. Aber warten wir einfach bis heute Abend
Tests wirds wohl erst sehr kurz vor verkaufsstart geben
6800@250W für 579$ passt.(ab 18.Nov)
6800XT@300W für 649$ passt.(ab 18.Nov)
Bei dem geringen Preisunterschied sollte/muss AMD aber bitteschön auch der Kleinen nen guten Kühler verpassen!!!
6900XT auch nur 300W = Scheint auf niedrigen Verbrauch gepimpt.(bzw. Perf.=3090)
für 999$ passt.(ab 8.Dez)
Evtl. mit schnellerem Vram und stark selektierten Chips. OC incomming!
Damit ist bei der NT-Competition AMD klar besser dran.
Raff-pcgh:
"Bemerkenswert ist, dass all das bei offiziell gleicher respektive nur optimierter Fertigungstechnologie passiert. AMD spricht wörtlich von "Optimized libraries" der von TSMC bereitgestellten 7-nm-Fertigung. Von DUV-Layern ist nirgends die Rede, was die Effizienzgewinne in hellem Licht erstrahlen lässt und außerdem einen Shrink im Jahr 2021 naheliegend macht."
nur im CB-Artikel: Ein DLSS-Konkurrent kündigt sich an
Eine wichtige Frage bei den neuen Grafikkarten ist, ob es eine Konkurrenztechnologie zu Nvidias mittlerweile in Version 2.0 sehr gutem KI-Upsampling DLSS gibt. Darauf wollte AMD zwar noch nicht im Detail eingehen, gab aber bekannt an einem „Super-Resolution“-Feature zu arbeiten, das die Performance beim Einsatz von Raytracing verbessern soll. Die Funktion wird zum Start der Grafikkarten noch nicht fertig sein.
Vernünftigerweise sollten alle Tests dann mit nem Ryzen 5000 gemacht werden, wg. smart access,
ähnlich APU´s+nextGen = sharedMemory.(CPU+GPU können in einem Memorypool addressieren)
Manche haben auch>1800 hingelegt. Fast das Doppelte von BN.
(incl. neuem NT dann sogar noch mehr, schlimmstenfalls sogar ein größeres Gehäuse mit mehr Lüftern,
obs wirklich sein muss bezweifel ich, da brauchts dann schon Enthusiasmus)