News Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2

t3chn0 schrieb:
Das ist tatsächlich eine Kopie der Founders Edition Turing Karten ^^.

Welche nur eine Kopie von Sapphire Karten ist...welche nur eine Kopie von xxx ist.
 
  • Gefällt mir
Reaktionen: Kodak und Cpt.Willard
tunichgut schrieb:
@Blaze1987
Bei den Rx5700er war auch ein 8- und ein 6 Pin , dafür das man deutlich mehr Leistung bekommen wird ,
ist das doch noch human.
Bei Team Green finden die FBs sogar 3x8Pin "super" - so what.
Das hast natürlich recht, aber bisher musste ich selbst Hand an meine AMD Karten anlegen, da AMD die Spannungen und vor allem die P-States nicht nach meinem Geschmack gewählt hatte.

Kann natürlich auch daran liegen, daß die Ausbeuete nicht immer so gut war und man auf Nummer sicher gehen wollte bezüglich der Leistung / Spannung.

Nur Anhand Vega alleine, was da manuelles UV für eine bessere Leistung / Temperatur gebracht hat und auch vor allem das Stocken entfernt hat (VRam / SOC sollte sich bei bestimmten Lastszenarien nicht immer runter und hoch takten).

Daher befürchte ich (pessimistisch), dass AMD wieder auf Leistung trimmt, anstatt von Haus aus den Sweetpot auszuliefern.
Immerhin möchte ich doch, dass AMD in den Reviews glänzen kann, dass sich sogar der nicht Technik affine sich die zulegt... 😉

Alles für die Marge!
 
pgene schrieb:
Ich bin auf den Stromhunger gespannt.
Dito, wobei ich glaube, dass es dieses mal für AMD im Vergleich zu Nvidia gar nicht so schlecht aussehen muss. (der Fertigungsprozess von TSMC sollte in der Hinsicht gegenüber den 8nm von Samsung schon in Vorteil sein. Und ab der 3080 kommt dann auch noch GDDR6x VRAM dazu, der ebenfalls kein Kostverächter ist.)
Ist halt aber auch die Frage, ob RDNA2 da weiter machen konnte, wo RDNA1 "aufgehört" hat, wie es mit den Treibern aussieht, und vor allem wie das ganze sich als Paket dann macht und wo es sich platziert.

dieses mal einen roten voll bestückten "Releasekalender" an die Wand häng
 
Ufff, von Seite 39 auf 51, na danke und dabei habe auch noch gestern was Nacht noch vorbereitet und alle wollen kommentiert werden.

catch 22 schrieb:
Ob es an fehlender Manpower liegen mag, wird hier wohl kaum einer sagen können können. Nicht alles ist Fleißarbeit, manchmal reicht auch die zündende / rettende Idee einer einzelnen Person, z.B. wenn diese gerade einer existentiellen Frage auf der Keramik nachgeht.
Vorausgesetzt, man hat genug fähige Mitarbeiter, die nach den ganzen AMD Sparkurs Maßnahmen aus dem Unternehmen ausgeschieden sind um noch was zu zünden. Es braucht auch keinen Jim Keller um eine leistungsfähige Architektur wie den K10 zu erkennen, aber Entscheider, die zwar innovativ AMD SSE4a fördern, aber SSE4.1/4.2 erst dem Bulldozer spendieren.
AMD hat sich bei Instruktionen und anderen Konstruktionen schon genug selbst Flaschenhälse gemacht.
Besonders wenn doch potente Zukunftshardware erstmal auf keine Software trifft.

Wer hat das Avatar mit dem Minion, der @Der Nachbar zu meinem unverständlichen Beitrag angesprochen hat?🤣 @catch 22

Eingegangen bin ich auf das Mitglied @-Daniel-.;)

Übrigens habe ich ja geschrieben, das ich die zwischenzeitlich abgestiegenen 650 Beiträge noch lesen muss und multiple Antworten sind auch ungern gesehen, vorausgesetzt, die Forensoftware erlaubt es innerhalb kurzer Zeiträume damit ich jeden exklusiv an erster Stelle antworten und stellen kann. Das würde wohl schnell zu einem Beitrag zusammengeführt werden.

Übrigens, eine Ignorierliste führe ich auch nicht und wird auch nicht in Zukunft gesetzt. Das hat zwischenemenschliche Gründe, weil die Kommentarvielfalt aus allen Beweggründen menschliche Gefühle ausdrückt. Wenn ich also das AMD Fortnite Marketing als Gefühl der dahinter stehenden Kundenkommunikation ertragen muss, muss AMD auch ertragen mich als Kunden mit einem Renderbild nun ja, erstmal nicht überzeugt zu haben und das sind 500-700€, die Frau Su eben nicht erhält. Würde ich die AMD News ignorieren, könnte ich den AMD Absturz oder doch eine positive Entwicklung aus den Augen verlieren und zumindestens bei ZEN geht es in die richtige Richtung, wenn auch in manch ZEN News die Radeon Sparte inhaltlich in Abschnitten mit getragen wird.

@Linmoum
Als wüsste AMD Führung nicht, was sich überhaupt verkaufen kann ohne einen Shitstorm nach sich zu ziehen, falls mal einer kommt. Dem Athlon Excavator hat man auch einen DDR 4 Controller für AM4 noch vor der ZEN Einführung für den AM4 Launch spendiert und da ging es nicht um den Flaschenhals mit DDR4 Umgehung, sondern den wichtigen AM4 Launch. Mal schnell die Masken abzuändern funktioniert, wenn man will, aber so sinnvoll, wie derzeit aktuelle APUs mit VEGA GPU abzuliefern. ZEN 1 war auch heiß auf den Markt gebracht und es hatte Gründe, warum ich erst den ZEN+ gekauft habe. Erschien mir als Phenom II Nutzer ausgereift genug und es reicht nicht einfach halbgar einfach eine neue Architektur mit doch vielen Flaschenhälsen rauszubringen, die AMD zu früh schon mit dem K10 einfach mit dem Bulldozer begraben hat, der auch in 32/28nm SOI ausgeführt werden müsste. Beim AMD Kauf lasse ich meine früheren Erfahrungswerte einfließen.

AMD hat nach den letzten Tests zum 3300X mit der Skalierbarkeit bei Grafikkarten sogar gut unter Beweis gestellt, das sie eigentlich nur ordentliche Vierkerner bauen und das CCX Design hier optimal funktioniert. Mehr Kerne sind selbst bei ZEN 2 APU fast schon Verschwendung, wenn man viele Kunden mit einer besseren 3300X APU überzeugen könnte und das Problem mit dem Cache und Infinity Fabric für die nativ potenten Achtkerner erst mit ZEN 3 auf dem ganzen CCD lösen will. AMD ist einfach zu Kernmarketing getrieben und verschwendet unnötig Ressourcen, was zur Produktkanibalisation führt. Man sieht ja das Desaster, was an TR1000/2000 mit dem AM4 3950x gemacht wurde. Der zieht fast allen TR HEDT Prozessoren der ersten Serien einfach mal davon. Wer also rendern will und genug RAM einsetzen, falls nicht die Masse an PCIe Lanes wichtiger ist, hat nur mit dem 2990WX den AM4 3950X Bändiger, der aber auch schon mit 128GB RAM umgehen soll.

Nach nicht mal zwei echten ZEN Generationen sind das einfach Leistungssprünge, wo mehr Kerne nur durch die gleiche Anzahl und weniger Kerne obsolet werden, weil die Architektur einfach zu stark optimiert wird. Das kann man als Kunde positiv aber auch negativ sehen, wenn man reife Produkte erwerben will oder was man als reif betrachtet. Bei mobilen Produkten wie einer APU, wo es um Energiesparen und Leistungsbeständigkeit über den Lebenszeitraum geht, man wirft ja das Notebook nicht nach zwei Jahren weg, wäre mir ein potenter Vierkener und SMT mit einer guten Grafikeinheit dann lieber. Würde für Fortnite sicher heute ausreichen, wenn nicht noch eine diskrete GPU mit rein landet. Jedenfalls hätte AMD bei der APU GPU durchaus schon die Vorzeichen einer gut durchdachten RDNA Lösung bringen können und VEGA bitte in die Schublade stecken. Markting mit Effizienz geht mit RDNA besser.

Wadenbeisser schrieb:
Ach komm, der war jetzt aber wirklich billig.
.....
Naja, Microsoft hat am Ende trotzdem Muffensausen bekommen sich doch mal an die DircetX 12 Entwicklung ran zu setzen, Mantle ist unter dem Vulkan dick begraben worden und nvidia geht als klarer Sieger hervor. Wenn Microsoft am nvidia Gameworks Programm teil nimmt, dann wird auch der FS2020 wohl besser spielbar. Jedenfalls hat Microsoft trotz AMD Bindung wohl kein echtes Vertrauen in AMD, wenn nvidia das Microsoft eigene DirectX12 Kind auswachsen lässt. So gut auch der low Level API Ansatz von AMD mit Mantle war, so war es auch nur wieder ein rohes, totes Tier mit Haut am Stück, was nicht AMD zum geniessbaren Filet geschnitten und gebraten hat.

Ich habe mir sogar bei Maxwell kein Kopf über DierctX12 zerbrochen, weil Microsoft im Ausnahmezustand bei der Windows 10 Entwicklung war. Wer wagte es überhaupt 2014/15 Windows 10 zu installieren?
Bluescreenliebhaber von Windows 98?

Ich habe ja noch irgendwo die Nachrichten als Echo nachhallen, wo die Konsole Next Gen Spielerfahrungen bieten soll und AMD hält an Vulkan fest, obwohl man für Microsoft in Hardware gegossene DirectX Lösungen entwickelt.
Microsoft Äußerungen zu Windows 10 als Spiele OS mit DirectX 12 Exklusivität können ja auch nicht ganz stimmen, wenn man sicherlich erneut 50+ Millionen Konsolen verkaufen will. Außer es spielen 100 Millionen Windos 10 Nutzer Fortnite, dann wird aber Halo gesagt, welcher MS Shooter exklusiv den PC bereichern soll. Mit Tastatur und Maus versteht sich.

Inxession schrieb:
Joa, mag sein.
nVidia hatte damals begonnen die GeForces rein auf Gaming auszurichten. Und waren dadurch, eben beim spielen, schneller.
.........
Also, selbst die spieleoptimierte GTX1660 schiebt sich in durch CUDA gestützte Anwendungen an die RX5700XT und die RTX2060 dreht um die RDNA Karte gerne mal Kreise. Spielen kann man auch drauf.-
Trotzdem ist nvidia Turing laut Microsoft voll DirectX 12_2 oder Marketing Ultimate kompatibel, weil eben voll DXR kompatibel. Mal schauen, ob Microsoft recht behält und frei ist man eher mit Vulkan und OpenGL, nicht aber wenn man die Microsoft DX Standards erfüllen muss. Trotzdem sind auch freie Konsortien ohne Lizenzzahlungen Zusammenschlüsse, wo man sich auf Grundlagen einigt um das Siegel auch als kleinsten, gemeinsamen Nenner selbst tragen zu können.

Novasun schrieb:
Das ist Quatsch. Es war gerade NV`s Stärke, dass die Boardpartner da sehr viel machen konnten.
......
Seit wann können sich die Boardpartner den Fertigunsprozess aussuchen oder besser ausgesagt, was ich hätte ja noch ausführen können, damit mein Beitrag dann den Klick macht, den Chiphersteller?
Mit Samsung will nvidia die beworbene Chipleistung anbieten und da denkt man bei der frühen Chipsausbeute nicht an Übertaktung, wenn nvidia auf einem neuem Fertigungsprozess mit Samsung erstmal verkaufbare Chips anbieten will.

Wenn aber nvidia erstmal gute Chips in ausreichender Menge an seine Boardpartner verkaufen kann, die auch die Chipgüte haben gut übertaktet zu werden, dann ergibt dein Beitrag auch Sinn. :)

Benji18 schrieb:
Wau du musst ja echt soviel Hass auf AMD haben, wenn du derart emotional wirst ....
by the way es gibt nicht nur Render bilder es wurden gestern noch echte Photos veröffentlicht ;-)
Keinesfalls, bin noch heute mit einer VEGA unterwegs, aber wohl nicht mehr sehr lange. Mehr eine Enttäuschung, weil man im Mining Boom Mining Treiber bereit stellen konnte, über UVP verkaufen, aber danach AMD nur das Adrenalin bei den Kunden geschürt hat. ;)
Ach ja, Team Rocket Radeon Rules, wenn man x3 mal R wählt. :D

Übrigens habe ich eine ZEN+ CPU plus X470 als PC System. Aber so unterschiedlich kommuniziert Frau Su die Sparten CPU und GPU. Darüber hinaus ist es dann eine bittere Enttäuschung, wenn der ZEN+ 8 Kerner qualitativ besser encodiert als die VEGA GPU und dabei durchaus schnell ist. Da überlege ich mir den GPU Kauf gründlich ohne mir Renderbilder als neueste Leistungsklasse andrehen zu lassen.
ZEN 3 wird sich sicher auch bei mir bei dem derzeitigen Stand der Entwicklung einfinden und da müsste seitens AMD viel schief gehen, aber der Beigeschmack mit der X470 Kompatiblität hat AMD mit Zusagen, Rückziehern, Shitstorm und lauer Begründung es dennoch zu ermöglichen Frau Su nicht zum CEO Superuser des Jahres gemacht. Die Frau ist für mich auch nur ein enttarnt männlicher Ego Manager im Renditedienst und es gab schon Königinen in der Geschichte, die für Macht und Gold über Leichen gingen.

Gelinde gesagt, AMD hat bei Weitem nicht die nötigen Marktanteile für Diktate, hängt am Tropf der Custom SoC Sparte und nur die Kunden haben das nötige Taschengeld um den Laden und seine Ingenieure den Absatz zu ermöglichen, denn kein Investor oder Bank wird Milliarden $ in ein Unternehmen stecken, was nicht mal Produkte erntwickelt, verkauft oder die Produkte im Regal liegen bleiben. Außer es nennt sich Wirecard, aber welcher Bank vertraut man blind sein Geld an? Ich traue nicht mal meiner Volksbank und der dahinter stehenden Genossenschaft.
 
Blaze1987 schrieb:
Das hast natürlich recht, aber bisher musste ich selbst Hand an meine AMD Karten anlegen, da AMD die Spannungen und vor allem die P-States nicht nach meinem Geschmack gewählt hatte.

Kann natürlich auch daran liegen, daß die Ausbeuete nicht immer so gut war und man auf Nummer sicher gehen wollte bezüglich der Leistung / Spannung.

Nur Anhand Vega alleine, was da manuelles UV für eine bessere Leistung / Temperatur gebracht hat und auch vor allem das Stocken entfernt hat (VRam / SOC sollte sich bei bestimmten Lastszenarien nicht immer runter und hoch takten).

Daher befürchte ich (pessimistisch), dass AMD wieder auf Leistung trimmt, anstatt von Haus aus den Sweetpot auszuliefern.
Immerhin möchte ich doch, dass AMD in den Reviews glänzen kann, dass sich sogar der nicht Technik affine sich die zulegt... 😉

Alles für die Marge!

Ich habe bei allen Radeons , die hatte , den den Vcore gesenkt und leicht oced ,
hat sich seit Hawaii/ Fuji/Vega/Polaris nicht geändert , weil CGN.
RDNA1 war da schon deutlich besser in allem und die RDNA2 wird sicher kein Rückschritt,
ob sie nun schneller oder nur etwas langsamer sind , ist fast egal.
Den Sweetspot , den Nvidia mit der 3080 nicht liefert , hat Amd
seit dem Launch auf dem Silbertablett - jetzt heisst es liefern.
Ich bin optimistisch , dass sie es auch tun :)
 
  • Gefällt mir
Reaktionen: Mcr-King
1005 Kommentare wegen dem Bild einer Grafikkarte, die erst noch vorgestellt wird, die meisten davon aber leider überflüssig bis schon reichlich dümmlich. Ich muss es so sagen. Irgendwelche Behauptungen werden aufgestellt und als Wahrheit gepriesen, obwohl man eigentlich noch gar nichts weiss, wie Z.Bsp. zu laut, zu heiss, zu langsam, etc., etc.

Würde vielen Leuten, die hier gepostet haben, mal raten, in eine Papiertüte zu atmen und herunterzukommen, wenn man schon am hyperventilieren ist, und sich den Schaum vor dem Mund wegzuwischen. Und vor allem mal einige Zeit nachzudenken, bevor man etwas schreibt. Oder es gleich lassen, wenn nichts Schlaueres rauskommt als irgendwelches dümmliches Bashing. Tip: Nicht euer ganzes Selbstwertgefühl darauf aufbauen, welche Grafikkarte in eurem PC verbaut ist.
 
  • Gefällt mir
Reaktionen: medsommer, m2020 und Mcr-King
Kadaj schrieb:
Ich weiß jetzt nicht ob schon Bilder der "6000" gezeigt worden sind, wenn es "echte" sind.
Quelle

Anhang anzeigen 967449

Fals es schon gepostet worden ist, sry :heilig:


Die Hinterseite mit der rechten Schraube sieht so aus als wär die aufklappbar bzw der Deckel leicht zu entfernen. Um dort 2x DDR 4 Ram Riegel rein zu packen oder ne NVME SSD.

Und der sogenannte Infinity Cache ist die Anbindung zwischen SSD / DDR4 RAM und VRAM SPEICHER.


1TB Grafikkarten Speicher inc XD ... NVIDIA TOT :D
 
Zuletzt bearbeitet:
KCX schrieb:
Konsolen Spieler immer, wenn ich das sehe... 30fps mit Tearing und Drops ist einfach als verwöhnter PC Zocker Höchststrafe

Konsolen können auch Freesync zumindest mit dem richtigen TV meiner kann zwar nur 45-80HZ reicht aber völlig aus. 😉
 
  • Gefällt mir
Reaktionen: KCX
Der Nachbar schrieb:
Naja, Microsoft hat am Ende trotzdem Muffensausen bekommen sich doch mal an die DircetX 12 Entwicklung ran zu setzen, Mantle ist unter dem Vulkan dick begraben worden und nvidia geht als klarer Sieger hervor. Wenn Microsoft am nvidia Gameworks Programm teil nimmt, dann wird auch der FS2020 wohl besser spielbar. Jedenfalls hat Microsoft trotz AMD Bindung wohl kein echtes Vertrauen in AMD, wenn nvidia das Microsoft eigene DirectX12 Kind auswachsen lässt. So gut auch der low Level API Ansatz von AMD mit Mantle war, so war es auch nur wieder ein rohes, totes Tier mit Haut am Stück, was nicht AMD zum geniessbaren Filet geschnitten und gebraten hat.

Ich habe mir sogar bei Maxwell kein Kopf über DierctX12 zerbrochen, weil Microsoft im Ausnahmezustand bei der Windows 10 Entwicklung war. Wer wagte es überhaupt 2014/15 Windows 10 zu installieren?
Bluescreenliebhaber von Windows 98?

Ich habe ja noch irgendwo die Nachrichten als Echo nachhallen, wo die Konsole Next Gen Spielerfahrungen bieten soll und AMD hält an Vulkan fest, obwohl man für Microsoft in Hardware gegossene DirectX Lösungen entwickelt.
Microsoft Äußerungen zu Windows 10 als Spiele OS mit DirectX 12 Exklusivität können ja auch nicht ganz stimmen, wenn man sicherlich erneut 50+ Millionen Konsolen verkaufen will. Außer es spielen 100 Millionen Windos 10 Nutzer Fortnite, dann wird aber Halo gesagt, welcher MS Shooter exklusiv den PC bereichern soll. Mit Tastatur und Maus versteht sich.
Mantle wurde nicht begraben denn es war von Anfang an das immer wieder erklärte Ziel es allgemein zugänglich zu machen und weil kein Hersteller gegenüber seinem direkten Konkurrenten die Hosen runter läßt oder sich von ihm Rahmenbedingungen für seine Hardware auferlegen läßt läuft es zwangsläufig auf ein externes Konsortium hinau.
Das konnte man ja auch im Verlauf der Entwicklung verfolgen. Intel war zumindest an Mantle interessiert und nvidia hatte sich komplett verweigert.

Es gibt auch einen sehr simplen Grund warum Vulkan über das Konsortium weiter läuft, DirectX ist an Windows gebunden und somit ist für andere Betriebssysteme so oder so eine andere API erforderlich.

Was ich nicht verstehe ist warum du erwartets das mit einer Gameworks Nutzung Microsofts Flugsimulator besser laufen sollte. Das Ding verhungert an der CPU Nutzung und hat damit ganz andere Probleme. Die sollten das Spiel lieber erstmal vernünftig mit DX12 umsetzen bevor die nächste Baustelle eingebaut wird.
Wenn es aber nur um eine Physik Engine an sich geht würde sich z.B. auch die Bullet Engine oder Havok anbieten.
Ergänzung ()

therealcola schrieb:
Die Hinterseite mit der rechten Schraube sieht so aus als wär die aufklappbar bzw der Deckel leicht zu entfernen. Um dort 2x DDR 4 Ram Riegel rein zu packen oder ne NVME SSD.
Das bezweifel ich dann doch denn dafür wäre der Platz unter der Backplate zu gering. Dieser ist schon deshalb sehr begrenzt damit man nicht mit anderen Karten zusammenstöß und seit das Anschlusspanel des Mainboards auch noch verkleidet wird ist das Problem nicht geringer geworden.
Was aber durchaus sein kann ist das darunter die sonst typischen Aufkleber leicht zugänglich versteckt werden.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: therealcola
Mcr-King schrieb:
Konsolen können auch Freesync
Du sprichst von der Xbox? - leider kenne ich niemanden, der sich eine gekauft hat 😢.. darum meine ich mit "Konsolen Spieler" die PS - wäre mir neu....

Wie gesagt, mir ist die XB deutlich sympathischer. Meine Frau will aber PS, alle Homies kaufen PS, ich will teilweise die Sony Games zocken und da ich einen PC habe, gehen die Argumente für die XB leider gegen 0. Wenn die aber im Preis ein wenig gefallen ist und es ein paar vernünftige Games mit Dolby Vision geben wird, könnte ich schwach werden.
 
  • Gefällt mir
Reaktionen: Mcr-King
Ich hoffe auf Custom Designs mit 3 Displayports für mein Eyefinity Setup.
 
  • Gefällt mir
Reaktionen: Mcr-King
  • Gefällt mir
Reaktionen: KCX
Ich spiele kein Fortnite, seht mir daher bitte meine Unwissenheit nach, aber kann man dort cheaten, sowas wie "noclip" (Half Life) zum durch Geometrien laufen? Wenn ja, hat schonmal jemand versucht, IN die gerenderte Radeon zu laufen? Eventuell ist ja wirklich die komplette Karte, samt Speicher usw. dort vorhanden.
 
Skjöll schrieb:
Und dann ist die nicht lieferbar, zu laut, frißt zuviel, wird zu heiß, sieht nicht schön aus und die Treiber funktionieren nicht....

So einen Blindflug würde ich nicht machen.

Tscha, mit den ersten Sachen mal recht behalten.....
 
  • Gefällt mir
Reaktionen: Mcr-King
Wäre ja cool, wenn sie auch was für Notebooks machen würden. Also eine 5800er oder 5900er oder eine 6000er
 
@Mcr-King Kommt da noch was von AMD jetzt dieses Wochenende? Weil du meintest Ende der Woche würde AMD noch was bringen.
 
  • Gefällt mir
Reaktionen: Cpt.Willard
Also laut Leak irgendwo zwischen 2080 Ti und 3080 mit 300W TDP?
 
  • Gefällt mir
Reaktionen: Mcr-King
therealcola schrieb:
Die Hinterseite mit der rechten Schraube sieht so aus als wär die aufklappbar bzw der Deckel leicht zu entfernen. Um dort 2x DDR 4 Ram Riegel rein zu packen oder ne NVME SSD.
Und der sogenannte Infinity Cache ist die Anbindung zwischen SSD / DDR4 RAM und VRAM SPEICHER.

Grundsätzlich nicht ausgeschlossen da AMD bereits im Pro Bereich so eine Karte im Angebot hat. Allerdings kann ich mir nicht vorstellen dass man es jetzt schon bei RDNA2 bringt. Wäre eine handfeste, aber auch willkommene Überraschung.

Ob nun DDR4 oder SSD als Cache ist prinzipiell egal, Funktionieren würde beides. Mir wäre fast DRAM lieber ;) aber es könnte sich auch einfach um eine Klappe handeln um die Karte leichter Messen zu können ohne alles abschrauben zu müssen. Quasi ein Prototypzusatz was auch nicht weiter verwunderlich wäre und ins Bild passt.

Einen lvl 4 Cache werden wir sehen, aber ich glaube in dieser Generation noch nicht.
 
  • Gefällt mir
Reaktionen: Mcr-King
Also so zumindest mein Stand laut Reddit Quelle,
RX6900XT hat 128 MB Cache L3 und TDP 300 Watt
RX6800XT hat nur 96 MB Cache L3 und TDP 200 Watt

Product NameGPU ChipReleasedBusMemoryGPU clockMemory clockShaders / TMUs / ROPs
Radeon RX 6800 XTNavi 22Oct 28th, 2020PCIe 4.0 x1612 GB, GDDR6, 192 bit1500 /1700 MHz2000 MHz3584 / 224 / 64
Radeon RX 6900 XTNavi 21Oct 28th, 2020PCIe 4.0 x1616 GB, GDDR6, 256 bit1500/1735 MHz2000 MHz5120 / 320 / 96


So ungefähr ;)

Schöne neue Woche euch noch. :)
 
  • Gefällt mir
Reaktionen: I30R6, tunichgut und Zertruemmerdog
Zurück
Oben