News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

Zotac2012 schrieb:
Die Frage ist halt, was AMD in Bezug auf RT bieten wird, da hört man eigentlich gar nichts und gesehen hat man auch noch nichts.
Offizielles natürlich nicht, aber Leaks gibt es bezüglich der RT Performance doch schon ein paar.

Im Großen und Ganzen geht man wohl davon aus, dass sie über Turing, aber unter Ampere liegen wird.
Das ist natürlich ein sehr großes Spektrum, aber immerhin^^
 
  • Gefällt mir
Reaktionen: NMA, konkretor, Mcr-King und eine weitere Person
Taxxor schrieb:
Will man jetzt einfach bei der gleichen Performance bleiben, muss man sich nur die Typische Performance/W Kurven anschauen, um zu wissen, dass die Karte auf das Niveau der 5700XT gebracht nur noch ca die Hälfte verbrauchen wird, man hat also zusammen mit den IPC Verbesserungen am Ende 5700XT Performance bei ca 90W Chip Power.
Ich bin jetzt nicht der große Held beim Prozentrechnen, aber da ging doch was schief, oder? Wenn ich +50% Perf/Watt habe, dann hab ich doch nicht beim halben Verbrauch die selbe Leistung. Dazu würde ich ja +100% Perf/Watt brauchen.
HaZweiOh schrieb:
Und in den Konsolen steckt die gleiche RDNA2-Technik wie in den Grafikkarten. Logisch, dass die Spiele dafür optimiert werden.
Hat man bei den bisherigen Konsolen auch gesagt, aber da kam nicht viel bei rum. Darauf würde ich also nicht bauen.
 
  • Gefällt mir
Reaktionen: Lord B.
Taxxor schrieb:
Wer bei 2-300MHz höherem Takt, höherer IPC sowie doppelter Shaderzahl gegenüber der 5700XT ernsthaft von nur ~45% Mehrleistung ausgeht (->2080Ti Niveau) dem ist mMn auch nicht mehr zu helfen^^

Klar, hat bei der 3080 ja auch super funktioniert...nicht
Höherer Basis- und Boosttakt als die 2080Ti FE und die doppelte Shaderzahl (im Idealfall). Aber so weit setzt sie sich dann doch nicht von ihr ab. Da kommen doch auch nur 30-35 Prozent bei raus. Warum sollte das bei AMD anders sein?
 
Tommy Hewitt schrieb:
Ich bin jetzt nicht der große Held beim Prozentrechnen, aber da ging doch was schief, oder? Wenn ich +50% Perf/Watt habe, dann hab ich doch nicht beim halben Verbrauch die selbe Leistung. Dazu würde ich ja +100% Perf/Watt brauchen.
Deshalb sagte ich ja Perf/Watt Kurven anschauen^^ Mehr Leistung erfordert exponenziell mehr Verbrauch, aber umgekehrt lässt sich mit geringen Performanceeinbußen auch exponenziell mehr Verbrauch sparen.

Wie erwähnt, die 50% Perf/Watt bei RDNA1 kamen, indem du 14% Mehrleistung bei -23% Verbrauch hattest, damit kommst du auf diese +50%.

Wenn du die Performance auf gleichem Niveau halten willst, musst du jetzt die 14% Mehrleistung wieder abziehen, dazu kannst du ja mal schauen, wie das bei der 3080 aussieht, die verliert 4% Leistung bei 15% weniger Verbrauch.

Wenn du also von den +14% auf 0% gehst, indem du den Takt reduzierst, landest du am Ende locker bei -50% verbrauch.
Ergänzung ()

McFritte schrieb:
Klar, hat bei der 3080 ja auch super funktioniert...nicht
Höherer Basis- und Boosttakt als die 2080Ti FE und die doppelte Shaderzahl (im Idealfall). Aber so weit setzt sie sich dann doch nicht von ihr ab. Da kommen doch auch nur 30-35 Prozent bei raus. Warum sollte das bei AMD anders sein?
Weil AMD nicht an den Shaderzahlen rumgedoktort hat und die CUs immer noch den gleichen Shadercount besitzen.
Das ist ja der Grund, warum man bei Nvidia die TFLOPs nicht mehr vergleichen kann.
Bei AMD sind die verdoppelten Shader eben auch wirklich exakt genau so nutzbare Shader wie vorher, bei Nvidia nicht.
Hätte Nvidia die Zahl der SM verdoppelt und wäre bei 64 Shadern pro SM geblieben, dann würde das dort auch anders aussehen(dann würden wir aber auch über 450W sprechen^^).
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Blaze1987, NMA, Brian.Griffin und 6 andere
so_oder_so schrieb:
Interessant ist vielmehr, dass die RTX 3000 Karten trotz riesiger Shaderzahl im Vergleich zu den alten Karten ihre Leistung nicht so auf die Straße bringen, wie man es von +100% Shaderzahl erwarten WÜRDE.
Ist 0 vergleichbar. Bei Ampere kannst du da eher :2 rechnen. Die Architektur hat sich da sehr geändert.

Das ist wie eine 5VLIW Karte als HD5870 mit nee GCN Karte vergleichen.
 
  • Gefällt mir
Reaktionen: Otsy und Mcr-King
Klingt supi, besonders nachdem man gesehen hat, wie sich AMD in letzter Zeit um ihre Treiber kümmert!
Steht bei mir definitiv höher auf der Wunschliste als Nvidias künstlich beschränktes und overhypedes Strom-Fresserchen :)
Mal sehen, AMD muss aber auch etwas liefern, was mit der Leistung der 3080 mithalten kann. Sonst habe ich diese Generation sowieso mit meiner 2070 Super keinen Grund, aufzurüsten.
 
  • Gefällt mir
Reaktionen: Benji18, DannyA4, Marc53844 und 3 andere
owalort schrieb:
Versteh ich nicht :?
Ich habe am Releasetag kurz nach 15:00 Uhr eine Asus Tuf bestellt, anschließend eine Zotac bei Amazon. Die Tuf habe ich daraufhin storniert...dann kam die Stornierung seitens Amazon. Im laufe dieser Woche bestellte ich erneut eine Tuf, die Lieferung dürfte nun ewig dauern.

Ich halte von AMD mehr als von Nvidia, besaß eine rx 5700 xt red devil von Powercolor, allerdings möchte ich nun mehr Leistung und bei der Rtx 3080 für unter 800€ konnte man erstmal nicht viel verkehrt machen.
Mittlerweile halte ich den Launch der rtx 3080 eher für ein Armutszeugnis.


Wenn AMD nun ordentlich abliefert kaufe ich natürlich AMD und warte dann gerne noch länger. Unwahrscheinlich das meine 3080 bis Ende Oktober ankommt und falls Richtung Mitte Oktober, bleiben noch 14 Tage zum zurückschicken. Bis dahin wird AMD also vermutlich enthüllt sein.

Es gibt hier und an anderer Stelle immer wieder diverse Leute, die AMD für Schrott halten und die Leistung einer Rtx 3080 für unmöglich halten. Ich würde mich einfach sehr freuen, wenn sie eben dicke Backen machen, sofern AMD mal richtig was raushaut.
 
  • Gefällt mir
Reaktionen: Kirschgeschmack, Alex1966, Thorque und 9 andere
Taxxor schrieb:
Bei AMD sind die verdoppelten Shader eben auch wirklich exakt genau so Nutzbare Shader wie vorher, bei Nvidia nicht.
Das ist bei AMD aber auch nur so wenn man quasi innerhalb GCN bzw einfach innerhalb der Architektur bleibt, wie es da bei RDNA 2 aussehen wird... Fraglich. Bei GCN hat sich auch bei zig Versionen nichts geändert, denke also RDNA2 ist quasi eher Marketing. Selber Aufbau wie RDNA als HD5700XT, doppelte Shaderzahl, neue VideoCodec Engine, RT als Feature (ggf rein Software), fertig ist RDNA2
 
  • Gefällt mir
Reaktionen: EntelodonX
HaZweiOh schrieb:
Und in den Konsolen steckt die gleiche RDNA2-Technik wie in den Grafikkarten. Logisch, dass die Spiele dafür optimiert werden.

In den aktuellen Konsolen stecken auch seit 2013 GCN Chips. Klar gibts da einige Optimierungen, aber groß etwas gebracht hat es den PC Grafikkarten auch nicht. Es ist trotzdem recht gemischt...
 
  • Gefällt mir
Reaktionen: Lord B., konkretor, Mcr-King und 3 andere
KurzGedacht schrieb:
So was macht man nur wenn man um jeden Preis eine bestimmte Vorgabe schlagen muss und möglichst früh noch Käufer abgreifen will und die Vorgabe wird Big Navi sein.
Was für mich dagegen spricht ist, dass man bei Nvidia mit der RTX 3080 und 3090 schon sein Pulver im Enthusiasten Bereich verschossen hat, sprich Leistungsmäßig kann man nichts mehr nachschieben. Wenn es so ist, dass man so gut informiert ist [und davon gehe ich in dieser Branche aus, dass alle Ihre Whistleblower bei den Konkurrenten haben!] und ungefähr weiß, was vom Konkurrent auf den Markt kommen wird und was diese Grafikkarte leistet, dann hätte ich zunächst die RTX 3080 und von mir aus auch die RTX 3070 gebracht.

Aber es gibt keinen logischen Grund, warum man überstürzt eine RTX 3090 auf den Markt werfen sollte, diese würde ich mir noch in der Hinterhand behalten und weiter optimieren und diese dann als Konter nachschieben. Das würde auch Sinn machen, aber diese jetzt in noch keinem ausgereiften Stadium auf den Markt zu werfen ohne Not, das erschließt sich mir nicht. Außer Nvidia weiß und ist sich so sicher, AMD kann die RTX 3090 nicht schlagen!
Luxmanl525 schrieb:
Das stimmt natürlich. Aber Persönlich halte ich das Gedöns nach wie vor für vernachlässigbar, weil es immer noch zuwenig Spiele gibt. Das wird sich erst mit den kommenden Konsolen grundlegend ändern, aber auch dies wird noch eine Zeitlang dauern.....
So habe ich bei Turing gedacht, aber gerade jetzt auch mit den neuen Konsolen, welche ja auch RT können sollen, bin ich das doch anderer Meinung und halte das Feature absolut nicht für vernachlässigbar. Gerade auch im Hinblick auf bestimmte Titel die demnächst oder nächstes Jahr erscheinen sollen. Aber das muss wirklich jeder für sich entscheiden, ob es ein Thema ist oder auch nicht.
 
  • Gefällt mir
Reaktionen: Ernie75, Mcr-King und Shoryuken94
Krautmaster schrieb:
Bei GCN hat sich auch bei zig Versionen nichts geändert, denke also RDNA2 ist quasi eher Marketing. Selber Aufbau wie RDNA als HD5700XT, doppelte Shaderzahl, neue VideoCodec Engine, RT als Feature (ggf rein Software), fertig ist RDNA2
Der allgmeine Tenor scheint zu sein, dass RDNA1 eher eine Art Testballon der Architektur war und RDNA2 radikal anders sein wird, da hier eben auch Sony und Microsoft mit im Boot waren.

Wenn du bei RT aber schon "ggf rein Software" schreibst, hast du dich vermutlich wirklich noch nicht viel mit RDNA2 beschäftigt^^
 
  • Gefällt mir
Reaktionen: NMA, Kenshin_01, Blaze1987 und 8 andere
Wer genau sagt das mit den +50% Perf/Watt? AMD? Genauso wie Nvidia behauptet die 3070 sei schneller als eine 2080 Ti? Vielleicht sollte man den eigenen Angaben von AMD das gleiche Misstrauen entgegen bringen wie bei Nvidia.
 
  • Gefällt mir
Reaktionen: Alex1966 und bikkje
Das Klingt alles sehr gut :).
Aber ich denke das die Karten trotzdem langsamer sein werden trotz guter Daten da Amd nicht in so vielen Games mit drin hängt wie Nvidia leider :/
 
MeisterOek schrieb:
Wer genau sagt das mit den +50% Perf/Watt? AMD? Genauso wie Nvidia behauptet die 3070 sei schneller als eine 2080 Ti? Vielleicht sollte man den eigenen Angaben von AMD das gleiche Misstrauen entgegen bringen wie bei Nvidia.
AMD hat, zumindest in jüngerer Vergangenheit, recht gut mit solchen Aussagen auch die darauffolgenden unabhängigen Reviews abgebildet. Für RDNA z.B. hatten sie auch +50% Perf/Watt versprochen, das war in der Realität sogar noch ein Stück besser.
 
  • Gefällt mir
Reaktionen: nikky, GERmaximus, Ernie75 und 14 andere
123.jpg


6900XT // 4K // Quelle: AMD
Wird auf dem Level der 3080 sein, bzw. diese leicht überflügeln. Und dann noch die 16-GB ;)....Es wird alles "flüssiger" (frametimes) ;)

Preis: das weiss ich noch nicht:(
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Onkel Föhn, GERmaximus, Kirschgeschmack und 10 andere
SKu schrieb:
Klingt fast so als würde Nvai 21 einmal mit GDDR6 und einmal mit HBM kommen.

Richtig so ist es wo bei ich denke die HBM Version ist mehr als Titan gedacht. 😉
 
  • Gefällt mir
Reaktionen: Redragonzensor
Wenn AMD in der Standardkonfiguration wesentlich weniger Strom verbraucht würde ich sehr begrüßen.

Das NVidia 350 Watt in die 3080 pumpt ist ziemlich dämlich. Ich lass meine 3080 auf 70% power limit laufen. Dies sind die 3d mark time spy werte:

70% power limit (238 Watt) - grafics score: 15463 - test1: 102fps - test2: 88fps
100% power limit (340 Watt) - grafics score: 16757 - test1: 107fps - test2: 98fps

Man bekommt demnach nur 5 bis 10% mehr Performance bei 40% mehr Leistungsaufnahme!
 
  • Gefällt mir
Reaktionen: downforze, Kuestennebel79, GERmaximus und 12 andere
@Taxxor
Mag sein, ich denke dennoch dass die Leistung bestenfalls 1:1 über die Shader und Takt skalierbar sein wird, sich also am RDNA Aufbau selbst kaum was ändert. Man wird sehen. Frage mich eher wie AMD das RT umsetzt.
 
MeisterOek schrieb:
Vielleicht sollte man den eigenen Angaben von AMD das gleiche Misstrauen entgegen bringen wie bei Nvidia.
Ich bringe den Angaben von AMD so viel Vertrauen bzw Misstrauen gegenüber, wie es die Vergangenheit zeigt.

Und die 50% die von GCN zu RDNA1 erreicht werden sollten, wurden am Ende leicht übertroffen.
Genau so sieht es wohl intern gerade auch bei den 50% zu RDNA2 aus, die man auch etwas übertreffen sollte.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, NMA, DannyA4 und eine weitere Person
Zurück
Oben