Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten
Offizielles natürlich nicht, aber Leaks gibt es bezüglich der RT Performance doch schon ein paar.
Im Großen und Ganzen geht man wohl davon aus, dass sie über Turing, aber unter Ampere liegen wird.
Das ist natürlich ein sehr großes Spektrum, aber immerhin^^
Will man jetzt einfach bei der gleichen Performance bleiben, muss man sich nur die Typische Performance/W Kurven anschauen, um zu wissen, dass die Karte auf das Niveau der 5700XT gebracht nur noch ca die Hälfte verbrauchen wird, man hat also zusammen mit den IPC Verbesserungen am Ende 5700XT Performance bei ca 90W Chip Power.
Ich bin jetzt nicht der große Held beim Prozentrechnen, aber da ging doch was schief, oder? Wenn ich +50% Perf/Watt habe, dann hab ich doch nicht beim halben Verbrauch die selbe Leistung. Dazu würde ich ja +100% Perf/Watt brauchen.
HaZweiOh schrieb:
Und in den Konsolen steckt die gleiche RDNA2-Technik wie in den Grafikkarten. Logisch, dass die Spiele dafür optimiert werden.
Wer bei 2-300MHz höherem Takt, höherer IPC sowie doppelter Shaderzahl gegenüber der 5700XT ernsthaft von nur ~45% Mehrleistung ausgeht (->2080Ti Niveau) dem ist mMn auch nicht mehr zu helfen^^
Klar, hat bei der 3080 ja auch super funktioniert...nicht
Höherer Basis- und Boosttakt als die 2080Ti FE und die doppelte Shaderzahl (im Idealfall). Aber so weit setzt sie sich dann doch nicht von ihr ab. Da kommen doch auch nur 30-35 Prozent bei raus. Warum sollte das bei AMD anders sein?
Ich bin jetzt nicht der große Held beim Prozentrechnen, aber da ging doch was schief, oder? Wenn ich +50% Perf/Watt habe, dann hab ich doch nicht beim halben Verbrauch die selbe Leistung. Dazu würde ich ja +100% Perf/Watt brauchen.
Deshalb sagte ich ja Perf/Watt Kurven anschauen^^ Mehr Leistung erfordert exponenziell mehr Verbrauch, aber umgekehrt lässt sich mit geringen Performanceeinbußen auch exponenziell mehr Verbrauch sparen.
Wie erwähnt, die 50% Perf/Watt bei RDNA1 kamen, indem du 14% Mehrleistung bei -23% Verbrauch hattest, damit kommst du auf diese +50%.
Wenn du die Performance auf gleichem Niveau halten willst, musst du jetzt die 14% Mehrleistung wieder abziehen, dazu kannst du ja mal schauen, wie das bei der 3080 aussieht, die verliert 4% Leistung bei 15% weniger Verbrauch.
Wenn du also von den +14% auf 0% gehst, indem du den Takt reduzierst, landest du am Ende locker bei -50% verbrauch.
Ergänzung ()
McFritte schrieb:
Klar, hat bei der 3080 ja auch super funktioniert...nicht
Höherer Basis- und Boosttakt als die 2080Ti FE und die doppelte Shaderzahl (im Idealfall). Aber so weit setzt sie sich dann doch nicht von ihr ab. Da kommen doch auch nur 30-35 Prozent bei raus. Warum sollte das bei AMD anders sein?
Weil AMD nicht an den Shaderzahlen rumgedoktort hat und die CUs immer noch den gleichen Shadercount besitzen.
Das ist ja der Grund, warum man bei Nvidia die TFLOPs nicht mehr vergleichen kann.
Bei AMD sind die verdoppelten Shader eben auch wirklich exakt genau so nutzbare Shader wie vorher, bei Nvidia nicht.
Hätte Nvidia die Zahl der SM verdoppelt und wäre bei 64 Shadern pro SM geblieben, dann würde das dort auch anders aussehen(dann würden wir aber auch über 450W sprechen^^).
Interessant ist vielmehr, dass die RTX 3000 Karten trotz riesiger Shaderzahl im Vergleich zu den alten Karten ihre Leistung nicht so auf die Straße bringen, wie man es von +100% Shaderzahl erwarten WÜRDE.
Klingt supi, besonders nachdem man gesehen hat, wie sich AMD in letzter Zeit um ihre Treiber kümmert!
Steht bei mir definitiv höher auf der Wunschliste als Nvidias künstlich beschränktes und overhypedes Strom-Fresserchen
Mal sehen, AMD muss aber auch etwas liefern, was mit der Leistung der 3080 mithalten kann. Sonst habe ich diese Generation sowieso mit meiner 2070 Super keinen Grund, aufzurüsten.
Ich habe am Releasetag kurz nach 15:00 Uhr eine Asus Tuf bestellt, anschließend eine Zotac bei Amazon. Die Tuf habe ich daraufhin storniert...dann kam die Stornierung seitens Amazon. Im laufe dieser Woche bestellte ich erneut eine Tuf, die Lieferung dürfte nun ewig dauern.
Ich halte von AMD mehr als von Nvidia, besaß eine rx 5700 xt red devil von Powercolor, allerdings möchte ich nun mehr Leistung und bei der Rtx 3080 für unter 800€ konnte man erstmal nicht viel verkehrt machen.
Mittlerweile halte ich den Launch der rtx 3080 eher für ein Armutszeugnis.
Wenn AMD nun ordentlich abliefert kaufe ich natürlich AMD und warte dann gerne noch länger. Unwahrscheinlich das meine 3080 bis Ende Oktober ankommt und falls Richtung Mitte Oktober, bleiben noch 14 Tage zum zurückschicken. Bis dahin wird AMD also vermutlich enthüllt sein.
Es gibt hier und an anderer Stelle immer wieder diverse Leute, die AMD für Schrott halten und die Leistung einer Rtx 3080 für unmöglich halten. Ich würde mich einfach sehr freuen, wenn sie eben dicke Backen machen, sofern AMD mal richtig was raushaut.
Das ist bei AMD aber auch nur so wenn man quasi innerhalb GCN bzw einfach innerhalb der Architektur bleibt, wie es da bei RDNA 2 aussehen wird... Fraglich. Bei GCN hat sich auch bei zig Versionen nichts geändert, denke also RDNA2 ist quasi eher Marketing. Selber Aufbau wie RDNA als HD5700XT, doppelte Shaderzahl, neue VideoCodec Engine, RT als Feature (ggf rein Software), fertig ist RDNA2
In den aktuellen Konsolen stecken auch seit 2013 GCN Chips. Klar gibts da einige Optimierungen, aber groß etwas gebracht hat es den PC Grafikkarten auch nicht. Es ist trotzdem recht gemischt...
So was macht man nur wenn man um jeden Preis eine bestimmte Vorgabe schlagen muss und möglichst früh noch Käufer abgreifen will und die Vorgabe wird Big Navi sein.
Was für mich dagegen spricht ist, dass man bei Nvidia mit der RTX 3080 und 3090 schon sein Pulver im Enthusiasten Bereich verschossen hat, sprich Leistungsmäßig kann man nichts mehr nachschieben. Wenn es so ist, dass man so gut informiert ist [und davon gehe ich in dieser Branche aus, dass alle Ihre Whistleblower bei den Konkurrenten haben!] und ungefähr weiß, was vom Konkurrent auf den Markt kommen wird und was diese Grafikkarte leistet, dann hätte ich zunächst die RTX 3080 und von mir aus auch die RTX 3070 gebracht.
Aber es gibt keinen logischen Grund, warum man überstürzt eine RTX 3090 auf den Markt werfen sollte, diese würde ich mir noch in der Hinterhand behalten und weiter optimieren und diese dann als Konter nachschieben. Das würde auch Sinn machen, aber diese jetzt in noch keinem ausgereiften Stadium auf den Markt zu werfen ohne Not, das erschließt sich mir nicht. Außer Nvidia weiß und ist sich so sicher, AMD kann die RTX 3090 nicht schlagen!
Luxmanl525 schrieb:
Das stimmt natürlich. Aber Persönlich halte ich das Gedöns nach wie vor für vernachlässigbar, weil es immer noch zuwenig Spiele gibt. Das wird sich erst mit den kommenden Konsolen grundlegend ändern, aber auch dies wird noch eine Zeitlang dauern.....
So habe ich bei Turing gedacht, aber gerade jetzt auch mit den neuen Konsolen, welche ja auch RT können sollen, bin ich das doch anderer Meinung und halte das Feature absolut nicht für vernachlässigbar. Gerade auch im Hinblick auf bestimmte Titel die demnächst oder nächstes Jahr erscheinen sollen. Aber das muss wirklich jeder für sich entscheiden, ob es ein Thema ist oder auch nicht.
Bei GCN hat sich auch bei zig Versionen nichts geändert, denke also RDNA2 ist quasi eher Marketing. Selber Aufbau wie RDNA als HD5700XT, doppelte Shaderzahl, neue VideoCodec Engine, RT als Feature (ggf rein Software), fertig ist RDNA2
Der allgmeine Tenor scheint zu sein, dass RDNA1 eher eine Art Testballon der Architektur war und RDNA2 radikal anders sein wird, da hier eben auch Sony und Microsoft mit im Boot waren.
Wenn du bei RT aber schon "ggf rein Software" schreibst, hast du dich vermutlich wirklich noch nicht viel mit RDNA2 beschäftigt^^
Wer genau sagt das mit den +50% Perf/Watt? AMD? Genauso wie Nvidia behauptet die 3070 sei schneller als eine 2080 Ti? Vielleicht sollte man den eigenen Angaben von AMD das gleiche Misstrauen entgegen bringen wie bei Nvidia.
Das Klingt alles sehr gut .
Aber ich denke das die Karten trotzdem langsamer sein werden trotz guter Daten da Amd nicht in so vielen Games mit drin hängt wie Nvidia leider :/
Wer genau sagt das mit den +50% Perf/Watt? AMD? Genauso wie Nvidia behauptet die 3070 sei schneller als eine 2080 Ti? Vielleicht sollte man den eigenen Angaben von AMD das gleiche Misstrauen entgegen bringen wie bei Nvidia.
AMD hat, zumindest in jüngerer Vergangenheit, recht gut mit solchen Aussagen auch die darauffolgenden unabhängigen Reviews abgebildet. Für RDNA z.B. hatten sie auch +50% Perf/Watt versprochen, das war in der Realität sogar noch ein Stück besser.
6900XT // 4K // Quelle: AMD
Wird auf dem Level der 3080 sein, bzw. diese leicht überflügeln. Und dann noch die 16-GB ....Es wird alles "flüssiger" (frametimes)
@Taxxor
Mag sein, ich denke dennoch dass die Leistung bestenfalls 1:1 über die Shader und Takt skalierbar sein wird, sich also am RDNA Aufbau selbst kaum was ändert. Man wird sehen. Frage mich eher wie AMD das RT umsetzt.
Ich bringe den Angaben von AMD so viel Vertrauen bzw Misstrauen gegenüber, wie es die Vergangenheit zeigt.
Und die 50% die von GCN zu RDNA1 erreicht werden sollten, wurden am Ende leicht übertroffen.
Genau so sieht es wohl intern gerade auch bei den 50% zu RDNA2 aus, die man auch etwas übertreffen sollte.