News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

therealcola schrieb:

Ich bin mit meinem Dark Power 11 650 Watt sehr gut unterwegs und werde sicherlich nicht wegen den RTX Grafkas nun mein Netzteil wechseln ;)
 
  • Gefällt mir
Reaktionen: janer77
4to cka3al schrieb:
Sei mir nicht böse, aber das ist ja wohl eine Milchmädchenrechnung. Nur in einer Welt mit perfekter Skalierung wäre so was denkbar.

Die +50% Perf/Watt sind von AMD, nicht von mir.
 
Nice...238W GPU-TDP?
1A..nimmt meine Vega auch(wenn sie darf),mal sehen was an Mehrleistung rauskommt.. Noch mehr Heißluftgebläse wollt ich eigentlich nicht unterm Schreibtisch :-)

Ansonsten mal Ball flachhalten,das was AMD`s PR diesmal nicht fantasiert übernehmen grad die Fans.. :-)
Aber wenns halbwegs stimmt was sich da abzuzeichnen scheint....Daumen Hoch..Die nächste Nitro wird meine!!
 
  • Gefällt mir
Reaktionen: CableGuy82
Major_Fogger schrieb:
Wenn es bei dieser Leistung für die TDP bleibt, dann schnapp ich mir definitiv eine AMD Grafka.

Für mich verbrauchen die 3080 und die 3090 einfach zuviel an Watt.
Wie gesagt TBP kann 300W erreichen. Die letzten 20W Unterschied könnte dann der bessere Fertigungsprozess ausmachen.

Aber wenn ich mich recht erinnern kann, haben sich AMD Karten in der Vergangenheit auch gern mehr genehmigt als angegeben. Die Tests werden es zeigen
 
  • Gefällt mir
Reaktionen: CableGuy82 und Major_Fogger
AtotheX schrieb:
Klingt doch ganz gut.
Klingt vorallem richtig teuer, wir kriegen wohl unsere 16GB 3080 like Performance Karten mit 250W noch dieses Jahr. Aber billig wird das nicht, Ich hoffe quasi auf 999€, hoffung stirbt bekanntlich erst wenn sie auf die Realität trifft. Also zumindest für HBM2 und 16GB sollte richtig teuer werden, aber auch einiges an verbrauch sparen.
 
therealcola schrieb:
Mehr als 2 ghz Clock ist jetzt auch nichts besonderes schafft die RX 5700 XT ja schon..

Besonders ist, dass Big Navi mit der doppelten Anzahl an Recheneinheiten im Serienzustand die Taktraten erreichen soll.

Eine 5700XT bewegt sich mit 2GHz+ nämlich schon jenseits der 250 Watt.

Wenn ein doppelt so großer Chip das schafft und nicht 400+ Watt verballert, wäre das eine Riesen Steigerung der Effizienz.


Apfelsch0rle schrieb:
Wie wird hier denn DLSS bewertet? Hat AMD da irgendwas gegenzusetzen? Wenn ich 4K ohne Qualitätsverlust aus 1440p oder sogar 1080p aufs Display bekomme, steht dann der Sieger im Duell nicht ohnehin fest, ganz gleich was AMD hier vorlegt?

Das ist eine der Unbekannten. Angeblich arbeitet AMD an einer Alternative. Was dabei rauskommt, mal sehen. Wie wichtig das ist, muss jeder selbst wissen. In meinen Augen ist DLSS eine extrem tolle Technik. Ehrlicherweise muss man aber auch sagen, dass es nur von einem Bruchteil aller Spiele überhaupt genutzt wird. Die Anzahl an UHD Nutzern ist auch sehr klein und der Vorteil für 1440p und niedriger ist deutlich geringer bei solchen GPUs.

Muss man also wissen, welchen Stellenwert DLSS bei der Kaufentscheidung hat. Über kurz oder lang wird AMD aber nicht drum herum kommen, eine Alternative anzubieten.
 
  • Gefällt mir
Reaktionen: Hatch und Apocalypse
Egal wie die Leistung wird, schneller als meine Vega 64 Nitro+ ist sie auf jeden Fall und wird diese auch ersetzen. Dann kommt ein schöner Wakü-Block drauf und alles wird gut. :D
 
  • Gefällt mir
Reaktionen: Haldi
Ardan Redburn schrieb:
Nice...238W GPU-TDP?
Abwarten ob das nur die HBM2 Version ist und die GDDR6 dann die 300W voll macht. 16GB fressen ne Menge vom Power Budget.
 
  • Gefällt mir
Reaktionen: CableGuy82
Abwarten und Tee trinken.

die Vergangenheit hat gezeigt:
In den Foren ist der Hype immer ziemlich groß. Wilde Berechnungen um mögliche Leistungsfähigkeit und am Ende wird es eine ganz normale, konkurrenzfähige Karte und nicht das erhoffte +100% Leistung bei 5w Verbrauch für 2 Euro.

Übertaktbarkeit geht gegen Null, denn das ist nunmal der Trend.
 
  • Gefällt mir
Reaktionen: Coeckchen, znarfw, iceshield und 4 andere
Also wenn die Karte mit einem 650W Netzteil zurecht kommt und vielleicht auch noch der stromsparende HBM Speicher mit 16GB verbaut ist, dann gibt es für mich keine objektiven Argumente die Karte nicht zu kaufen! 😎
 
  • Gefällt mir
Reaktionen: Mracpad
Werderwunder schrieb:
für eine Karte die mir im nächsten Hochsommer 320 Watt in die Bude bläst und mit ihren 10 GB ja auch keine Investition für Jahre darstellt. Eine Nummer kleiner, wo man Gehäuse und NT behalten kann und wo die Kühllösung nicht auf Kante genäht ist, ist der bessere Ansatz, auch wenn da jetzt 10% Leistung fehlen.

Milchmädchenrechnung, du beachtest die Effizienz nicht. Die Karten nach Maximalverbrauch zu vergleichen ist Quatsch.
Wenn du nur FHD@60Hz spielst, kommt es darauf an wieviel die jeweilige Karte verbraucht um da hin zu kommen. Das wird nicht PMax sein.
Spielst du 4K@144Hz, gleiche Rechnung, wobei evtl. Nvidia mit DLSS punkten kann und daher am Ende besser dastehen könnte.

Wie gesagt, du machst da ne Milchmädchenrechnung. Welche Karte in welchem Szenario besser ist (bezogen auf Abwärme) kann noch niemand wissen.
Außer natürlich du spielst den ganzen Tag Benchmarks wie Furmark oder betreibst Cryptomining.
 
seyfhor schrieb:
Auf jeden muss AMD abliefern, auch nach den Seitenhieben auf nvidia. Wenn das nix wird wird der nächste PC Intel mit nvidia und die alte AMD kommt auf den Scheiterhaufen, sooo :king:
Warum denn Intel + Nvidia, meines Erachtens ist AMD Intel jetzt schon deutlich überlegen, Zen 3 wird da noch was drauflegen. Rdna 2 wird auch stark sein, aber da würde ich verstehen, wenn man Nvidia nimmt, bei CPUs mit 0%.
 
Ich bin mir sicher AMD wird ähnlich beim Launch zu kämpfen haben wie Nvidia.
Wie viel die Leistungssteigerung sein wird weiß ich nicht, aber mit dem Vollausbau wird sie die 2080 Ti definitiv überholen und die 3080 und 3090 werden nicht Planete entfernt sein werden oder sogar auf Augenhöhe sein wird. Immerhin konnte AMD mit RDNA 1 schon auf dem Mittelklassesegment gute und zuverlässige Karten bringen. (Mal abgesehen von den Treiberproblemen Anfang des Jahres)

Ob Big Navi mit GDDR6 oder HBM2 Speicher oder beides laufen könnte finde ich auch eine positive Nachricht.
 
"Hallo Herr Nvidia, wie oft möchten Sie sich dieses Jahr selbst ins Bein schießen?"

...."Ja"....


Wenn ich jetzt hier mal so den Tenor lese, geht der BigNavi Hypetrain langsam auf die Reise. Nicht wenige werden nun tatsächlich auf AMD warten, zu Recht.

Ich finde Ampere durchaus gelungen, werde auch bei Nvidia bleiben, aber der Launch ist eine Farce und gibt AMD nun alle Möglichkeiten hier Nvidia komplett auszukontern.

Hochmut kommt vor dem Fall.
 
  • Gefällt mir
Reaktionen: bikkje, CableGuy82, bad_sign und 4 andere
Shoryuken94 schrieb:
Die Anzahl an UHD Nutzern ist auch sehr klein und der Vorteil für 1440p und niedriger ist deutlich geringer bei solchen GPUs.
Wer ein VR HMD hat oder gerade darauf wartet, der schaut auch sehr genau auf DLSS. Insbesondere seitdem es hieß das ganze wäre VR tauglich.
Ergänzung ()

t3chn0 schrieb:
Wenn ich jetzt hier mal so den Tenor lese, geht der BigNavi Hypetrain langsam auf die Reise. Nicht wenige werden nun tatsächlich auf AMD warten, zu Recht.
Ich finde Ampere durchaus gelungen, werde auch bei Nvidia bleiben, aber der Launch ist eine Farce und gibt AMD nun alle Möglichkeiten hier Nvidia komplett auszukontern.
Hab es schon mehrfach geschrieben, alles gute für AMD, gute Konkurrenz hält zumindest die Preise unten und sorgt für Druck bei den Verbesserungen. Siehe CPUs.
 
  • Gefällt mir
Reaktionen: bikkje
FreedomOfSpeech schrieb:
AMD spricht von +50% Perf/Watt. Die 6900XT kommt mit 2x8Pin, daher 375 Watt.
Die 5700XT braucht 220W.

375/220*1.5=2.55

Daher kann es sein, dass sie 2.5x so schnell wie eine 5700XT ist, und damit liegt sie in Reichweite der RTX 3090....

Eher nicht!
Liegt mitunter daran, dass die Leistungssteigerungen in Bezug auf den Stromverbrauch nicht linear sondern überproportional steigen. Die ganzen Milchmädchenrechnungen sind wie immer absurd! Leute, das ist Physik ... kein wünsch-dir-was!

FreedomOfSpeech schrieb:
Die +50% Perf/Watt sind von AMD, nicht von mir.

Nicht nur von AMD, sondern von deren Marketingabteilung. Ich bin immer wieder erstaunt, wie Leichtgläubige jede Powerpoint Folie sofort blind fressen. Solche Schafe hätte ich auch gerne als Kunden!

Krautmaster schrieb:
AMD hat nun eben das Glück wie bei den CPU auch. Besser Fertigung als die Konkurrenz.

Und die bessere Fertigung hat AMD bei Vega und Navi in wie fern geholfen? Die haben mit ihrem überlegenen 7nm + HBM nichtmal die uralten 16nm FinFET Schinken abhängen können.

Ich glaube das Gegenteil erst, wenn ich es sehe!

Ardan Redburn schrieb:
Ansonsten mal Ball flachhalten,das was AMD`s PR diesmal nicht fantasiert übernehmen grad die Fans.. :-)

Wie wahr!
Erinnert mich geradezu an den Terror den dieselben Fanboys vor dem Vega Release abgezogen haben. Die Erwartungen waren so hoch wie die Enttäuschung danach.

Schockierender finde ich aber eher wie wenig dieselben Kandidaten wirklich nichts daraus gelernt haben. Wenn es wider erwarten gut wird, umso besser. Vorher sollte man sich jedoch nicht verrückt machen!
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: CableGuy82
Jensen hat wohl damit recht gehabt, dass diese Generation das ideale Upgrade für alle Pascal Grafikkartenbesitzer ist. Er hat dabei nur vergessen zu erwähnen, dass es die Generation von AMD Grafikkarten sein wird. :D
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: tunichgut und CableGuy82
t3chn0 schrieb:
Ich finde Ampere durchaus gelungen, werde auch bei Nvidia bleiben, aber der Launch ist eine Farce und gibt AMD nun alle Möglichkeiten hier Nvidia komplett auszukontern.

Hochmut kommt vor dem Fall.

Also NV hat abgeliefert mit erwarteter Leistung und zumindest bei 3080 und 3070 zu einem geringerem Preis als erwartet. Es ist die schlechtere Strukturgrösse und es gab Startschwierigkeiten ja. Kann das Gejammere nur bedingt nachvollziehen.

Hochmut? Wo denn, bisher sehe ich nur AMD in den Posts grosse Töne spucken. Wenn die Karten „sooo geil“ werden, können sie ja gern mal ein paar Benchs posten 😉

Zur Verfügbarkeit... mal schauen ob das gro der HC Gamer die Big Navi Karte dieses Jahr noch bekommt. Wetten nicht!
 
Apfelsch0rle schrieb:
Wie wird hier denn DLSS bewertet? Hat AMD da irgendwas gegenzusetzen? Wenn ich 4K ohne Qualitätsverlust aus 1440p oder sogar 1080p aufs Display bekomme, steht dann der Sieger im Duell nicht ohnehin fest, ganz gleich was AMD hier vorlegt?
RDNA2 hat zwar ML, aber muss wie auch RT wenn es genutzt wird gut bei der Rasterisierungs Leistung Einbüßen, da sie keine extra HW wie NV nutzen.
Hat MS ja vorkurzem alles offen gelegt bei ihrer XsX Presentation. Sie sagten auch das sich daher Entwickler nicht so für RT Effekte entscheiden werden wie sie es gerne hätten, da es immer ein Kompromiss ist.
NV ist da einfach weit vorraus noch.
 
  • Gefällt mir
Reaktionen: paintball, CableGuy82 und Digibyte
Ich denke die neue GPU von AMD wird um einiges besser altern als vorherigen.
Die "beste" Leistung wird wohl auch erst mit neuen Spielen zu sehen sein. Konsolen sind da die Vorlage... Ausreißer von nvidia werden wohl seltener. Ließt sich schon mal ganz gut... Bin gespann!

Mfg
 
Zurück
Oben