News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

th3o schrieb:
Die größte Stärke von NVIDIA ist DLSS, ich gehe davon aus dass in dieser GPU Generation immer mehr Spiele diese Art von Tech implementieren werden. Und wenn man dann mit den NVIDIA Karten einfach mal mit einem Knopfdruck 30-40% Performanceboost aktivieren kann dann nützt AMD das auch nichts dass ihre Karten in der reinen Performance ähnlich schnell sind. Preis hin oder her und Stromverbrauch hin oder her. Es gibt nicht wenige Leute denen diese Aspekte egal sind (letzterer jedenfalls). Und ob ich mir eine GPU für 900 oder 750 kaufe ist im Grunde auch völlig Wurst dann hier handelt es sich um Enthusiast Konsumenten Produkte.

Und ich stimme auch nicht zu dass die Tatsache dass AMD schweigt ein gutes Zeichen ist. Jedes Unternehmen nutzt sofort die Schwäche des direkten Konkurrenten aus. AMD nutzt gerade gar nichts aus.

AMD hat ihre Strategie dahingehend geändert auf sich zu schauen. Daher ist es halt ruhig, NVIDIA macht das nicht anders und Firmen wie Apple auch.

Daher das als Weltuntergang zu bezeichnen, ist falsch, nur weil man nicht zag ein Tag aus gegenüber der Konkurrenz lästert - wo man selbst noch nichts vorweisen kann. Man wird sehen, wie die Produkte sind, man sollte einfach abwarten, spekulieren ist ok, aber nicht zu viel hineininterpretieren.

Des Weiteren bist du wohl scheinbar noch überzeugter Nvidianer, daher kannst du dir doch ganz entspannt eine RTX kaufen und dich zurück lehnen, wenn du nicht gerade Aktien bei AMD hast kann es dir doch egal sein, wie die ihr Marketing machen und die Produkte im Grafikkartenbereich am Ende ausfallen.

Und einst sollte jeden noch mal klar werden, das Geschäftsjahr geht 1 Jahr lang und ist am Ende ein Marathon, ein guter Start hat nichts zu sagen, dass kann sich dann alles noch drehen. Daher machen die 4 Wochen Wartezeit unterm Strich kaum etwas aus. Viele Produkte in verschiedenen Bereichen hatten einen guten Start und sind dann doch nicht so erfolgreich oder gar gefloppt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: russianinvasion und Pulsar77
B3nutzer schrieb:
So ist es. Gerade in Bewegung hat DLSS nochmal Vorteile gegnüber TAA, weil das Bild deutlich stabiler bleibt und weniger Aufpixelt oder verschmiert, wie bei reinem TAA.

Und wegen dem Comment davor: Mich als Gamer interessiert sehr wohl auch die Bildqualität und nicht nur die FPS - man spielt ja nicht dauernd PVP Shooter. Wenn also ein Cyberpunk kommt und ich mit DLSS ggf. sogar bessere Bildqualität als Nativ kriege samt besserer Performance -> bin ich dabei!

So zählt DLSS 2.x für mich schon mit zu den wichtigsten Eigenschaften und nicht nur als "nice to have".

Was ich hier von AMD gesehen habe an RIS kann da nicht mithalten. Was nun nicht bedeutet AMD ist doof, sondern das man hier einfach zugeben muss, dass NVidia mit DLSS einen Punkt auf der Haben-Seite für sich einheimst.

Letztendlich denke ich, werden wir weder mit BigNavi noch mit Ampere einen Fehler machen - am Ende zählt das Featureset und der Bedarf an den Features.
Für mich steht hauptsächlich auf Grund von CUDA und G-Sync ein Wechsel auf AMD außer Frage, auch wenn ich es AMD gönne.
Selbst wenn die schneller ist als eine 3080/90. Genug FPS zum zocken wird man mit beiden haben. :) Meist... :P
 
  • Gefällt mir
Reaktionen: KingZero, Cpt.Willard, Khalinor und eine weitere Person
@Destyran Das wären immer noch über 125€ über meinem Budget. Deswegen hoffe ich ja auf etwas günstiges in der Region von der RTX 2060, was für mich immer noch ausreichend wäre. Diesmal möchte ich etwas neues haben, wegen der Garantie.
 
Luxmanl525 schrieb:
Hallo zusammen,

@ iron mike

Ein Neues Netzteil wirst du dir so oder so Kaufen müssen, wenn du die Neue AMD GPU`s erstehen möchtest. Nach den bisherigen Daten urteilend, wird sie nicht so arg unter der 3080 liegen, vielleicht 30 - 50 Watt sind erwartbar und das wäre immer noch in Ordnung wenn sie nicht weit weg von der Performance her ist.
ist das Problem bei den neuen von Nvidia nicht die unglaublichen Spikes?
Ich kaufe mir wenn überhaupt ein 600w netzteil, aber kein 750w, das ist zuviel des guten, besonders als student schlägt das ordentlich in mein budget ein.
ich warte bis die AMD karten draussen sind und ich tests sehe und dann entscheide ich womit ich die 980ti ersetze.
 
von der tdp finde ich nur die 6700 interessant. 6gb vram wären aber mehr als traurig.

Satan666 schrieb:
Soo schlecht sind sie aber auch nicht unterwegs, vor allem preislich wurde die 2080Ti ja praktisch deklassiert, so krass habe ich das in diesem Markt noch nie erlebt...

was bei ihrem wucherpreis auch wahrlich keine kunst ist.
 
edenjung schrieb:
ist das Problem bei den neuen von Nvidia nicht die unglaublichen Spikes?
Ein Problem, welches AMD Karten schon lange vorher hatten^^

Eine 5700XT mit ihren 225W TBP hat, wie auch die Vega56, im 1ms Bereich auch Spikes auf 400W.

CPUs können auch Spikes haben. Die meisten Netzteile können diese 1ms Spikes abfangen, aber ingesamt sollte man bei der NT Wahl auf CPU sowie GPU noch mal jeweils 50% draufrechnen, dann ist man im sicheren Bereich.

Bedeutet für eine 5700XT+3700X in meinem Fall 340W+130W = 470W, restliches System und Puffer dazu und man ist bei 650W, die für das System durchaus angemessen wären, wenn man sicher sein will.

Mit einer 6900XT bei 300W müsste man die mit 450W veranschlagen, da ist man mit 650W immer noch gut dabei, wenn man dann allerdings noch nen 10900K OC oder ähnliches drin hat, sollte man schon über 750W nachdenken.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ebu85 und Baal Netbeck
Die Anzeichen für eine Radeon RX 6900 XT auf Basis von Navi 21 mit 80 CUs, 5.120 Shadern und 16 GB GDDR6 an einem 256- bis 320-Bit breiten Speicher-IF verdichten sich hingegen

wo ist bisher bei navi denn die rede von einem 320bit si??
auch das "ininity cache" ist bisher mehr ein ganz dickes gerücht - wäre zumindest merkwürdig wenn die dedizierten rdna2 gpu's einen solchen cache hätten, die konsolen auf der gleichen architektur aber keinen...
 
  • Gefällt mir
Reaktionen: Baal Netbeck
Ebu85
Seitens AMD gibt es doch kaum offizielles und das hier ist ein "größerer" Leak seit langem, den man halbwegs wahrnehmen kann und zu den ersten Leaks, die tatsächlich an Wert haben auch nicht widersprechen.

Siehe erster Leak damals mit OpenVR, wo die Karte 17% schneller war, als 2080TI OC und der Leak aus Asien (Foundery nahe, anzunehmen) bezüglich 505 mm^2 Chip. Würde man den Hochrechnungen von 3D Center nämlich glauben, müsste eine 80 CUs große GPU kleiner ausfallen.

Kurz, eine Erwartung kann zu einer Enttäuschen führen, aber anzunehmen, dass RDNA 2 nur 2080TI erreicht, wie so einige hier meinen, halte ich dann doch eher für das untere Ende. Klar, kann es aber auch eintreten.

Man muss aber auch bedenken, dass RDNA1 laut CB die selbe IPC wie Turing hat. Der TU102 (2080TI) hat 72 SM zu je 64 ALUs, was ja der selbe Wert ist wie bei den CUs, ebenfalls 64 Shaders, So gesehen hat RDNA2 bereits mehr CUs. Auch mehr Takt und eben (vermutlich) höhere IPC, sonst könnte man nicht von 50% bessere Watt Performance erwarten, was ich ihnen aber auch glaube, denn die 50% hatte man mit RDNA zu GCN sogar erreicht (sogar etwas übertroffen).
Ich erwarte jetzt nicht, dass es eine 3080 oder 3090 wird, aber ich erwäge es als möglich, dass man wie IgorLab es sagt, dass man die 3070 durchaus schlägt, dabei nicht wesentlich mehr verbraucht (eben da der Chip größer ist im Vergleich zu den verwandten Chip der 3070) aber auch etwas schwächer als die 3080/3090, weil im Vergleich der Chip größer ist.


Somit nüchtern gesagt, erwarte ich mir mindestens das RDNA1 zu Turing Verhältnis, nur dass man dieses mal nicht nur einen Mittelklasse Chip hat, sondern auch einen Chip drüber. Kann man da wirklich noch von Hyper-Train sprechen ?

Übertrieben wäre es, AMD schlägt die 3090 mit weniger Verbrauch ^^ Aber wenn das passiert, dreht sich das Platt sowieso deutlich, egal ob da noch einige DLSS rufen. Denn klar das ist n Mega Feature, aber es ist auch gehyped. Denn auch wenn NV an einem allgemeinen Algorithmus für die Adaption in weitere Games arbeitet, ist es noch ein erheblicher Aufwand und NV muss starke Ambitionen verfolgen, das durchzudrücken. Und bisher ist ihnen in der Vergangenheit solche Ein-Weg Lösungen nicht mehr gelungen. Cuda war der letzte große Software-Hardware-Standard, denn sie durchgedrückt haben (erfolgreich). GSync ist ein Beispiel für die beste "Hardware. Lösung". Wenn man aber bedenkt, dass man AMDs Alternative kostenlos bekommt, sobald die Schnittstelle das unterstützt.
Und so ähnlich wird es bei AMD Alternative zu DLSS vermutlich (wenn überhaupt) auch aussehen. Konsolen benötigen solche Algorithmen und man hatte bereits bei den Vorgänger klügere Upscaler und CO gesehen. Auch MS und Sony werden da weitere Bemühungen und Generationen haben.
Da auch NV ML Schnittstelle von MS unterstützt und teils mitgewirkt hat. Diese in Konsolen hineinfliest, spricht vieles dafür, dass hier ein Standard bezüglich AA kommen könnte und in DX direkt eingebettet wird.
Und MS selbst ist ein etwas größeres Kaliber als NV und hat durchaus was Software angeht etwas zu sagen. Wo wir weiters zu Streaming kommen. MS wird auch hier mit AMD zusammenarbeiten, damit Streaming verbessert wird und dazu wird man ebenso neben Kompression vermutlich AI-Ähnliche Techniken entwickeln.

NV ist eine super Firma, wenn es um KI geht. Aber sie sind neben MS, Facebook, Amazon und viele andere eben nicht die einzige Firma. Und es gibt auch Hürden für DLSS, welches ich meine. DLSS funktioniert gut für Spezialwerte/Titel, aber Studios müssen trotzdem extra an Ressourcen und Aufwand investieren, damit ein Gamer mit NV Karte dann grafisch am PC eine Vorteil hat. Und als Studio kann man sich durchaus die Frage stellen, ob man das finanziell dann für jedes Spiel stemmen will. Es hat schon ein Grund wieso DLSS aktuell nur bei gewissen Games vorhanden ist und übrigens zufällig auch jene Games vorzeige Titel für die 3000RTX sind.

Mein Tipp also, es wird schon noch was "allgemeines" kommen, ich erwarte es mir von MS. Einen offener Standard, wie bei RT, Tessellation und co. Aber natürlich nicht so effizient, aber eben redundanter von den Studios einsetzbar und auch allgemein für NV, AMD Karten aber auch Konsolen anwendbar.

cypeak
Laut Konsolen speziell XBOX X Serie, von der man die Chipgröße und Daten weiß, müsste Big Navi auch kleiner sein als 505 mm^2. Somit kann was hinter dem Cache stecken (klar ist ein Gerücht). Es scheint auf alle Fälle eine Lücke zu geben, welche Spekulationen zulässt.

PS: Wenn es nach mir geht, interessiert mich sowieso nur das Battle der 3070 vs einer AMD Konkurrenzkarte. Einfach weil ich auch kein Bock habe, falls ich mir überhaupt eine neue Karte gönne, mehr als 500 Euro ausgeben. Das höchste der Gefühle waren bisher 400 Euro.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Baal Netbeck und pipi
KlaraElfer schrieb:
Der war gut, AMD hatte schon lange keine wirklich gute Grafikkarte mehr, die Nvida zum Schwitzen hätte bringen können. Die letzte war meines Erachtens die HD 4870.
HD 5870 war seinerzeit besser wie nvidia und die R9 290X hat nvidia auch gekillt.
 
  • Gefällt mir
Reaktionen: daknoll und mk77er
Taxxor schrieb:
CPUs können auch Spikes haben, also ingesamt sollte man bei der NT Wahl auf CPU sowie GPU noch mal jeweils 50% draufrechnen, dann ist man im sicheren Bereich.

Bedeutet für eine 5700XT+3700X in meinem Fall 340W+130W = 470W, restliches System und Puffer dazu und man ist bei 650W, die für das System durchaus angemessen wären, wenn man sicher sein will.
Dann fahre ich mit meiner Msi 980ti + Ryzen 2600 ja ganz gut mit meinem 525w netzteil :D
Klar da hängen 3 SSDs und eine HDD dran sowie ein Cd/dvd-laufwerk, aber das macht den braten nicht fett.
 
cypeak schrieb:
wäre zumindest merkwürdig wenn die dedizierten rdna2 gpu's einen solchen cache hätten, die konsolen auf der gleichen architektur aber keinen...
Die Konsolen sind ja auch ganz anders aufgebaut in ihrem Speichersystem, das kann man nicht auf eine dGPU übertragen.
Ergänzung ()

Fighter1993 schrieb:
HD 5870 war seinerzeit besser wie nvidia und die R9 290X hat nvidia auch gekillt.
Naja "gekillt" ist zuviel des Guten, 2 Wochen später kam die 780Ti die schneller war und die 290X hatte zu der Zeit auch enorme Lieferprobleme, genau wie die 5870 davor auch.
Aber man war mit der 290X auf jeden Fall zum bisher letzten Mal in der Lage mit Nvidia im oberen Bereich mitzuhalten, auch was Perf/Watt anging.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fighter1993
aeri0r schrieb:
So zählt DLSS 2.x für mich schon mit zu den wichtigsten Eigenschaften und nicht nur als "nice to have".
Genau so sehe ich das auch.
Wenn AMD nichts vergleichbares in der Pipeline hat haben sie schon verloren.

DLSS 3.0 ist doch auch schon in Entwicklung und soll den Einsatz in Spielen für Entwickler noch einfacher machen (soll mit jedem Spiel das TAA unterstützt funktionieren).
 
  • Gefällt mir
Reaktionen: aeri0r
KlaraElfer schrieb:
Das ist die FE gegen FE aus der 3DC Meta Analyse, ohne DXR 47,5% mit DXR sind es 58%.
Ja, irgendwie kann man sich das sicher schön rechnen.
Als ich die 3090 in 4K Ultra RDR2 mehrfach mit 60 (!) frames kämpfen sah in den fps punishing areas, war der hype für mich durch. Mit der 2080Ti hat man gerade mal 10-15 fps weniger.

Ich erinnere an die 2080Ti, welche die 3090 überholt hatte in SotTR, in 4K.
Unter 1440p kam ich dort ja selbst um 10 fps an die 3090.

Turing ist ein oc Paradies, evtl ist der Vergleich auch nicht fair, die 2080Ti bekommt man locker über ihre Gewichtsklasse geschoben.

Vielleicht bin ich auch der einzige, der sich mehr erhofft hatte.
 
Khalinor schrieb:
DLSS 3.0 ist doch auch schon in Entwicklung und soll den Einsatz in Spielen für Entwickler noch einfacher machen (soll mit jedem Spiel das TAA unterstützt funktionieren).

Der Anteil an Spielen die DLSS unterstützen ist doch sehr klein. Und die Liste mit den zukünftigen Erscheinungen ist auch nicht viel länger.

Bei der 4000er Serie wird das wieder anders ausehen. Jetzt dafür extra Geld ausgeben ist für den Massenmarkt eher unwahrscheinlich. (Ausgehend davon das AMD wieder günstiger als Nvidia ist)
 
@pipip jeder schürrt seine erwartungen selber aber kann es AMD dann nicht in die Schuhe schieben wenn diese nicht erfüllt werden.

Für mich persönlich wird Big navi nur intersannt wenn die Leistung mindestens zwischen 3070 und 3080 liegt bei so ca 300 Watt. Weniger ist natürlich immer gut. Und da AMD hier nur ein 2 Slot Kühldesign hat gehe ich mal nicht von 300+ Watt aus ansonsten haben wir hier eine neue Radeon VII...
 
Doppelte CUs und Schader bei gleicher Leistungsaufnahme und Verbesserungen der RDNA Architektur? Das klingt auf jeden Fall spannend. Falls es stimmt muss man dann abwarten, ob dir Karte sie PS auch auf die Straße bringt.
 
papa_legba schrieb:
Der Anteil an Spielen die DLSS unterstützen ist doch sehr klein. Und die Liste mit den zukünftigen Erscheinungen ist auch nicht viel länger.

Bei der 4000er Serie wird das wieder anders ausehen. Jetzt dafür extra Geld ausgeben ist für den Massenmarkt eher unwahrscheinlich. (Ausgehend davon das AMD wieder günstiger als Nvidia ist)

Allerdings zumeist bei RTX Spielen / Performancefressern wo es gut rein passt - von daher für mich schon ein Grund es dann auch zu nutzen. Allein bei den bekannten "künftigen" Games sind min. 4 Spiele bei, die ich spielen werde.

Und falls DLSS 3.x tatsächlich mit einer TAA Implementierung allein schon funktioniert erweitert sich das entsprechend.

In Summe: Warum, wenn nicht für solch Technologien und dazugehörige Games, sollte ich sonst eine Grafikkarte kaufen? :)
Kommend von einer 1080TI will ich Cyberpunk mit RT genießen, was zusätzlich noch DLSS an Bord hat -> also neue Grafikkarte. Für unsere geliebten Indiespiele/Adventures/CS/Dota/COD whatever braucht man auch keine aktuelle Generation an Grafikkarten idR.
 
  • Gefällt mir
Reaktionen: Khalinor und stevefrogs
12 GB und 200Watt.. die Karte klingt interessant
 
  • Gefällt mir
Reaktionen: Kalsarikännit und Apocalypse
Zurück
Oben