News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

Oberst08 schrieb:
Naja, ich habe einen R5 2600 mit einer Nano an einem 400W Netzteil. Das mit den Spikes ist immer relativ. Wenn das Netzteil gut ist, gibt's auch eher wenig Probleme.
@Taxxor : Igor empfiehlt für die 5700XT mit 300W zu rechnen, dein Netzteil ist daher wohl relativ konservativ berechnet...

Wie soll ich das verstehen? ich stehe da auf dem schlauch was du meinst ^^
Also nen dickeres netzteil oder nicht?
 
papa_legba schrieb:
Bis zur nächsten Gen wird die Liste schon ein wenig länger werden, ob man dann allerdings schon von flächendeckend sprechen kann muss man auch erst abwarten.
Und dann bekommst du den Vorteil trotzdem selbst mit RTX2000er Karten noch mit und man braucht noch weniger drüber nachdenken ob man von seiner alten Nvidia Karte auf eine neue AMD Karte wechselt.
 
  • Gefällt mir
Reaktionen: Mcr-King
Oh oh, die 6700XT hat nur 6GB VRam? Und ich hatte so gehofft, einen Nachfolger der 5600XT mit 8GB kaufen zu können diesen Winter... Daraus wird dann wohl nichts... Bekommt die 6600XT dann wohl auch 6GB, oder weniger?
 
@Endless Storm Die Daten sind reine Spekulation und wurden auch schon wieder von der Seite entfernt.
 
  • Gefällt mir
Reaktionen: Mcr-King, Cpt.Willard, konkretor und 9 andere
Also die Grüchteküche widerspricht sich noch selber xD. Wir wissen also aktuell noch nicht allzuviel über die konkreten Karten.
Aber ich denke von der Nettoleistung wird es eine Karte im Bereich der 3080 geben. Wenn AMD etwas reißen will, dann müssen sie Raytracing haben (Geschwindigkeit dessen sollte zumindest nicht zu schlecht sein) und etwas ähnliches wie DLSS 2.0 haben.
Zumindest Raytracing ist ja mit dabei, wie schnell und wie gut, dass ist nun also die Frage.
Da sehe ich in beiden aber NVidia im Vorteil, weil sie halt hier bereits einmal aus ihren Fehlern lernen konnten.
Aber da wissen wir halt noch nichts. Ich denke durchaus das AMD hier mit einer Überraschung aufwarten kann. Abwarten und Tee trinken.
 
Dural schrieb:
Du hast kein gutes gedächnis, aber ich kann dir helfen:

5870 war einige Monate vor der 680 auf den Markt, als die 680 kam war diese schneller und hatte einen kleineren Die.

290X hat kein Land gegen eine 780Ti mit OC gesehen, stock war die 780Ti leicht schneller. Zudem war die Rev. 290X extrem laut und verbrauchte auch mehr als das NV Gegenstück.

Die Radeon HD 5870 war ein Konkurrenzprodukt zur GTX 280, nicht GTX 680. Da bringst du etwas durcheinander - nicht unbedingt gut, wenn man vorher schon vollmundig ankündigt, dem Gedächtnis anderer Leute auf die Sprünge helfen zu wollen (ich weiß, du meinst die Parallele GTX 680 und HD 7970, bezüglich derer du zwar recht hättest, von der im Ursprungsbeitrag aber nicht die Rede war und die zeitlich auch Jahre später liegt).

Hawaii war grob vergleichbar mit der damals aktuellen Titan und damit auch mit einer GTX 780 Ti, die zudem weniger Speicher hatte (was in der aktuellen RTX 3000-Diskussion ja eine große Rolle zu spielen scheint ;)). OC kann man immer in den Raum werfen, ist aber nur für einen Bruchteil der Zielgruppe (ja, auch im High-End-Bereich) ausschlaggebend.

Endless Storm schrieb:
Oh oh, die 6700XT hat nur 6GB VRam? Und ich hatte so gehofft, einen Nachfolger der 5600XT mit 8GB kaufen zu können diesen Winter... Daraus wird dann wohl nichts... Bekommt die 6600XT dann wohl auch 6GB, oder weniger?

Die kolportieren Daten sind an diesem Punkt lediglich eines - Spekulation. Ich vermute, dass es 6 GB-Karten nur mehr in der Einsteigerklasse (RX 6500 XT) geben wird. Sehen wird man es freilich erst später, erst kommen ohnehin die "großen" Karten.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fighter1993
bugmum schrieb:
Da sehe ich in beiden aber NVidia im Vorteil, weil sie halt hier bereits einmal aus ihren Fehlern lernen konnten.
Spricht ja nichts dagegen, dass AMD ebenfalls aus Nvidias Fehlern lernen könnte^^

Die RT Performance wird am Ende bestimmt irgendwo zwischen Turing und Ampere liegen.
 
  • Gefällt mir
Reaktionen: Brody13, Ebu85 und bugmum
Khalinor schrieb:
Nvidia will mit 3.0 die Möglichkeit der Implementierung von DLSS vereinfachen.
Was folgt Daraus? Ja, Richtig ... eine höhere Verbreitung von DLSS.
DLSS 3.0 ist ein Hirngespinst der Community. nvidia hat bisher überhaupt nichts zu derartigen Plänen verlauten lassen.
Man hat jetzt gerade erst Version 2.1 in die Freiheit entlassen.

Und DLSS MUSS, um seine Wirksamkeit zu entfalten, im TAA Workloop mit zusätzlichen Daten versorgt werden, die ein einfaches TAA so nicht abgreift.
Sonst wäre die Fehlerrate zu hoch und die damit einhergehenden Artefakte vielfältig.

Somit bleibt es bei einem Zusatzaufwand. Auch dürfen im Standard- Renderprozess ein par dirty tricks nicht mehr angewandt werden, weil wir sonst bei DLSS schönes Krisseln oder ghostende Objekte bewundern können (keine motion- vektor Kompensation).

Programmiert man ein Spiel auf DLSS hin, kann es überragend sein, weil man sowohl einen Leistungs- als auch Qualitätsschub erhält und kann auch bereits auf den niedrigsten Stufen glänzen.
Setzt man es einfach oben drauf, kommt es zu Fehlern.

Ich kenne keinen einzigen Titel, bei dem DLSS fehlerfrei integriert ist.... wobei- Minecraft RTX holt da schon ziemlich viel raus...
 
  • Gefällt mir
Reaktionen: Bright0001, Mcr-King, Cpt.Willard und 3 andere
Summerbreeze schrieb:
Die Be Quiet schalten wohl auch ziemlich fix ab. Hab ich jetzt schon öfter gehört.

ich hab das gegenteil gehört. zumal bequiet bei netzteilem wie sp11 50w extra peak leistung angibt ab der 500w variante glaub ich, bei pure power 11 selbiges
 
@Reset90

Wie der rest sein wird weis noch keiner, da es noch keine Offizielle Infos gibt und unabhängige Tests.

Mehr wissen wir erst ende Oktober wenn AMD die RDNA2 Infos raushaut.
 
  • Gefällt mir
Reaktionen: Mcr-King
und ich werf mal noch was in den Raum... da es sich ja hier um Apple Produkte Handelt kann es auch ganz andere Spezifikationen haben... gabs ja in der Vergangenheit auch des öfftern.
 
  • Gefällt mir
Reaktionen: Mcr-King und Cpt.Willard
papa_legba schrieb:
Hier bei CB-Usern, einer Minderheit am Markt, sieht das natürlich anders aus. Aber in der Regel diktiert die Geldbörse die Kaufentscheidung. Und wenn es ohne DLSS billiger geht dann wird bis zum nächsten Upgrade eben darauf verzichtet. @aeri0r

Stimmt nicht. Bei den meisten kommt es auf die marke an. Es wird dann eine 300 euro nvidia gekauft anstatt eine 300 euro teure amd karte. Man muss sich nur steam charts ansehen. Man braucht lange zeit und über jahre hinweg schlechte produkte von Konkurrenten um sowas zu durchbrechen. Aber wenn mann dauernt gute produkte wie apple oder nvidia liefert werden die leute ewig dazu greifen.
 
@Adzz Allerdings nur dann wenn man davon ausgeht das man Nvidia zum gleichen Preis wie AMD bekommt. Was ich bezweifle.

Der Jubel über eine 700€ 3080 ist auch schnell verflogen und wer nicht das billigste Modell will muss min. 850€ hinlegen. Die FE wird ja wie üblich nicht sehr lange am Markt sein.
 
  • Gefällt mir
Reaktionen: Mcr-King
Destyran schrieb:
ich hab das gegenteil gehört. zumal bequiet bei netzteilem wie sp11 50w extra peak leistung angibt ab der 500w variante glaub ich, bei pure power 11 selbiges

Bin weg von Bequiet, weil die GPU ständig deaktiviert wurde bei Last... mit einem 600W Netzteil! Jetzt, mit 650Watt von InWin läuft die Karte sogar im Leistungs-Bios wie eine 1, und ich bezweifle, dass es an den 50W liegt ;)
 
  • Gefällt mir
Reaktionen: iceshield
papa_legba schrieb:
@Adzz Allerdings nur dann wenn man davon ausgeht das man Nvidia zum gleichen Preis wie AMD bekommt. Was ich bezweifle.

Der Jubel über eine 700€ 3080 ist auch schnell verflogen und wer nicht das billigste Modell will muss min. 850€ hinlegen. Die FE wird ja wie üblich nicht sehr lange am Markt sein.

Ich vermute sowieso das amd deutlich teurer sein soll. Nvidia soll bei samsung 1/3 günstiger produzieren als bei tmsc. Das gehört wohl zu samsungs 116 milliarden investment um die nummer 1 zu werden. Wenn nvidia die kosten weitergibt sind sie konkurenzlos günstig. Auf der anderen seite wird amd wohl mehr zahlen als vorher für das 7nm+ verfahren. Amd muss bei gleicher geschwindigkeit und gleichem feature set um die 100 euro günstiger sein. 50 euro reichen nicht, sonst greifen die leute zu nvidia.
 
  • Gefällt mir
Reaktionen: Mcr-King
Adzz schrieb:
Auf der anderen seite wird amd wohl mehr zahlen als vorher für das 7nm+ verfahren.
EUV bei 7nm+ dient ja gerade auch dazu, die Produktionskosten deutlich zu reduzieren, zudem sind die Chips bei AMD auch kleiner
 
  • Gefällt mir
Reaktionen: Mcr-King, Cpt.Willard und konkretor
Wusste gar nicht das wir so viele Magier hier im Forum haben, oder gab es Glaskugel Sonderverkauf? :evillol:

Alle aktuellen Werte sind reine Spekulation/Gerüchte und es kann sich in 4 Wochen noch dutzende Male ändern. Ich bin zwar auch gespannt was AMD bringt, aber erstmal abwarten und Tee trinken.
 
  • Gefällt mir
Reaktionen: iceshield und MasseFan
Reset90 schrieb:
also bis jetzt nur mehr speicher als nvidia. der rest ist schlechter, oder?

Der Rest ist unbekannt (auch der Speicher ist nicht bestätigt).

papa_legba schrieb:
@Adzz Allerdings nur dann wenn man davon ausgeht das man Nvidia zum gleichen Preis wie AMD bekommt. Was ich bezweifle.

Der Jubel über eine 700€ 3080 ist auch schnell verflogen und wer nicht das billigste Modell will muss min. 850€ hinlegen. Die FE wird ja wie üblich nicht sehr lange am Markt sein.

Ich mag mich irren, aber konnte man die FEs bei Turing nicht über den gesamten Lebenszyklus der Karten immer mal wieder erwerben? Durchgängig gab es sie nicht, aber ein entsprechendes Volumen würde ich von einem solchen Angebot auch nicht zwingend erwarten.
 
  • Gefällt mir
Reaktionen: Mcr-King und Cpt.Willard
es wird ein spannender oktober - zumindest soweit kann man sich aus dem fenster lehnen.

die gelaekten daten (die in ähnlicher form auch anderweitig genannt wurden) hinterlassen einen zweispaltigen eindruck.
die gpu's selbst mit den 80cu respektive 40cu sehen so schlecht nicht aus - auch die tgp/tdp angaben sind noch im rahmen.
speicherinterface und bestückung dagegen sind eher etwas was etwas schwachbrüstig anmutet.
vor einem "infinity cache" graust es mir einwenig, denn sofern dieser nicht aus treiber sicht absolut transparent ist, hat er potential mehr zu schaden als zu nutzen...
 
  • Gefällt mir
Reaktionen: Mcr-King
Zurück
Oben