News GPU-Gerüchte: Radeon RX 6900 soll mit mehr als 2 GHz bei 238 Watt takten

Hier bei CB-Usern, einer Minderheit am Markt, sieht das natürlich anders aus. Aber in der Regel diktiert die Geldbörse die Kaufentscheidung. Und wenn es ohne DLSS billiger geht dann wird bis zum nächsten Upgrade eben darauf verzichtet. @aeri0r
 
  • Gefällt mir
Reaktionen: mydayyy
Taxxor schrieb:
Du solltest dir echt ein bisschen Zeit lassen bevor zu auf "Antworten" drückst, das liest sich sehr schlecht^^
Das hab ich mir da auch gedacht, geschrieben wie es im Kopf gedacht wurde :D
 
Fighter1993 schrieb:
HD 5870 war seinerzeit besser wie nvidia und die R9 290X hat nvidia auch gekillt.

Du hast kein gutes gedächnis, aber ich kann dir helfen:

5870 war einige Monate vor der 680 auf den Markt, als die 680 kam war diese schneller und hatte einen kleineren Die.

290X hat kein Land gegen eine 780Ti mit OC gesehen, stock war die 780Ti leicht schneller. Zudem war die Rev. 290X extrem laut und verbrauchte auch mehr als das NV Gegenstück.
 
papa_legba schrieb:
Hier bei CB-Usern, einer Minderheit am Markt, sieht das natürlich anders aus. Aber in der Regel diktiert die Geldbörse die Kaufentscheidung. Und wenn es ohne DLSS billiger geht dann wird bis zum nächsten Upgrade eben darauf verzichtet. @aeri0r
Wenn man Spiele spielt, die DLSS nutzen, ist es genau andersrum.
Wozu eine 600€ AMD Karte kaufen, wenn ich die gleichen FPS auch mit einer 300€ Nvidia Karte + DLSS bekommen kann?
 
  • Gefällt mir
Reaktionen: McFritte, KlaraElfer, Khalinor und 3 andere
aeri0r schrieb:
So zählt DLSS 2.x für mich schon mit zu den wichtigsten Eigenschaften und nicht nur als "nice to have".

Was ich hier von AMD gesehen habe an RIS kann da nicht mithalten. Was nun nicht bedeutet AMD ist doof, sondern das man hier einfach zugeben muss, dass NVidia mit DLSS einen Punkt auf der Haben-Seite für sich einheimst.
Spielst du den Ball nicht etwas hoch?
DLSS 2.0 gibt es seit März.
Davor war die AMD Lösung vs. DLSS 1 wohl fast immer mit der besseren ansonsten min. gleichwertigen Qualität unterwegs. Jedenfalls demnach, was verschiedene Vergleiche so gesagt haben. Ich konnte / kann das nicht vergleichen.
Einfach mal abwarten ob da nicht noch was verbessertes / neues kommt?

Taxxor schrieb:
CPUs können auch Spikes haben. Die meisten Netzteile können diese 1ms Spikes abfangen, aber ingesamt sollte man bei der NT Wahl auf CPU sowie GPU noch mal jeweils 50% draufrechnen, dann ist man im sicheren Bereich.

Bedeutet für eine 5700XT+3700X in meinem Fall 340W+130W = 470W, restliches System und Puffer dazu und man ist bei 650W, die für das System durchaus angemessen wären, wenn man sicher sein will.
Finde ich etwas Ulkig.
50% dürfte zu viel sein oder mein Netzteil ist / bzw die Elkos darin sind / zu gut und schlucken alle Spikes? ;)
Bei mir reicht bisher mit Faktor 1,25 auf die TDP / TBP ein SF 450 P für die gleiche Ausstattung. Zugegebenermaßen nicht Übertaktet.
Ich habe jedoch keine Lust durch mangelhafte Effizienz zuviel Energie unnötig zu verballern.

In der Bronze- / Chinaböller- Billigliga gebe ich dir aber Recht.
 
  • Gefällt mir
Reaktionen: bugmum und Benji18
edenjung schrieb:
Dann fahre ich mit meiner Msi 980ti + Ryzen 2600 ja ganz gut mit meinem 525w netzteil :D
Naja, ich habe einen R5 2600 mit einer Nano an einem 400W Netzteil. Das mit den Spikes ist immer relativ. Wenn das Netzteil gut ist, gibt's auch eher wenig Probleme.
@Taxxor : Igor empfiehlt für die 5700XT mit 300W zu rechnen, dein Netzteil ist daher wohl relativ konservativ berechnet...

Igor hat bei der R VII 370W als Kalkulationsbasis empfohlen, dazu noch einmal grob 200W für die CPU (für AMD, bei Intel sollte man hier mehr kalkulieren) und man kommt bei einem 600W Netzteil für den Rechner heraus. Für die 3080 empfiehlt er etwa 60W mehr, liegt also im Bereich des Erwarteten. Mit den aktuellen Problemen bei NV hinsichtlich Stabilität hat AMD hier eine gute Chance, einen Hit zu landen. Ich bin gespannt, ob sie das dann auch machen. Wenn sie ihr Ziel von +50% Energieeffizienz tatsächlich halten können, haben sie durchaus gute Chancen.
 
  • Gefällt mir
Reaktionen: edenjung
Ebu85 schrieb:
Am Ende kackt die Ente... würd ich meinen

So ist es, war es und wird es immer sein! Hätte Kohl damals net besser sagen können :D
 
  • Gefällt mir
Reaktionen: bikkje
Summerbreeze schrieb:
Finde ich etwas Ulkig.
50% dürfte zu viel sein oder mein Netzteil ist / bzw die Elkos darin sind / zu gut und schlucken alle Spikes? ;)
Bei mir reicht bisher mit Faktor 1,25 auf die TDP / TBP ein SF 450 P für die gleiche Ausstattung. Zugegebenermaßen nicht Übertaktet.
Ich habe jedoch keine Lust durch mangelhafte Effizienz zuviel Energie unnötig zu verballern.
Wie gesagt, kommt aufs Netzteil an, die meisten schaffen die Spikes über 1-5ms gemittelt, da läge eine 5700XT dann auch nur noch bei ca 300W, eine 3080 aber immerhin auch noch bei ca 400

Mein 550W von bequiet hat für die Vega56 +1600X z.B. nicht ausgereicht, die kamen zusammen im Alltagebetrieb auch nur auf 300W. Erst mit einem neuen 650W Netzteil hatte sich das reproduzierbare Abschalten des PCs erledigt.

Und ob zu 50% oder 70% ausgelastet macht bei der Effizienz doch auch keinen Unterschied mehr.
 
ich bezweifel dass in games eine cpu so heftig spiked, entweder die gpu spiked wenn sie auf volllast läuft oder aber die cpu wenn man im cpu limit ist. dann wäre die gpu aber wiederum nicht auf max last. vega 56 + 3700x + 4 ram riegel und 3 ssds läuft zumindest problemlos an nem straight power 10 500w
 
Mcr-King schrieb:
Weis nicht habe eine bekommen naja von einem Mitarbeiter ist doch egal wollte keine,
ist doch egal zumindest boostet sie auf 2,300Mhz recht gut.

Ja ich nicht nur geliehen für LoUs 2 musste ich einfach zocken dass wäre mal was für den PC.

Trotzdem zurück zur GPU RDNA2 Vs. GNC 1.1 PS5 Vs PS4 da liegen Welten dazwischen genau wie dass erste mal Boost in einer Konsole verwendet wird, warum ganz einfach ein Game X braucht nicht immer Leistung X manchmal reicht Leistung Y um dass ziel zu erreichen.

was ich damit sagen möchte der Boost ob bei CPUs oder GPUs hat massive an Bedeutung gewonnen.

Klar ist MS Ansatz auch nicht schlecht trotzdem was TDP angeht ist die PS5 besser, durch den Boost.
Ergänzung ()

Woher weißt du das die PS5 GPU recht gut bei ihren 2,23 GHz boostet? Hast du ein Monitoring Tool und arbeitest du bei AMD oder als Game Engine Developer?
 
  • Gefällt mir
Reaktionen: Backet
Dural schrieb:
Du hast kein gutes gedächnis, aber ich kann dir helfen:

5870 war einige Monate vor der 680 auf den Markt, als die 680 kam war diese schneller und hatte einen kleineren Die.

Also nach meinem Gedächtnis und dem Computerbase Test kam die 680 3 Monate nach der 7970. Ergo ganz verschiedene Generationen. Just saying.
 
  • Gefällt mir
Reaktionen: Haffke, eXe777 und stevefrogs
Wo wir gerade über DLSS als Kaufargument sprechen, jemand was gehört, ob WoW für die kommende expansion auch irgendwann mal DLSS-support kriegen soll? Ray Tracing kommt ja - und ich habe echt Bock drauf, sieht laut ersten Tests in der Beta echt schick aus. Daher werde ich tatsächlich vor allem die Leistung mit RT ON bei der Kaufentscheidung der nächsten GPU zum Jahreswechsel einfließen lassen. Aber von DLSS habe ich in Zusammenhang mit WoW bisher noch nichts gehört. Schon heftig, wie man da in den nächsten Monaten "filtern" muss, je nachdem welches Spiel man hauptsächlich spielen möchte. :schaf:
 
@Taxxor Wenn Nvidia 300€ für die 3060 veranschlagt (ausgehend davon das es auch diesmal darunter kein RT/DLSS geben wird) sind das dann schon 350€-400€ für die Customs (3080 Customs gehen ab 800€ los hier in Ö). Da wird es dann günstigere Alternativen von AMD geben.

Es sei denn die FE ist diesmal dauerhaft verfügbar bis die nächste Gen erscheint.

Und wie gesagt die Liste mit Spielen die es unterstützen bzw zukünftig unterstützen werden ist sehr kurz.
 
Taxxor schrieb:
Wie gesagt, kommt aufs Netzteil an, die meisten schaffen die Spikes über 1-5ms gemittelt, da läge eine 5700XT dann auch nur noch bei ca 300W, eine 3080 aber immerhin auch noch bei ca 400

Mein 550W von bequiet hat für die Vega56 +1600X z.B. nicht ausgereicht, die kamen zusammen im Alltagebetrieb auch nur auf 300W. Erst mit einem neuen 650W Netzteil hatte sich das reproduzierbare Abschalten des PCs erledigt.

Und ob zu 50% oder 70% ausgelastet macht bei der Effizienz doch auch keinen Unterschied mehr.
hatte ebenfalls ein bequiet system power 550watt netzteil hat aber zusammen mit meiner sapphire nitro vega 64 plus einen bis an die kotzgrenze übertakteten 1700x@4,0 ghz überhaupt keine probleme gemacht

kollege hat sogar ein 2600 + vega 56 bei einem 450 watt bequiet und auch keienrlei probleme ...
 
  • Gefällt mir
Reaktionen: Holgmann75 und bugmum
Taxxor schrieb:
Wenn man Spiele spielt, die DLSS nutzen, ist es genau andersrum.
Wozu eine 600€ AMD Karte kaufen, wenn ich die gleichen FPS auch mit einer 300€ Nvidia Karte + DLSS bekommen kann?

Das kannst du drehen und wenden wie du möchtest. Spiele die dann kein DLSS haben laufen dann eben auf einer 300€ Nvidia Karte schlechter.
 
egal von welchem hersteller die nächste gpu bei mir einzug hält, es wird auf jeden fall ein fettes upgrade von meiner vega 56, das freut mich:D
 
  • Gefällt mir
Reaktionen: konkretor, Holgmann75, Demon_666 und 4 andere
papa_legba schrieb:
@Taxxor Wenn Nvidia 300€ für die 3060 veranschlagt (ausgehend davon das es auch diesmal darunter kein RT/DLSS geben wird) sind das dann schon 350€-400€ für die Customs (3080 Customs gehen ab 800€ los hier in Ö). Da wird es dann günstigere Alternativen von AMD geben.

Und wie gesagt die Liste mit Spielen die es unterstützen bzw zukünftig unterstützen werden ist sehr kurz.
Deshalb sagte ich ja wer Spiele spielt, die es unterstützen und ich gehe davon aus, dass die Liste 2021 sehr viel länger werden wird.
Und dann bekommst du vielleicht eine Alternative von AMD für 300€, die 3060 ist dann mit DLSS trotzdem 50% schneller und in den anderen Spielen gleichschnell.
Wer sich die 5500XT, 5600XT und 5700XT anschaut, der wird feststellen, dass man hier in Sachen €/FPS bei AMD auch nicht wirklich was besseres bekommt.
 
  • Gefällt mir
Reaktionen: MrNejo
papa_legba schrieb:
Der Anteil an Spielen die DLSS unterstützen ist doch sehr klein. Und die Liste mit den zukünftigen Erscheinungen ist auch nicht viel länger.
Ja, du hast den Satz den du zitiert hast auch verstanden?
Nvidia will mit 3.0 die Möglichkeit der Implementierung von DLSS vereinfachen.
Was folgt Daraus? Ja, Richtig ... eine höhere Verbreitung von DLSS.
 
Taxxor schrieb:
Mein 550W von bequiet hat für die Vega56 +1600X z.B. nicht ausgereicht.

Und ob zu 50% oder 70% ausgelastet macht bei der Effizienz doch auch keinen Unterschied mehr.
Die Be Quiet schalten wohl auch ziemlich fix ab. Hab ich jetzt schon öfter gehört.

Wg der Effizienz im oberen Bereich mach ich mir auch keine Sorgen.
Der untere Bereich ist es der unnötig säuft, wenn das NT überdimensioniert ist.
Unterhalb von 20% Auslastung stürzt die Effizenz meistens ins Bodenlose.
Deshalb sind die Idle Angaben hier bei CB auch immer so hoch. Wie ich letztens beim 3080er Test erfahren habe, benutzen die hier wohl ausschließlich? 1,5 KW Netzteile. Da muss man sich nicht wundern.

Mein 450er war aber halt gerade da. Sonst hätte ich vermutlich auch ein 550er genommen. Funktioniert aber bestens.
 
@Khalinor Und wie lange wird es dauern bis das umgesetzt wird? Ja, richtig, eine ganze Weile. Bis zur nächsten Gen wird die Liste schon ein wenig länger werden, ob man dann allerdings schon von flächendeckend sprechen kann muss man auch erst abwarten.

Die meisten ausserhalb von Enthusiasten wissen ja nichtmal was das ist. Same für RTX Voice/Broadcast.
 
Zurück
Oben