Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

Pisaro schrieb:
Hat es, völlig logisch. HD HD 4870 512mb vs 1gb, HD 7850 1GB vs GB um ein Beispiel aus meiner eigenen Erfahrung zu geben. Die Karten mit der höheren Menge an VRam hielten IMMER länger. Immer.

Das ist Korrekt aber diesmal ist die Bandbreite niedrig und ein Cache liegt dazwischen. Wir wissen nicht wie sich das in Zukunft entwickelt wenn die Software mehr und mehr nach Bandbreite lechzt, das ist halt eine neue Unbekannte. Nicht das nachher der Speicher "verdurstet weil die Rohre zu eng" sind.
 
  • Gefällt mir
Reaktionen: v3locite und Pisaro
1603970486628.png


ebenso bei saturn :D
 
  • Gefällt mir
Reaktionen: Arno Dübel und GerryB
davidsen schrieb:
250W TBP für die 6800, ich denke da reicht meine 550W be quiet Straight Power 11 noch mit der i7-8700K.
Ich werde mir die 300W 6800XT zum 550W SP reinhängen und ein wenig am der Spannungsschraube drehen
Mal schauen wie viel geht, wenn man 100% 6800XT Leistung erhalten will. 220W?^^
 
  • Gefällt mir
Reaktionen: v3locite
sifusanders schrieb:
So wie RT? Mehrheit is dabei das falsche Wort.

Nicht vergleichbar meiner Meinung nach.
RT ist ein zusätzlicher Effekt, der die Optik verbessert. DLSS ein Feature womit du plötzlich ganz andere Engines schreiben kannst. Wenn ich als Entwickler plötzlich 80FPS mehr Budget habe die ich mit Details verballern kann, dann kann ich zwei Generationen überspringen. Die Frage wird sein ob die Technologie von AMD einfach adaptierbar ist und wie groß der AMD-Marktanteil ist, Fallstrick ist ja dass AMD User DLSS derzeit nicht nutzen können. Warten wir es ab. Spiele die herauskommen sind oft viele Jahre in Entwicklung und die Entscheidungen für Technologien bereits vor Jahren gefällt worden. Warten wir es ab.
 
GerryB schrieb:
Dachte sich wohl auch Mediamarkt: siehe Picture
Da bin ich mal Heute ? auf die Preise gespannt.(und die Verfügbarkeit der FE)
(da erscheint einem 579$ für die 6800 gar net mehr soviel)

DIe 6800er werden genauso verscalpt wie die 3000er. Da wette ich drauf.
 
  • Gefällt mir
Reaktionen: th3o
BlackRain85 schrieb:
Ich denke eher, dass die ersten Chips an Sony und MS verramscht worden sind um Sie einzukassieren.
Die Rechnung geht sicherlich erst jetzt auf.
Es gab nichts vergleichbares von anderen Herstellern.
 
GerryB schrieb:
Dachte sich wohl auch Mediamarkt: siehe Picture
Da bin ich mal Heute ? auf die Preise gespannt.(und die Verfügbarkeit der FE)
(da erscheint einem 579$ für die 6800 gar net mehr soviel)

insert
imaginäres Meme, mit dem Typen, der sich erst freut und grinst und dem dann die Kinnlade runtergeht
 
Ich habe erst angenommen, dass die 16gb RAM für das Marketing verkauft werden aber dann hätten es auch 12 12 16 oder ähnlich sein können um Nvidia immer noch ans Bein pinkeln zu können. Nein, es hat natürlich auch marketingtechnisch einen Effekt aber nun bin ich mir 100% sicher, dass die Wahl auf 16gb einen anderen Hintergrund haben wird: der dicke VRAM ist für RT bzw Super Resolution gedacht! Anders als die Nvidia Karten mit RT wo der Speicher das Limit ist, wird es bei AMD nicht der Fall sein! Ich bin mir jetzt sogar sehr sicher dass mit Super Resolution was größeres und besseres entsteht als es Nvidia Pendant je sein könnte. Mit der Implementierung in DirectX ist es Plattform unabhängig und einfach durch die Hardware skalierbar. Das wird der neue Standart werden und da zahlt nur eins VRAM VRAM VRAM! Schlussig wird das ganze auch, dass die neuen Konsolen ebenfalls 16GB VRAM aufweisen.
Nvidia ist ist in der Falle, steht nicht nur leistungstechnisch jetzt schlechter da, auch die RT Features werden banalisiert, sobald mit den neuen Konsolen Titel herauskommen die RT und Super Resolution können und dann auf den PC portiert werden.
 
  • Gefällt mir
Reaktionen: Death_end_Hero
GerryB schrieb:
(da erscheint einem 579$ für die 6800 gar net mehr soviel)

Du denkst allen ernstes dass die Partnerkarten von AMD nicht für mindestens genauso kranke Aufpreise verkauft werden wie aktuell die Nvidia Karten? Da kannst aber mal Gift drauf nehmen dass aus den 580€ für die 6800 'Founders' bei Caseking, Alternate, Mindfactory und Co aber ganz schnell mindestens 650-750 werden. Ganz so wie es auch jetzt schon mit der 3070 der Fall ist.
 
  • Gefällt mir
Reaktionen: andy484848 und frank00000
Gonzo28 schrieb:
So ist leider der Lauf der Dinge. Irgendwer muss nun mal den Anfang machen. Neue Titel werden das sicher in der Mehrheit einsetzen.

Der Lauf der Dinge war eben auch, dass PhysX gestorben ist weil es genauso wie DLSS eine proprietäre Implementierung war.
 
  • Gefällt mir
Reaktionen: bad_sign
Gonzo28 schrieb:
So etwas ist aber unnötig teuer und unnötig kompliziert. Ich möchte nicht mehr als einen Desktop-Shortcut oder eine Tastenkombination ausführen um zwischen meinen Konfigurationen umzuschalten
Per Splitter angeschlossen DP-Monitore verhalten sich in der Benutzung eigentlich nicht anders als direkt angeschlossene. Die werden in den Einstellungen von Windows oder dem Treiber genauso als einzelne Montiore gelistet. Einzig bei Features wie G-Sync weiß ich nicht, ob die Splitter das durchleiten. AdaptiveSync generell dürfte ja gehen, weil es Teil des entsprechenden DP-Standards ist, nur proprietäres Features der Graka könnten evtl. wegfallen.
 
Gonzo28 schrieb:
Fallstrick ist ja dass AMD User DLSS derzeit nicht nutzen können
ich sehe das halt nicht als Fallstrick an. bei 8 SPielen, wovon die Hälfte auch noch scheisse ist. Ich gebe Dir recht, dass die Technik toll ist, aber bis sie sich "mehrheitlich" durchgesetzt hat, wird noch einige Zeit vergehen. Und AMD arbeitet schließlich auch an einer Alternative - wird allerdings open Standard sein, dann können Nvidia User, diese Technik auch nutzen.
 
  • Gefällt mir
Reaktionen: Dittsche
AppZ schrieb:
Und was haben hier eigentlich alle mit Konsole? Konsolen kommen doch nicht ansatzweise an die Leistung der jetzt neuen Generationen von NVidia und AMD heran? ALlein die RTX 3080 liegt bei knapp 30 TFLOP, die XBOX Series X bei ca. 12 TFLOP.
Eine RX 6800 hat gut 14 TFLOPS und ist dabei nur etwas langsamer als eine 3080. Dieses Marketing mit den 30 TFLOP von NVIDIA finde ich immer wieder lustig. Zumal man die Leistung der PS5 und Xbox mit der Zeit noch viel besser ausnutzen kann.
 
  • Gefällt mir
Reaktionen: eXe777, Dittsche, Pisaro und eine weitere Person

Anhänge

  • 2020-10-29_12h29_11.png
    2020-10-29_12h29_11.png
    59,9 KB · Aufrufe: 173
  • Gefällt mir
Reaktionen: GhostDMonkey, Laphonso, The_Wizzard und 3 andere
Onkel Föhn schrieb:
Schon klar. Diese ist Preislich auf selbem Level (ca. 1000 €) wie die 3080 mit ihren läppischen 10 GB (und bitte komm mir jetzt nicht mit den 15 Stk. FE´s für 699 €), ist schneller und verbraucht weniger.
Klassischer Fall von Realitätsverweigerer.

Eigentlich ist es ein Scherz, dass du meinen Satz nicht komplett zitiert hast, deine Intention ist wohl reine Provokation. Ich habe hier mit der 6800XT verglichen, die einfach nur 649 kostet, den gleichen Speicher bietet und somit schlicht nur minimal weniger Leistung. Für knapp 10% mehr Leistung 50% mehr Geld zu bezahlen, ohne sonstige Goodies ist schwach. Das P/L ist ähnlich mies, wie bei der 3090.
 
Zuletzt bearbeitet von einem Moderator:
  • Gefällt mir
Reaktionen: Dittsche und Onkel Föhn
mibbio schrieb:
Per Splitter angeschlossen DP-Monitore verhalten sich in der Benutzung eigentlich nicht anders als direkt angeschlossene. Die werden in den Einstellungen von Windows oder dem Treiber genauso als einzelne Montiore gelistet. Einzig bei Features wie G-Sync weiß ich nicht, ob die Splitter das durchleiten. AdaptiveSync generell dürfte ja gehen, weil es Teil des entsprechenden DP-Standards ist, nur proprietäres Features der Graka könnten evtl. wegfallen.

Diesen hier hatte ich testweise hier:
https://www.amazon.de/gp/product/B076ZKZLXT/ref=ppx_yo_dt_b_search_asin_title?ie=UTF8&psc=1

Der lief auch mit G-Sync. Trotzdem nervig wenn es mit meiner 2080TI ohne geht und bei einem Upgrade auf eine 1000€ Karte dann so ein Teil benötigt wird. Ich hoffe auf Custom-Designs.
 
Zurück
Oben