Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

jigg4 schrieb:
Die 3090 ist primär nicht auf Spieler ausgerichtet, wie nvidia ja auch kommuniziert hat,
Natürlich ist sie das, egal was Nvidia Marketing blubbert. Keine Pro Treiber, keine Pro Zertifizierungen, läuft im "Geforce" Gaming Branding und wird auf der Nvidia Produktseite großspurig als Gaming Karte betitelt.
Ergänzung ()

Oneplusfan schrieb:
@Benji21 Ich glaube du unterschätzt gewaltig die Anzahl derer, die vor allem wegen Cyberpunk aufrüsten.
Und du überschätzt gewaltig die Zahl derer, die >500€ für Grafikkarten hinlegen. Die gut betuchte Käuferschaft ist gering im Vergleich zum Meer an Einsteiger- und Mittelklassekarten.
 
  • Gefällt mir
Reaktionen: derSafran, Nefcairon, PS828 und 5 andere
elwu schrieb:
Vielversprechend, was AMD da abliefert. Leider nutzt mir das nichts, da mein Monitor zwar 165 Hz kann und mir die WQHD-Auflösung völlig reicht - das Ding aber nun mal G-Sync hat. An einer AMD-Karte nutzt das leider nix.

da hat nvidia dich ja ganz schön an den eiern. echt hart sowas zu lesen, wie du jetzt bis an dein lebensende (oder das deines monitors) an nvidia gebunden bist. eine funktion sie zu knechten ;)
reichen dir 165hz allein nicht für ein flüssiges bild? ich mag bereits kaputte augen haben, aber habe in 12 jahren tft-nutzung noch nie tearing gesehen (auch nicht bei 250+ fps auf 60hz) und kann daher ganz gut ohne proprietäre und auch freie sync-geschichten leben.
 
  • Gefällt mir
Reaktionen: Onkel Föhn, LukS, Ray Donovan und eine weitere Person
Norebo schrieb:
Ich denke das AMD eine gute Leistung anbietet und die Preise der beiden größeren Karten stimmen.
Aber bei 579 Dollar/Euro für die kleine 6800 hat diese ganz simpel keine Daseinsberechtigung - bei aller Liebe wäre 529 ok und 549 schon extrem Grenzwertig.

Hey Kollege,
auch ich empfinde die Radeon 6800 fraglich positioniert (besonders im Vergleich zu den merklich schnelleren Schwester-Modellen), aber was soll man denn dann bitte über die RXT3070 sagen? Im Vergleich ist die Geforce deutlich überteuert (alleine schon wegen dem Witz an VRAM-Ausstattung und der Minderleistung). Beide Karten sollten weniger kosten, die Radeon so 475 - 525 € und die Geforce maximal 425 €.

LG

Micha
 
  • Gefällt mir
Reaktionen: Nefcairon, JohnVescoya, m2020 und 3 andere
Powl_0 schrieb:
Und du überschätzt gewaltig die Zahl derer, die >500€ für Grafikkarten hinlegen. Die gut betuchte Käuferschaft ist gering im Vergleich zum Meer an Einsteiger- und Mittelklassekarten.
Und genau deshalb gibt es dank DLSS , dass auch Kunden, die zB ne ne 3060 für 399(?) kaufen, in den genuss von RT kommen.
 
@SV3N Die (WQHD)-Benchmarks sind neu auf der AMD-Seite :)

https://www.amd.com/de/gaming/graphics-gaming-benchmarks#gpuBenchmarks

Bildschirmfoto 2020-10-30 um 13.13.18.png
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: derSafran, elvis2k1, BlackRain85 und 8 andere
Die 6800xt scheint leider nur 2x DP zu bieten, ich bräuchte eigentlich 3x DP (simracing mit triple-screen). Gibt es wenn man einen USB-C zu DP Adapter verwendet Nachteile?
 
robertsonson schrieb:
ich mag bereits kaputte augen haben, aber habe in 12 jahren tft-nutzung noch nie tearing gesehen (auch nicht bei 250+ fps auf 60hz) und kann daher ganz gut ohne proprietäre und auch freie sync-geschichten leben.
Mir geht es genau so. Ich sehe tearing kaum. Da muss ich mich schon darauf konzentrieren.

Bei >250 fps wirst du auch fast kein Tearing mehr haben, denn die Bildunterschiede bei 60Hz sind dann zu gerning. Da müsste man sich schon extrem schnell bewegen, dass man dann noch tearing sieht.
 
Oneplusfan schrieb:
@Benji21 Ich glaube du unterschätzt gewaltig die Anzahl derer, die vor allem wegen Cyberpunk aufrüsten.
Und ich glaube du überschätzt die Anzahl derer die wegen einem einzigen Spiel ihren PC aufrüsten.
 
  • Gefällt mir
Reaktionen: Nefcairon und LukS
elwu schrieb:
Vielversprechend, was AMD da abliefert. Leider nutzt mir das nichts, da mein Monitor zwar 165 Hz kann und mir die WQHD-Auflösung völlig reicht - das Ding aber nun mal G-Sync hat. An einer AMD-Karte nutzt das leider nix.

Ich habe auch einen GSync 165 Hz Monitor und bin komplett auf AMD umgestiegen gar keine Probleme in keinem Spiel. Vorher mit Nv hatte ich teilweise schon Probleme die richtigen Einstellungen in verschiedenen Spielen auszuprobieren von daher ist das eigentlich kein Kriterium.
 
@eyedexe
Wobei man auf der Seite scheinbar mehr Cherrypicking als bei der Präsentation gemacht hat. 🤔
Die GPUs schneiden da nochmal weit besser ab, als in der Präsentation. 🤔
 
Powl_0 schrieb:
Und du überschätzt gewaltig die Zahl derer, die >500€ für Grafikkarten hinlegen. Die gut betuchte Käuferschaft ist gering im Vergleich zum Meer an Einsteiger- und Mittelklassekarten.

Das hat keinerlei Relevanz im Bezug auf meinen Post.

Genau genommen hat das in dem Thread hier keine Relevanz, weil es noch keine neuen Karten bei 200-400€ gibt.

Mir gings darum, dass man speziell hinsichtlich eines Spiels sich genau überlegen muss, welche Vorteile und Nachteile man in Kauf nehmen will. Mehr hab ich gar nicht gesagt.
 
LukS schrieb:
@eyedexe
Wobei man auf der Seite scheinbar mehr Cherrypicking als bei der Präsentation gemacht hat. 🤔
Die GPUs schneiden da nochmal weit besser ab, als in der Präsentation. 🤔

woran siehst du das? Ich sehe die fast gleich großen Balken bei Präsentation und auf der Seite.

z.B.

1.PNG


Marginale Unterschide könnten sein, dass hier alle Karten mit AMD Smart Access Memory enabled gebencht wurden.
 
  • Gefällt mir
Reaktionen: LukS
Freaske schrieb:
Die 6800xt scheint leider nur 2x DP zu bieten, ich bräuchte eigentlich 3x DP (simracing mit triple-screen). Gibt es wenn man einen USB-C zu DP Adapter verwendet Nachteile?

Bei meiner 2080TI habe ich Ein C-DP Kabel und es funktioniert genauso wie DP, außer dass der C-Stecker ein wenig wackeliger ist als die großen DP-Stecker. Ob das bei AMD auch so ist kann ich natürlich nicht sagen.
 
  • Gefällt mir
Reaktionen: Freaske
  • Gefällt mir
Reaktionen: Dai6oro
Zurück
Oben