Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

michelthemaster schrieb:
Hey Kollege,
auch ich empfinde die Radeon 6800 fraglich positioniert (besonders im Vergleich zu den merklich schnelleren Schwester-Modellen), aber was soll man denn dann bitte über die RXT3070 sagen? Im Vergleich ist die Geforce deutlich überteuert (alleine schon wegen dem Witz an VRAM-Ausstattung und der Minderleistung). Beide Karten sollten weniger kosten, die Radeon so 475 - 525 € und die Geforce maximal 425 €.

LG

Micha
Mein Tipp/Wunsch vor Wochen war 6800 / 6800 XT / 6900 XT für 555 € / 666 € / 888 €.
Aber es kommt halt immer anders als man denkt (hofft) ... ;-)

MfG Föhn.
 
  • Gefällt mir
Reaktionen: danyundsahne
michelthemaster schrieb:
Beide Karten sollten weniger kosten, die Radeon so 475 - 525 € und die Geforce maximal 425 €.

Im Moment scheint der Strassenpreis der Radeons über der Preisempfehlung zu liegen und die RTX 3070 wird mittels DLSS und RTX Benchmarksiegen ziemlich gut aussehn im Verhältnis.
Wegen DLSS wird man dann argumentieren, das man auch keinen Mehrspeicher braucht etc.

Am Ende wird vielleicht die Verfügbarkeit entscheiden, welche der beiden tendenziell überteuerten Katen 6800 vs 3070 es macht...

Und ich hab das Gefühl Nvidia wird bald Auffrischkarten bringen.

PS: Und in irgendeinem YT-Video, dessen Titel ich sah, hat jemand Nvidia mit Nivea verwechselt :D
 
Würde mich mal interessieren, ob der Infinity Cache sich in der Funktionsweise von dem Cache, den schon die Xbox 360 und die One (S) hatten unterscheidet. Zweitere konnte mit den 32mb schnellem Cache in 1080p den eigentlich zu langsamen Speicher kompensieren. Kostete halt viel Platz auf dem Die.
Deshalb würden mich mal Test mit Auflösungen größer 4K interessieren - stößt big Navi da an die Grenze oder flutscht es trotzdem.
 
mtheis1987 schrieb:
Weil, wie du ja schon erklärt hast, NV mit der 3090 am Limit läuft?

Das NVidia mit der 3000er Serie komplett am Limit läuft wurde schon belegt, da geht kaum was mit OC. Kann bei AMD anders sein, muss aber nicht.
 
Norebo schrieb:
Im Moment scheint der Strassenpreis der Radeons über der Preisempfehlung zu liegen
Woher weißt du das?
Die Karten wird es erst ab 18.11.2020 zu kaufen geben.
 
  • Gefällt mir
Reaktionen: Nefcairon, DarkerThanBlack, elvis2k1 und eine weitere Person
Ich kann nur sagen bravo AMD!
Ich verfolge die "kämpfe" im GPU/CPU Bereich jetzt schon mehr als mein halbes Leben lang. Ich hab schon lange nicht mehr damit gerechnet dass es an allen Fronten noch mal so spannend wird, gerade wenn man bedenkt dass AMDs schon mit einem Bein im Grab stand. Richtig geil!
 
  • Gefällt mir
Reaktionen: danyundsahne, daknoll und russianinvasion
Dai6oro schrieb:
woran siehst du das?
Ich hab es nur überflogen und mich hat es erstaund das die RX 6800 so gut abschneidet.
Ich hab jetzt nicht den Mittelwert oder den Median gebildet. Ich hab mir nur die WQHD Benchmarks der Spiele angesehen.
Dai6oro schrieb:
Marginale Unterschide könnten sein, dass hier alle Karten mit AMD Smart Access Memory enabled gebencht wurden.
Das kann natürlich auch sein.
 
KlaraElfer schrieb:
SAM ist aber auch nicht quelloffen, könnte man genauso als Gegenstück zu DLSS sehen.
SAM ist ein Cache, wie der auf dem Silizum angebunden und angesteuert wird ist alleine AMD's Sache.

Wenn NVIDIA bei den RT Cores einen solchen vergessen hat, um die Latenz der Zugriffe zu optimieren da kann doch AMD nix dafuer. Kann sein das NVIDIA bei der naechsten Generation was aehnliches einbaut, AMD hat halt schon in die Zukunft entwickelt. Wer weiss fuer was dieser INFINITY CACHE noch alles gut ist (Chiplet Design, GPGPU). Ich denke das SAM nur ein Nebenprodukt fuers Gaming ist. Und warum sollte AMD seine Entwicklungen nicht auf mehreren Plattformen verwenden. Entwickeln und im Keller liegen lassen?
 
  • Gefällt mir
Reaktionen: DarkerThanBlack und tic-tac-toe-x-o
endlich eine neue Generation an Grafikkarte die durchweg die gleiche Menge an Grafikkartenspeicher haben !
 
Colindo schrieb:
Gerade erst gesehen, dass der Thread nur kurz zu war. Meine Antwort, die ich nicht mehr schreiben konnte, hat sich die CB-Software Gottseidank gemerkt :)

Also, das wollte ich gestern Abend noch schreiben, jetzt lese ich die letzten 8 Seiten:
@Krautmaster
Ich glaube es ist einfach historisch, dass GPUs keine L3-Cache haben. CPUs benötigen wegen der hohen Ansprüche an die Latenz, die GPUs konnte man bisher gut mit VRAM-Bandbreite erschlagen, der L2-Cache war dann das höchste, was man brauchte.

Chipfläche kostet es ja auch, auch wenn es nicht so viel zu sein scheint. Weiß eigentlich einer, warum der Chip symmetrisch ist, aber der L3-Cache nicht?
Anhang anzeigen 985309
Laut diesem Diagram tippe ich auf Optimierung der Chipflaeche und die Verbindung zu PCIe.
https://tpucdn.com/gpu-specs/images/g/923-block-diagram.small.jpg
 
  • Gefällt mir
Reaktionen: Metallsonic und Colindo
nekro1 schrieb:
Sehr viel sogar, denk mal bisschen weiter. Ohne Vega wäre AMD nicht back in Business und für Bastler ist das eine geile Karte auch jetzt noch
AMD ist back in business dank Ryzen und Epyc, sicher nicht dank Vega.

nekro1 schrieb:
Als Referenz war sie in der Tat zu laut und zu stromhugrig. Mit UV und ner guten Kühlung ging einiges. Hat oft genug ne 1080 überholt und fürs Mining war sie auch top. Bei 399€ Einführungspreis für die kleine 56 war das schon ne gute Nummer und wenn man heute damit noch ne 2060Super überholt, kann man in der Tat sagen, dass das ein guter Wurf war.

Vega setzt halt voraus das man sich mit ihr beschäftigt und sie zähmt damit ist ein Standard Grüner Fanboy der nur Nachquatscht sowieso überfordert ;)
Naja, und welcher normale Kunde der nicht wie wir hier ist will sich ausgiebig damit beschäftigen eine Karte so weit auszureizen dass sie halbwegs tauglich ist ? Absurd. Ne 2060S überholen ? Selbst Vega 64 ist 12-13% schlechter als eine 2060S hier im CB Rating.

Adzz schrieb:
Ja, aber auch nur wenn man auch schön den neuen ryzen dazu kauft. Ich hasse es wenn firmen mich dazu zwingen wollen alles von ihnen zu kaufen damit es bestmöglich läuft. Oder geht infinity catch auch mit intel?
Niemand zwingt dich zu irgendwas. Kriegst gratis mehr Leistung wenn du eh schon AMD nutzt. Seh dein Problem nicht ? Nur weil du evtl. halt auf Intel gewettet hast und sich das nun nicht auszahlt bist jetzt sauer ? Is doch dein Pech. Infinity CACHE ist auf jeder 6000er Karte drauf. Was hat das mit Intel zu tun ?

abzjji schrieb:
Nvidia muss gar nichts machen. AMD hat mMn mit der gefahrenen Preispolitik die Chance verpasst relevante Marktanteile von Nvidia abzuringen. Um einen Langzeitkunden dazu zu bringen sich gegen seine etablierte Marke zu entscheiden braucht es mehr als nur minimal besser zu sein.

Bei den CPUs hat man es damals geschafft weil man quasi einen 8 Kerner zum preis eines Intel 4 Kerners angeboten hat. Hier ist man jetzt quasi "nur" auf Augenhöhe mit Nvidia bei Leistung aber eben auch beim Preis. Damit wird man die Masse nicht abwerben können aber vielleicht will das AMD auch gar nicht weil ein Großteil der Kapazitäten momentan eh für die Konsolen reserviert sind.
Also soll AMD deiner Meinung nach Highend Leistung zum Budget Preis auf ewig verschenken, weil dir das gut passen würde ? R&D kostet halt auch Geld falls dir das nicht klar ist. Irgendwann muss auch mal ein ROI kommen.

Beim Preis sind sie doch absolut dabei: 500 weniger bei gleicher Leistung zur 3090, 50 weniger bei gleicher oder mehr Leistung zur 3080 plus noch 60% mehr Speicher, 16% mehr Geld für eine 6800 ggü. 3070 für 18% mehr Leistung avg. plus 100% mehr Speicher.

Was ist daran nicht kompetitiv ? 🤦‍♂️😂

AppZ schrieb:
1. AMD hat Karten vorgestellt welche bei realistischer Betrachtung jeweils der Konkurrenz um einige % hinter hängen werden, auf Intel Systemen sowieso.

2. Dazu gibt es dann wohl eine schlechtere RT Performance, keine Konkurrenz zu DLSS und absolut vergleichbare Preise.

3. Vor allem die 6800 ist zu teuer, die 6800XT mit Custom-Designs ebenfalls.

4. Die 6900XT mag günstiger sein als eine RTX 3090, wird aber auch bei der Performance unter realen Bedingungen nicht mitziehen können.

5. Man hat also vergleichbare Preise bei schlechterem RT, keinem DLSS-Feature und dazu, wie bei AMD üblich, schlechterer Software.

6. Wo genau sind jetzt die großen Gründe eine AMD Karte zu kaufen? Übersehe ich irgendwas?
1. Du denkst ehrlich deine Betrachtung ist "realistisch" ? Du meintest "realitätsfern und schmollig" wohl eher. Im Gegenteil auf Intel Plattformen wird es gut laufen, auf einer AMD Plattform sogar noch besser, so wird ein Schuh draus.

2. Wird man sehen und vor allem wie viel und ob sich das sichtbar auswirkt und doch, DLSS Äquivalent haben sie ja schon angekündigt. Preise günstiger für vergleichbare oder mehr Leistung. Bitte spezifiziere deine Kritik mal statt so hinzurotzen.

3. Warum ? Spezifiziere warum die zu teuer ist, das würde ich echt gern wissen.

4. Gut dass du ne Glaskugel hast.

5. Soviel Schwachsinn in einem Satz unterzubringen ist fast schon rekordverdächtig.

6. Ja, alles. Und das sag ich mit 11 Dioptrien. 😂

AppZ schrieb:
Auch wenn RT und DLSS für dich nicht interessant sind bleibt immer noch eine vermutlich schlechtere Leistung (mal sehen wie deutlich), schlechterer Softwaresupport und ein vergleichbarer Preis übrig.

Klar kann man jetzt wieder besser AMD Karten kaufen als vorher. Endlich gibts zumindest ein bisschen Konkurrenz. Aber wer auf Leistung aus ist, wer auf gute Treiber aus ist, wird immernoch NVidia kaufen.

Allein wegen der schlechten Treiber von AMD würde ich die 50€ mehr für eine RTX 3080 in die Hand nehmen. Mal abgesehen davon dass ich dann auch wieder mehr Leistung habe als die direkte Konkurrenz.
Also laut diversen Quellen soll der neue Softwarestack sogar dem von nVidia überlegen sein. Bleibt also abzuwarten bevor man hier gross urteilt. Dazu kann man nämlich noch garnix sagen.

Taxxor schrieb:
Aber dass die 3080Ti den GA102 "knapp als Vollausbau" bekommt, ist unwahrscheinlich, immerhin hat die 3090 ja schon nicht den Vollausbau, wenn sie dann noch 20GB hat, wie soll man sie dann bepreisen?

1000€ und sagen "Danke liebe Kunden dass ihr unsere 3090 für 1500€ gekauft habt, hier ist eine Karte mit 2% weniger Leistung und dem fast gleichen VRAM für zwei Drittel dessen was wir euch letzten Monat abgenommen haben."
128 CUDA Cores weniger (5120/10240), 12GB VRAM mit 384Bit Interface. Das würde ich denken, oder 4992/9984 CUDA Cores. So hält man allein vom VRAM her die Differenz und jemand der grosse Szenen rendern will wird so oder so auf die 24GB VRAM angewiesen sein.

Das dann für 999€ auf den Markt schmeissen - fertig is die Laube. So würd ich das vielleicht mal als Möglichkeit sehen.
 
  • Gefällt mir
Reaktionen: squadric
LukS schrieb:
@eyedexe
Wobei man auf der Seite scheinbar mehr Cherrypicking als bei der Präsentation gemacht hat. 🤔
Die GPUs schneiden da nochmal weit besser ab, als in der Präsentation. 🤔
WQHD, DX11, BFV 200FPS, mit FFR on oder of? DX12 waere fuer mich interessanter gewesen.
 
  • Gefällt mir
Reaktionen: LukS
MasterAK schrieb:
Woher weißt du das?
Die Karten wird es erst ab 18.11.2020 zu kaufen geben.

Dann warten wir doch ab, bis die Fakten für sich selbst sprechen - im Moment sind es nur Gerüchte.
Plus die Annahme das die AIBs nochmal was draufschlagen für ihre Custom Designs, was auch bisher nur Gerüchte sind, bis es sich faktisch prüfen läßt.

Aber faktisch weiß man auch erst nach einem Sprung, aus dem 10ten Stockwerk eines Hochhauses, ob man überlebt hat, oder nicht.
Ergänzung ()

Ein Risitas zum Radeon 6000 Launch:
 
Zuletzt bearbeitet:
LukS schrieb:
Ich hab es nur überflogen und mich hat es erstaund das die RX 6800 so gut abschneidet.
Ich hab jetzt nicht den Mittelwert oder den Median gebildet. Ich hab mir nur die WQHD Benchmarks der Spiele angesehen.
Eigentlich ist es am 144Hz-Freesync-Moni dicke ausreichend. Wer will kann hoffentlich noch 10-15% durch UV/OCen rausholen. Der Reftakt ist ja von allen 3 Modellen der niedrigste.
Bei 144 Fps würde man eh per Chill die Obergrenze ziehen.
Und die vollen 144fps würde man auch nur bei Shootern anstreben. Insofern ist ein Medianwert net aussagekräftig.
Bei langsamen Games kann man dann RT auch mit 72fps geniessen, der Freesync-Moni verdoppelt eh auf 144.
(Chill spart Strom und macht leise; vermutlich durch AntiLag/RadeonBoost immer noch mit niedrigem Inputlag)

In der Hinsicht denkt evtl. der Besitzer vom 165Hz-Moni einen Tick anspruchsvoller und braucht ein größeres Modell.
 
robertsonson schrieb:
da hat nvidia dich ja ganz schön an den eiern. echt hart sowas zu lesen, wie du jetzt bis an dein lebensende (oder das deines monitors) an nvidia gebunden bist. eine funktion sie zu knechten ;)
reichen dir 165hz allein nicht für ein flüssiges bild? ich mag bereits kaputte augen haben, aber habe in 12 jahren tft-nutzung noch nie tearing gesehen (auch nicht bei 250+ fps auf 60hz) und kann daher ganz gut ohne proprietäre und auch freie sync-geschichten leben.

Ebenso wie die Bitte um einen sozialverträglicheren Umgangston wäre es wohl auch zu viel von dir erwartet, konkret mitzuteilen, wie sich ein G-Sync-Monitor an AMD-Karten verhält. Und natürlich habe ich leider oft Tearing gesehen, und nervtötendes Geruckel bei niedrigeren Bildraten, deshalb bin ich vor einigen Jahren auch auf G-Sync gegangen.
 
Chromzor schrieb:
Ich habe auch einen GSync 165 Hz Monitor und bin komplett auf AMD umgestiegen gar keine Probleme in keinem Spiel. Vorher mit Nv hatte ich teilweise schon Probleme die richtigen Einstellungen in verschiedenen Spielen auszuprobieren von daher ist das eigentlich kein Kriterium.
Geht doch gar nicht um Probleme. Geht darum das Gsync dann nicht funzt. 🙄Das ist sehr wohl ein Kriterium.
 
  • Gefällt mir
Reaktionen: elwu
Norebo schrieb:
Aber faktisch weiß man auch erst nach einem Sprung, aus dem 10ten Stockwerk eines Hochhauses, ob man überlebt hat, oder nicht.
Der Vergleich hinkt. Niemand springt vom Hochhaus, um das zu testen. Die Wahrscheinlichkeit ist nämlich nahe 0, dass du überlebst.
Die Wahrscheinlichkeit, dass die Karten zum AMD Launch vergriffen sein werden, ist hoch. Aber nicht nahe 0.
 
Zuletzt bearbeitet: (Rechtschreibkorrektur)
Monstranz schrieb:
Laut diesem Diagram tippe ich auf Optimierung der Chipflaeche und die Verbindung zu PCIe.
https://tpucdn.com/gpu-specs/images/g/923-block-diagram.small.jpg
Oha, woher haben die denn schon das Blockdiagramm? Hier in groß
1604075033195.png


Edit: ist wohl selbstgezeichnet.
 
  • Gefällt mir
Reaktionen: ArrakisSand und Monstranz
Zurück
Oben