Test AMD Radeon RX 6800 XT im Test: RDNA 2 gegen Nvidia GeForce RTX 3000

Prüfling87 schrieb:
Ja da, oh Wunder, die Mehrwertsteuer genau den Unterschies ausgleicht. Ca 16% Mehrwertsteuer vom Endpreis
und Euro ist ziemlich genau 16% mehr Wert als ein Dollar, kA wieso sich viele da so schwer tun das zu verstehen ...

Ja, das ist klar. Ich hätte mich anders ausdrücken sollen. Ich sage mal so: Den Preis, den AMD und nVidia in $ angeben, bezahlst du in €. Eigentlich ist das klar, warum hast du ja aufgeführt. Gibt halt leider immer noch welche die Dollar 1:1 in Euro umrechnen und dann noch die Mehrwertsteuer raufrechnen.
 
Fighter1993 schrieb:
Sparen für schlechte Zeiten man lebt doch nicht von Monat zu Monat auf 0... Egal obs auf der Bank was gibt.
Aber das ist heute so üblich ah die Kreditkarte wird ja erst nächsten Monat abgebucht..
Was heute auch üblich ist, ist seine Bias Bubble nicht davon beeindrucken lassen, nur weil man auf etwas antwortet das keine Basis für die eigenen Meinung liefert. Einfach unbeeindruckt seine Vorurteile weiter in die Welt blubbern und die Scheuklappen drauf lassen.

Wer dieses den Ski-Urlaub und den Karibikurlaub vernünftigerweise weglässt, der hat offensichtlich jede Menge extra Geld in der Tasche das er nicht braucht. Weil wer das Geld gebrauchen könnte, der würde ja nicht planen es für einen Urlaub zu verschwenden. Da geht sich bequem auch ein kompletter VR-Rechner mit Index, 3090, etc vom Urlaubsgeld aus. Und da hat man dann noch nicht mal das Weihnachtsgeld angefasst. ;-)

Der Bedarf für Dinge die Quarantäne und "Staying at home" versüßen, der dürfte schlicht extrem gestiegen sein.
 
Wadenbeisser schrieb:
@Benni22

Was ist so schwer daran bei der Farb Geschichte "Rot" nicht mit AMD sondern mit "Radeon", also der Grafiksparte zu verbinden? Auf Firmenebene funktioniert die Farb Geschichte im GPU Bereich nunmal nicht.


Ohne dir zu nahe zu treten, warum soll das nicht funktionieren? Ich verstehe dein Problem nicht und auch die Aufregung finde ich merkwürdig. Jeden den es interessiert, versteht meine aussage. Dann gehört Rot bei GPUs halt zu Radeon - na und? Am Ende gehört es zu AMD.

Aber für dich nochmal so: Dann kommt 2022 eiN System mit AMD Ryzen und AMD Radeon ins Haus und zur Abwechslung kein System mit Intel Core und nVidia GeForce.
 
syfsyn schrieb:
Die richtige Nachfolger meiner gtx1060 kommen erst q1 21
Wenn nvidia ihr portfolio komplett umstellt auf mehr vram
Und amd mit der rx6700xt, 6700 und 6600xt kontert jeweils mit 12gb vram.
Einzig die dxr Leistung könnte zu schwach sein.
Ich warte auch noch auf einen würdigen Ersatz für meine 1060 zu einem vergleichbaren Preis und 8GB+ Speicher. Und DXR ist für mich persönlich in dem Preisbereich auch höchstens "nice to have", da auch das mögliche 300€ Ampere-Modell dort bei der Performance keine Bäume ausreißen dürften.

Wobei ich bei vergleichbarer Leistung ohnehin eher zu einer Radeon tendiere. Nicht wegen "Fanboy", sondern weil ich kein Content-Creator/Streamer bin und daher sowas die RTX Voice usw nicht brauche, ich öfter mal unter Linux unterwegs bin und nen FreeSync Monitor habe. Gibt zwar "G-Sync compatible", das läuft aber nicht mit jedem Monitor ohne Probleme.
 
Zuletzt bearbeitet:
Fighter1993 schrieb:
Das die Leute das immer noch glauben.... Aktienkurse steigen schon lange bevor ein Produkt dann am Markt ist, da sie die zukünftigen Erwartungen der Aktionäre wiederspiegeln .. Btw mit Grafikkarten verdient AMD sehr wenig Geld dieser Launch sollte so gut wie nichts am Aktienkurs machen.
Q1 2021 sind mit 96€ zu rechnen, aufgrund von Grafikkarten oder Prozessoren ist mir egal
 
BosnaMaster schrieb:
Also ich glaube nicht das nVidia lange bei der Samsung Fertigung bleiben wird. Würde mich nicht wundern wenn bereits nächstes Jahr ein Refresh mit TSMC ansteht, falls da mal Kapazitäten frei werden.

Wie gross dürfte da der Unterschied bezüglich der Fertigung sein?

0,00000
Nur die Workstationchips gibts von dort. (Hopper@5nm vorraussichtlich Ende 21/Anfg22)
Eher gibts evtl. RDNA3@5nm.
Ergänzung ()

Vitali.Metzger schrieb:
@GerryB
Die 6800 finde ich vom Gesamtpaket am rundesten. Deutlich schneller als eine 3070 und mit UV zieht die auch unter 200W.
Bin mal gespannt, welche NT´s so reichen.
 
Summerbreeze schrieb:
Mal so als doofe Frage. Was machen die eigentlich bzw. für was sind die im einzelnen im Bezug auf RT gut?
Ich denke dabei immer unwillkürlich an eine Tonsur. :D
Wie @Wadenbeisser bereits sagt, arbeitet man noch an einem Realtime- Denoiser für die Tensor- Cores.
Da das Denoising bei RTRT Anwendungen einen großen Anteil der GPU Leistung frisst, würde das einen guten Performanceschub geben.

Bis jetzt haben sie es aber offenbar nicht hingekriegt, dass in einer Realtime- Umgebung auf die Tensor Cores umzulagern.
Da haben sie zur Einführung von Turing den Mund deutlich zu voll genommen, was die Tensor Cores nicht in kürzester Zeit alles machen würden.

Ansonsten führt man einen großteil der DLSS Berechnungen auf den Tensor- Cores aus. Hat man also einen einigermaßen hohen RT Count, kann man mittels DLSS auch dort das Ergebnis beschleunigen.
Bleibt der Raycount bei Spiegelungen zu niedrig und kann der Denoiser aufgrund dessen kein temporal stabiles Ergebnis liefern, verstärkt DLSS die temporalen Artefakte.

Dei Buffer, die man einem DLSS zuführt müssen temporal absolut stabil sein, sonst kann es nicht fehlerfrei arbeiten.
 
  • Gefällt mir
Reaktionen: ComputerJunge, derSafran, KlaraElfer und 2 andere
Sind ja nur zum spielen geeignet. Was ein Stromfresser beim dual-monitor Betrieb sowie streams gucken.
Das sind ja ganz schlechte karten im Gesamtbetrachtung.
 
GerryB schrieb:
Bin mal gespannt, welche NT´s so reichen.
Durch den sehr guten LC Filter der Karten, werden die Lastspitzen am NT deutlich geringer ausfallen. Mein straight power 10 mit 500W wird für die 6800 mit Sicherheit ausreichen.
 
  • Gefällt mir
Reaktionen: bugmum und GerryB
Nero2019 schrieb:
Sind ja nur zum spielen geeignet. Was ein Stromfresser beim dual-monitor Betrieb sowie streams gucken.
Das sind ja ganz schlechte karten im Gesamtbetrachtung.
Also die Videos in HDR laufen auch net schlechter als auf A.
(Wer oft 21:9 unterwegs ist, sollte eh mal von Dual auf Einen Moni umsatteln)
 

Anhänge

  • Videos@HDR.png
    Videos@HDR.png
    32,7 KB · Aufrufe: 257
Naff schrieb:
Q1 2021 sind mit 96€ zu rechnen, aufgrund von Grafikkarten oder Prozessoren ist mir egal
Wer sagt das denn?
 
Benni22 schrieb:
Ohne dir zu nahe zu treten, warum soll das nicht funktionieren?
Weil im CPU Bereich von Team Blau (Intel) vs. Team Grün (AMD) geredet wird, die Herkunft ist denkbar einfach, die Farbe des Firmen Logos. Das Firmenlogo von ATI hatte welche Farbe? Genau, Rot.
Versuche so mal im GPU Bereich Team Grün mit Team Grün zu vergleichen.
 
Dark-Silent schrieb:
Mal ehrlich den Unsinn glaubst du doch selber nicht.
Was ich geschrieben habe ist nicht der Ist-Zustand, sondern was wäre wenn man den Vorschlag umsetzt.

Dark-Silent schrieb:
AMD produziert die Ref. Karten und vertreibt diese zum Teil auch direkt genauso wie NV das mit ihren FE Karten macht. Der grosse Unterschied zu NV ist hierbei das AMD das nicht exclusiv tut denn AMD beliefert auch seine Boardpartner mit genau diesen Refkarten. Die wiederum können dann ihren Markenbepper draufhauen und in ihre Kartons stecken.
Also gibt AMD den Boardpartnern Marge ab, Nvidia nicht.

Aber weder AMD noch Nvidia produzieren ihre Karten. Sie produzieren nicht mal Ihre GPUs.

Die Karten werden von Fertigungsdienstleister produziert. Ob alle Boardpartner eigene Fertigungskazitäten haben weiß ich nicht (direkt als Firma oder indirekt im Konzern). So mit kann Nvidia über das Vergeben von Produktionsaufträgen die Beziehung zu den Boardpartners pflegen.

Auf was ich rauswill:
Boardpartner und Endkundenhandel ein wichtiger Bestandteil des Marktes. Als Hersteller muss man immer gut abwägen, wie stark man mit den eignen Kunden oder dem Handel in Konkurrenz tritt. Ein Platzhirsch wie Nvidia muss weniger Rücksichten nehmen. Bei Gaminggrafikkarten sind

Bei den Notebookgrafikkarteb, Servergrafikkarten und den Profigrafikkarten läuft nach meinen Wissen der Markt anders. Da läuft der Absatzes fast vollständig über das Systemgeschäft.
 
GerryB schrieb:
Mal die 1440p-Ergebnisse von HU zur XL einzeln: Gestern war ja leider nur die XT drinne.

Die Werte bei HWU zeigen einen Unterschied von lediglich 8 bis 12% von 6800 zu 6800XT.
Alle anderen Tests sehen da mindestens 15%, CB 17% in UHD und 16% in WQHD, also da ist was nicht koscher.
 
Ich muss echt mal eine Lanze brechen als Nvidia Fan und muss sagen, die RADEON Karten schauen echt schön aus. Tolles Design. Und was sie unter der Haube haben kann sich auch sehen lassen. DA kommt echt Schwung rein bei den Herstellern. Hoffe es tut sich preislich dann ein wenig was.
 
  • Gefällt mir
Reaktionen: derSafran, gecan und 4to cka3al
Chrisse_ schrieb:
Vollzitat entfernt.

Nutze ich Nvenc? Nvidia
Nutze ich CUDA? Nvidia
Nutze ich Gsync? Nvidia
Nutze ich DLSS? Nvidia
Finde ich Jen Hsun Huang unsympathisch? AMD
Aber wer 16GB Ram will oder AMD Spiele spielt, macht mit den Radeons nichts falsch. Die letzte gleichwertige Karte im High-End Segment war die Fury, die aber sehr teuer war. Jetzt ist man wieder dabei.
 
Zuletzt bearbeitet von einem Moderator:
domian schrieb:
Es ist wohl eher bekannt, dass ein Treiber nie etwas an der Rohleistung verändern kann und etwaige "Verbesserungen" bei bestimmten Titeln im Promillebereich liegen.
Streiche Rohleistung setze theoretische Leistung.
 
@Wolfgang

Die Testüberschrift ist auffallend nichtssagend!

Wenn man sich die emotionalen Schlüsselwörter aus den Testüberschriften über Ampere ansieht, kommt mir ein etwas abgewandelter Slogan in den Sinn:

CB: The way it‘s meant to be advertised!
 
  • Gefällt mir
Reaktionen: eXe777, schkai und 4to cka3al
Pisaro schrieb:
Ja, das ist klar. Ich hätte mich anders ausdrücken sollen. Ich sage mal so: Den Preis, den AMD und nVidia in $ angeben, bezahlst du in €. Eigentlich ist das klar, warum hast du ja aufgeführt. Gibt halt leider immer noch welche die Dollar 1:1 in Euro umrechnen und dann noch die Mehrwertsteuer raufrechnen.
Also das sehe ich selten, eher so wie der mir zitierte der 650 Dollar in €uro umrechnet und dann rumheult das die Grafikkarte nicht 550€ kostet
 
Zurück
Oben