Test AMD Radeon RX 6800 XT im Test: RDNA 2 gegen Nvidia GeForce RTX 3000

jk1895 schrieb:
Die 3080 ist stärker bei 4k und ich bin mit 5120x1440 unterwegs, darum spricht mehr für die 3080. Ich schaue mehr Netflix, Kinox und Youtube als dass ich spiele. Wo liegt also das Problem?

4% Schneller - wäre für mich kein Argument, allen voran das die Tendenz eher dahingeht das in Zukünftigen Spielen die 6800XT schneller wie die 3080 ist. Ich schaue Netflix etc auf meinem Smart TV, wäre mir viel zu schade 4K HDR Inhalte auf einem PC Monitor zu schauen. Deine Argumentation ist dennoch unverständlich für mich - dich stören ca. 17 Watt Mehrverbrauch beim Videoschauen, aber die 26 Watt Mehrverbrauch bei Videospielen nicht.
 
  • Gefällt mir
Reaktionen: mydayyy
Zuerst danke an CB für sehr guten test. Und ein Lob an AMD für die neuen 6800 grafikkarten die sehr gut schlagen 👍😘⚘
 
Leereiyuu schrieb:
Ja, noch Fragen: Da ich kein COD spiele, sondern ein schwer gemoddetes Skyrim SE.
Da ich auch gerne Skyrim und Fallout modde und mir für jeden Scheiß 8K-Texturen installiere, sehe ich die 10 GB der RTX 3080 auch eher problematisch.

Fakt ist, dass eine DLSS-Alternative kommen wird, aber die RTX 3080 bekommt nicht plötzlich über Nacht mehr Speicher.
 
  • Gefällt mir
Reaktionen: Dark-Silent, mydayyy und Skjöll
@Esenel

Und warum sollte man das Geld einem ebay Aasgeier bei einer erst gestern vorgestellten Karte in den Rachen werfen und das auch noch mit dem Ladenpreis der anderen Karte gleich setzen die seit über 2 Monaten auf dem Markt ist und immernoch unter Lieferproblemen leidet, welche deren Preis hoch halten?

Die Realisierung eines mindestens ausreichenden Speicherausbaus mit einem 256 Bit Speicherinterface siehst du übrigens bei den Tests, man setzt konsequent statt auf 8 GB gleich auf 16 GB.
Nvidia hätte das Speicherinterface mit ziemlicher Sicherheit beschnitten um die Modelle entsprechend zu differenzieren.
 
  • Gefällt mir
Reaktionen: Dark-Silent und Pisaro
[QUOTE=".Sentinel., post: 24905330, member: 294317"
Es ist diesmal wirklich nicht leicht.
[/QUOTE]
Theoretisch ist es leicht ... RTX 3090!
Praktisch muss man halt das Geld haben und es auch ausgeben wollen :evillol:
 
  • Gefällt mir
Reaktionen: .Sentinel.
xexex schrieb:
Schon mal Kinox auf einem Smart-TV geschaut?
Ich kann jedes beliebige Video im Internet auf meinem Smart TV abspielen. Worauf willst du hinaus?
 
Wadenbeisser schrieb:
@Esenel

Und warum sollte man das Geld einem ebay Aasgeier bei einer erst gestern vorgestellten Karte in den Rachen werfen und das auch noch mit dem Ladenpreis der anderen Karte gleich setzen die seit über 2 Monaten auf dem Markt ist und immernoch unter Lieferproblemen leidet, welche deren Preis hoch halten?

Und aus welcher Glaskugel liest du ab, dass dies für AMD über Shops in den nächsten 2 Monaten besser laufen wird?
Hat man ja gestern gesehen das Referenz Karten gleich mit +200€ UVP rausgehaun wurden. Super :-D
 
schkai schrieb:
Deine Argumentation ist dennoch unverständlich für mich
Es ist ganz einfach. Ich spiele sehr viel weniger, als ich auf dem Desktop bin am Browsen oder irgendwas gucken. Der Verbrauch im Desktop und beim Video gucken ist in meinem Fall wichtiger, weil einfach viel mehr Zeit damit vergeudet wird. Der PC läuft die ganze Zeit obwohl das natürlich fraglich ist. Ich will einfach keine zwei Systeme im Wechsel benutzen. Bei dem Gedanken stellen sich mir die Haare auf.
Ich vergleiche die Werte mit der 1080, 6800XT und 3080. Desktop ist AMD 3 Watt besser und YT 30 Watt schlechter. In Spielen sind es 146 Watt für Nvidia und 120 Watt für AMD. Also 26 Watt besser mit AMD.
Keine Ahnung ab das Sinn ergibt, denke irgendwie schon... :freak:
 
jk1895 schrieb:
Der Verbrauch im Desktop und beim Video gucken ist in meinem Fall wichtiger, weil einfach viel mehr Zeit damit vergeudet wird. Der PC läuft die ganze Zeit obwohl das natürlich fraglich ist.

Nehme es mir nicht übel, aber deine Aussagen passen einfach nicht zusammen. Vielleicht solltest du dir erstmal darüber Gedanken machen.
 
jk1895 schrieb:
Desktop ist AMD 3 Watt besser und YT 30 Watt schlechter. In Spielen sind es 146 Watt für Nvidia und 120 Watt für AMD. Also 26 Watt besser mit AMD.
Keine Ahnung ab das Sinn ergibt, denke irgendwie schon... :freak:
Oh gott da ich es ja leicht, bei mir läuft immer Spiel + YT/NF/twitch gleichzeitig.


Btw Mann kann da karte ja auch undervolten und downclocken, per Watzmann sofort gemacht.
 
Wegen AMD FidelityFX und Raytracing:
Man kann sich die AMD RDNA 2 "Hangar 21" Annotated Technology Demo inzwischen auf dem YouTube Channel von AMD ansehen.
 
Zuletzt bearbeitet:
jk1895 schrieb:
Habe keinen dämlichen TV und ich brauche eine neue und gescheite Karte, weil meiner 1080 im Microsoft Flight Simulator die Puste ausgeht.

Flight Sim ist für mich ein Grund gewesen für die 16 GB bei den Radeons.

Die 3080 ist da eigentlich auch nicht wirklich bahnbrechend.
Vielleicht ist es für dich besser auf die 20 GB Version zu warten.

@Topic
Wie schon im anderen Thread geschrieben.
Mit der 6800 nonXT hat man (wenn verfügbar) jetzt quasi die 2080ti mit 16 GB Speicher bei 185 Watt Verbrauch.
Um 40% günstiger.

Also über die Preise beschweren ist das Eine .... aber noch vor einigen Monaten zahlte man für diese Leistung noch 4-stellig.
 
Inxession schrieb:
Also über die Preise beschweren ist das Eine .... aber noch vor einigen Monaten zahlte man für diese Leistung noch 4-stellig.
Zumal wir seit fast vier Jahren in dem Leistungsbereich rumkrebsen wenn man Titan außen vor lässt.
 
Esenel schrieb:
Und aus welcher Glaskugel liest du ab, dass dies für AMD über Shops in den nächsten 2 Monaten besser laufen wird?
Aus garkeiner denn davon war nicht die Rede. Ich hatte lediglich die ca. 10 Monate zwischen den Produktvorstellungen und der immernoch lausigen Verfügbarkeit und den daraus restltierenden Wucherpreisen bei der Geforce angesprochen.
Das hast du dir gerade ganz alleine zur Rechtfertigung ausgedacht.
 
mc_ace schrieb:
Wegen AMD FidelityFX und Raytracing:
Man kann sich die AMD RDNA 2 "Hangar 21" Annotated Technology Demo inzwischen auf dem YouTube Channel von AMD ansehen.
Mit FidelityFX Supersampling dürfte das aber nix zu tun haben, falls du das meinst.
Ist leider nur ein Video. Die Demo selbst gibts nur für Red Team Plus Member zum Download ;)
 
Denny_Crane schrieb:
Was meines Erachtens ein sehr guter Schritt ist, nur für 4k hätte der Speicher wohl noch etwas größer sein müssen. Es würde mich also nicht wundern, wenn man bei RDNA 3 an dieser Stelle 192 MB sieht. Das hat auch rein gar nichts mit Fanboytum zu tun, sondern nennt sich technischer Fortschritt! Und neue Features, welche die Performance steigern und den Energieverbrauch senken, sind auf beiden Seiten (AMD und Nvidia) herzlich willkommen!
Der Inifinity Cache ist ein geniale Lösung. Denn er bringt AMD viele Freiheitsgrade bei Speicherwahl, Speicheranbindung und damit auch beim Boarddesign.

Mehr Cache ist immer besser, aber er ist auch sehr teuer.
lt. Wkichip verbrauchen die 16 GByte L3-Chache eines CCX bei Zen 2 ca. 16,8 qmm (d. h.ca 50 % der Fläche eines CCX)

Da es bei RDNA 2 derselbe Prozess ist, würde ich Mal grob 130 qmm für den Inifinity Cache ansetzen, mit 192 MB wären es so grob 195 qmm. Das ist schon eine ordentliche Fläche, die man investiert. Deshalb ist es immer eine Abwägung von Kosten und Nutzen.

RDNA 3 wird in eine mit einer kleineren Strukturbreite gefertigt. Ich weiß nicht wie SRAM im Vergleich zu den anderen Schaltungen skaliert. Die verbreitesten SRAM-Schaltunngen benötigen je Bit 6 Transistoren.

RDNA 3 wird sehr viele Überraschungen bieten, aber natürlich spielt laut Rick Bergman der Infinity Cache auch hier eine wichtige Rolle. Infinity Fabric 3 und X3D-Packaging werden großen Einfluss auf Zen 4, RDNA 3 und auf das Zusammenspiel der beiden haben.

Bei CDNA hat AMD auf den InfinityCache verzichtet, weil HBM 2 als Speicher genügend Bandbreite bietet.


Neue Features:

Bei der Computergrafik sind neue Wege dringend notwendig. Wahrscheinlich sogar komplett neue Denkansätze. Einfach immer mehr Rechenleistung zu verlangen, kann nicht die Lösung sein. Wer über den steigenden Verbrauch lästert, muss sich einmal anschauen, in welchem Maß die GPUs wachsen. Immer mehr kann nicht die Lösung sein. Es wird sehr viel Leistung an Bildinhalte verschwendet, die niemand ansieht.

Es ist Unsinn die Bildqualität von Spielen anhand von Screenshots zu bewerten. Im Spiel kann man immer nur einen Bereich scharf sehen. Den Screenshot schaut man sich eventuell minutenlang an, um dann über 2 Pixel zu lästern. Dieses Missverhältnis wird extremer je größer die Bildschirme werden. Oder bei Konfigurationen mit mehreren Bildschirmen. Variable Rate Shading kann nur der Anfang sein. Früher oder später muss die Software wissen wo der Spieler hinschaut.

Zu Vega:

Man hat viel Häme über Vega ausgeteilt. Zum Teil war AMD selbst Schuld, sie hätten einfach keine überzogenen Erwartungen schüren dürfen. Zum Teil haben viele nicht verstanden, dass Vega ein Kompromiss war. Für die Spieleperformance war dieser Kompromiss nicht gut. Und bei den Rechenanwendungen musste Vega darunter leiden, dass der Softwarestack bei AMD alles andere als optimal war. So stand Vega in beiden Feldern im Schatten von Nvidia.

Wie gut Vega im Prinzip ist sieht man bei den Renoir-APUs. Aber die Vegakarten haben nicht gut mit den CU skaliert und wurden noch mit einem schlechteren Chipdesign umgesetzt. Deshalb wurden sie sehr ineffizient als AMD sie hoch getaktet hat. Das musste AMD machen, weil sie Vega als Gegenspieler zur 1080 stellen wollten.

Schon RDNA 1 war ein riesiger Schritt nach vorne. Man konnte in dieser Leistungsklasse zu Nvidia aufschließen. Das lag sicher auch daran, dass AMD auf die 7 nm wechselte. Aber ein großer Anteil der Verbesserung kam daher, dass AMD die Architektur und die Treiber für Spiele optimiert hat.

Bei RDNA 2 war der wichtigste Schritt, das die Leistung mit der Anzahl der CUs besser skaliert.
Sollte die 6900XT ihre ca. 10% mehr CUs tatsächlich in messbar mehr Leistung umsetzen können, wäre dies ein wichtiger Fortschritt bei AMD.

Beim Skalieren war nämlich Nvidia in den letzten Jahren immer besser. Dies und das excellente Chipdesign auf dem 12-nm-Prozess waren Grundpfeiler für den Vorsprung von Nvidia.
 
  • Gefällt mir
Reaktionen: ComputerJunge, derSafran, gecan und eine weitere Person
Marcus Hax0rway schrieb:
Worauf willst du hinaus?

Das man solche Portale meist ohne ein VPN nicht nutzt, oder nutzen kann und nicht jeder Film oder Video, was man sich im Internet runterladen kann, lässt sich einfach so im Browser eines Smart-TVs aufrufen.

Für Streamingdienste und vielleicht noch Youtube reicht ein TV locker aus, für alles andere ist es bequem einfach den eigenen PC dran angeschlossen zu haben. Letztendlich muss es jeder für sich wissen, ich nutze zum Arbeiten und Spielen nun schon seit über 10 Jahren TV Geräte und der PC steht in einen recht unscheinbaren Gehäuse im Wohnzimmer.
 
Zuletzt bearbeitet:
Zurück
Oben