• ComputerBase erhält eine Provision für Käufe über eBay-Links.

Bericht RX 6800 (XT) und 6900 XT: AMD greift Nvidia RTX 3070, 3080 und 3090 an

CloudConnected schrieb:
So meine 3090 is wieder ausgebaut 1080 wieder drinne geht morgen zurück nach MM.
Sicher, dass du sie nicht gewinnbringend verkaufen könntest? Vielleicht hats noch nicht jeder mitbekommen^^
 
  • Gefällt mir
Reaktionen: Unnu, m2020, Benji18 und eine weitere Person
Taxxor schrieb:
Genau von dort hab ich mir ja die Tests aller dort angegebenen deutschen Seiten(außer igorslab) plus bekannte Internationale Seiten rausgesucht(Insgesamt 8 Reviews), die eben alle auf 2080TI +/- 1% kommen

Igors Labs Werte werden den Mittelwert wahrscheinlich nicht sondernlich stark verfälschen.
Wieso er nicht zu einer anderen FE ausschau hält, wenn er weiss dass seine eine Gurke ist, bleibt mir allerdings ein Rätsel
 
Taxxor schrieb:
Das scheinen dann aber schon echt heftige Unterschiede zwischen den FEs zu sein,

Mag sein, du solltest aber auch den Kern der Aussage nicht außer acht lassen, das neue Design der FE Karten von Nvidia ist schlichtweg gelungen. wenn man kein Gehäuse mit zig Lüftern oder ein Benchtable einsetzt. Es hat schon seienn Grund gehabt wieso AMD jahrelang auf Blowerdesigns gesetzt hat, auch wenn sie in Foren dann dafür zerrissen wurden.
 
  • Gefällt mir
Reaktionen: bikkje und elvis2k1
Wulfman_SG schrieb:
Weil es im Gaming bisher nur einen wirklichen Player gab: Nvidia. JAAA ... die 5700XT ist gut.

Ganz ehrlich, ich verstehe solche Aussagen nicht, weil Konsolen da genauso von der Gameentwicklung als auch der HArdware mit dabei sind. Und alle Konsolen mitgerechnet glaube ich das AMD (Microsoft und Sony) der größere Player ist, als Nvidia!
 
  • Gefällt mir
Reaktionen: TKessel
xXcanwriterXx schrieb:
ch besitze ein Seasonic Prime Platinum 750 Watt NT. AMD gibt für die 6900 XT 850 Watt vor. Was meint ihr? Mit Bling Bling RGB und i7 10700K @ 5,0 GHz machbar?!?

Na klar.


brabe schrieb:
Dann werde ich wohl nach meiner 6870 das erste mal wieder eine AMD GPU kaufen. Freue mich wie blöde auf Weihnachten und einen Ryzen 5xxx mit einer RNDA 2 Karte.

Da musst Du nur aufpassen das nicht nichts unterm Weihnachtsbaum landet. (Angebot - Nachfrage)

CloudConnected schrieb:
Weiß echt net was ich jetzt machen soll.
3090 zurückgeben und 6900xt+5800x holen?

Es war deine Entscheidung die 3090 anzuschaffen, die zurückzugeben finde ich etwas assig.
Wie wäre es mit verkaufen? (Ebay o.ä.?)

Wulfman_SG schrieb:
bin mal gespannt wie schwer die Bindung an ZEN3 wiegt. Hab aktuell einen R7-2700x auf 470er Board. Für das Board kommt vermutlich noch ein Update um die 5000er laufen zu lassen ... aber was bringt mir dann eine RX6800. Verschenke ich hier viel Performance ..

Wenn die Karte auf den Arbeitsspeicher zugreifen kann, könnte sich PCIe 4 dann doch auf einmal lohnen.
Da muss man die Tests abwarten.

Zenx_ schrieb:
Ich hoffe nur, dass AMD einen Gegenspieler zur DLSS 2.0 Technologie noch bieten wird. Sonst könnte das etwas schwierig mit meiner Entscheidung werden.

https://www.heise.de/news/KI-Upscal...t-an-Alternative-zu-Nvidias-DLSS-4942900.html
 
ich wünsche mir für AMD eine gute Verfügbarkeit direkt nach Release, damit Nvidia merkt, dass sie sich besser nicht mit den Playern anlegen sollte.
 
  • Gefällt mir
Reaktionen: HerrRossi, I30R6 und Zenx_
Krautmaster schrieb:
Kleine Frage noch ... wieso war bisher der on Die Cache bisher keine Option wenn es deiner Ausführung nach eigentlich primär Vorteile bringt. Es ist doch wie bei allem so - es müssen nicht gleich 128MB sein, 32 oder 64 MB wären ja schon lange eine Option gewesen.
Die banalste Antwort ist: Früher hätte ein L3-Cache einfach zu viel Platz gefressen, deswegen hat man sich damit nicht beschäftigt. Zudem war es bisher einfach die Bandbreite zu erhöhen. Breiteres SI + schnellerere RAM.

Die komplexere Antwort ist: Es ist nicht damit getan einfach nur den Cache hinzuzufügen. Da die GPUs recht simpel aufgebaut sind, brauchen die GPUs Hilfe dabei ihre Daten zu strukturieren. Man muss sich hier also auch Gedanken machen, wie man die Daten strukturiert und die Daten im VRAM und den Caches organisiert. Die Software-Ebene wird hier durchaus komplexer.

Wir haben uns mal in einer Vorlesung mit dem intelligenten Vorausladen von Daten befasst, und was man da an Bandbreite sparen aber auch an Geschwindigkeit gewinnen kann in recht simplen In-Order-CPUs. Es ist nicht kompliziert, aber eben sehr komplex, da man das Speicher-Management entsprechend anpassen und auch erweitern muss.

Ich verweise hier ja nicht umsonst auf HBCC und ebenso DSBR. Erst wenn man weiß, welche Daten wann benötigt werden und die Daten entsprechend organisiert, kann man hier intelligent mit einer weiteren Cache-Stufe die Bandbreite des SI kompensieren.

Das Bild hier veranschaulicht das »Problem« doch recht gut:
cdea-amd-hbcc-memory-allocation.png


Man sieht hier auch eine Entwicklung bei AMD: Bei Fiji hatte man Bandbreite, aber durchaus ein Speicherproblem. Die Bandbreite konnte das Problem mehr schlecht als recht Kaschieren. Aus diesen Erfahrungen hat man sich vermutlich überlegte: Wie können wir »Speicher« sparen und gleichzeitig die limitierende Bandbreite als auch Latenz von PCIe umgehen. Vega hatte mit 8GB HBM zwar »genug« Speicher, es zeigte sich aber, sobald der Platz nicht reicht: Es funktioniert.

Der nächste Schritt, dass ganze nun »intelligent« in einem Cache zwischen zu speicher - Infitie-Cache - ist auf den »ersten« Blick - heute - durchaus logisch, aber gerade in solchen »simplen« Entwicklungen steckt oft mals mehr Hirnschmalz, als man denkt.

Die einfache Antwort auf deine Frage warum jetzt: Weil die durchaus komplexere Software als auch Hardware-Struktur nun mehr Vorteile bietet und wirtschaftlicher ist, als einfach das SI zu verbreitern oder die RAM-Geschwindigkeit zu erhöhen.

Krautmaster schrieb:
Was L1 und L2 angeht scheinen sich Navi und Ampere hier ja nicht so unterschiedlich zu sein oder?
Doch, die Cache-Struktur ist bei Navi als auch Ampere vollkommen unterschiedlich und man kann beide auch nicht wirklich mit einander vergleichem.

Bei NVIDIA besteht eine SM aus 4 Blöcken mit einem eigenen Register-File, die über 3* Datenpfade 32 ALU (16 + 16) und einen Tensor-Core ansprechen. Jeder diese Blöcke hat einen eigenen L0i Cache (Instruktionen). Die SM aus diesen 4 Blöcken (64 + 64 ALU + 4 Tensore Cores *Es sind immer noch 3 Datenpfade, deswegen nach außen 64 + 64 Shader + 4 Tensore Cores). Diese SM hat dann einen L1d (data) Cache von 128 KiB.

Dann folgt bei NVIDIA der GPC, der hat keinen eigenen Cache und dann der L2-Cache für die ganze GPU. Hier ein kurzer Einschub für @Kacha und @Colindo . Ich habe mir jetzt das Paper, das Patent sowie das Architektur-Paper für RDNA angesehen und kann soweit wohl, glaub ich, schreiben: Wir sehen Teile des Papers als auch des Patents bereits bei RDNA.

Bei AMD ist es nun so, dass eine CU aus 2 Vec32 ALUs + 2 sklaren ALUs für bestimme Operationen aufbauen und jetzt geht es los. 2 CUs werden zu einer WGP verbunden. Hier finden wir das LDS (Local Data Share), diese besteht aus 2 * 64 KiB (ist das, was wir bei NVIDIA als Registerfile pro Block vorhanden). Beide CU haben Zugriff auf den LDS und können darüber auch »Daten« austauschen. Pro WGP kommen dann 2 * L0d mit 16 KiB hinzu, sowie ein L0i mit 32 KiB.

5 WGP bilden dann ein Shader Array bei AMD und hier kommt nun der L1-Cache mit 128 KiB. Darüber steht dann bei AMD die Shader Engine aus 2 Shader Arrays. x Shader Engines bilden dann die GPU mit dem L2-Cache und nun eben dem Infinti Cache.

Sieht man sich das an, dann hat AMD das Paper @Kacha und @Colindo durchaus auch umgesetzt. 1. Indiz: der LDS (Registerfile) der aus 2 Blöcke zu 32 Banken zu 512 Einträgen mit 32 Bit besteht. Beide CUs können darauf zu greifen. An diesem LDS hängt dann an 2 Datenpfaden jeweils ein L0d (das, was bei CU der L1d war und im Paper als L1 bezeichnet wird). 10 L0d hängen dann gemeinsam an einem L1 Cache, des Shader Arrays. Man hat also das Paper wohl in vereinfachter Form umgesetzt, in dem man 2 CU zur WGP verbunden hat und 5 WGP einen gemeinsamen L1 gegeben hat.
 
  • Gefällt mir
Reaktionen: Unnu, KadmosIII, Colindo und 11 andere
pitu schrieb:
ich wünsche mir für AMD eine gute Verfügbarkeit direkt nach Release, damit Nvidia merkt, dass sie sich besser nicht mit den Playern anlegen sollte.

Abwarten. MS und Sony wollen auch Chips
 
xexex schrieb:
Glaubst du wir hätten Raytracing oder DLSS, wenn die Hersteller sowas in einem Lizenzmodell veröffentlichen müssten, auf das sofort alle Zugriff haben?

Es geht um eine offene Schnittsetelle die einmal implementiert werden muss, Microsoft liefert das ja, darauf kann doch jeder Hersteller aufbauen, wer redet hier von einem Lizenzmodell?
 
Sorry wenn die Frage schon mal beantwortet wurde, hab jetzt über die Sufu nichts gefunden.

Auf der Gigabyte Seite sieht man ein schönes Renderbild vom Referenz Design:
https://www.gigabyte.com/Graphics-Card/GV-R68XT-16GC-B#kf

Mir ist da direkt der USB-C Port aufgefallen. War es nicht bei der RTX 20 Founders der Fall, dass wegen dem Port, 27 Watt zusätzlich an Verbrauch angegeben wurden? Eine RTX 2080 hat eine TDP 148W und eine TGP 215W.
Und die TGP Angabe war inkl. den 27 Watt vom Typ-C, ob man ihn genutzt hat oder nicht. (kann mich auch irren).
Weiß man schon wie AMD damit umgeht? Sind die 300 bzw. 250 Watt tatsächlich, was die Karte im Gaming verbraucht oder was sie verbrauchen könnte, wenn auch was am USB-Typ-C hängt?

Nachdem die Ampere keinen mehr haben und Navi 2X jetzt schon, könnte der Stromverbrauch theoretisch noch unterschiedlicher sein, als man gestern annehmen konnte.
 
  • Gefällt mir
Reaktionen: Kraeuterbutter
The Mechanic schrieb:
Nachdem die Ampere keinen mehr haben und Navi 2X jetzt schon

Einige der Turing Karten hatten einen Virtuallink Anschluss als USB-C ausgeführt. da sich das nicht durchgesetzt hat, wurde es nun abgeschafft.

DP mit USB-C Stecker ist damit nicht vergleichbar.
 
DrFreaK666 schrieb:
Super resolution ist kein AMD-feature sondern "DX-Only".
ich sprach auch nicht von Super Resolution. Ich sprach allgemein von dieser Thematik. Aktuell schmeißt Nvidia was neben DX hin und dann greifen das ein paar Studios auf oder lassen es. Wenn AMD ein Feature neben DX hinwirft, guckt man sich das an und fragt sich warum das nicht vom Nvidia gebracht wurde - dann würde sich das einbauen lohnen.

Aber wie gesagt: sehr allgemeiner Kommentar. Hier wurde das in den 2000+ Beiträgen ja paar mal genannt ...
 
DrFreaK666 schrieb:
Abwarten. MS und Sony wollen auch Chips
Die haben die Lager propen voll. Die Nachfrage nach CPU's wird eher ein Engpass generieren. Bei erhoehter Nachfrage nach EPYC wird wohl erstmal die bedient werden. Da sind dann andere Margen im Gespraech.
Wenn AMD das alles gebacken bekommt, dann Hut ab vor TSMC und AMD.
 
  • Gefällt mir
Reaktionen: Colindo, LukS und Cruentatus
DrFreaK666 schrieb:
Abwarten. MS und Sony wollen auch Chips
das sehe ich in der tat als das größte noch kommende Problem. AMD setzt Release von ZEN3, RX6000 auf ein ähnliches / gleiches Zeitfenster wie MS/Sony ihre Konsolen. Sehr mutig ... sehr selbstmörderisch ... entweder hat AMD das Release sehr genau kalkuliert und die wissen was sie da machen oder wir stehen ohne neue GPUs vorm Weihnachtsbaum ;). Da sie gerade sehen wie Nvidia ihren Release verbockt hat - könnte ich mir vorstellen das AMD nicht auch so enden möchte und tendiere für eine gute Planung bei AMD ;) .... HOFFE G
 
  • Gefällt mir
Reaktionen: Cruentatus, Monstranz und DrFreaK666
matty2580 schrieb:
https://www.pcgameshardware.de/AMD-...solution-KI-Technik-Bildverbesserung-1360877/
Damit ist klar das AMD nachzieht, in Zusammenarbeit mit Microsoft, und bald auch "DLSS" bieten wird.

Thorque schrieb:

Interessant, danke für die links! Der Vorteil für AMD könnte sein, dass das Feature, wenn es in neuen XBOX-Spielen implementiert wurde, auch relativ einfach für die PC-Ports umsetzbar sein sollte. Dadurch dürfte die Zahl der Spiele mit "Super Resolution" schnell wachsen.
 
  • Gefällt mir
Reaktionen: TKessel
Ja, deutlich schneller als bei Nvidia.
Es ist aber auch wieder ein offener Standard.
Vielleicht springt auch noch Sony mit auf den Zug?
Ein passendes Patent hatten sie ja schon angemeldet vor einiger Zeit.
 
xexex schrieb:
Einige der Turing Karten hatten einen Virtuallink Anschluss als USB-C ausgeführt. da sich das nicht durchgesetzt hat, wurde es nun abgeschafft.

DP mit USB-C Stecker ist damit nicht vergleichbar.

Bereits die W5700 hatte USB-Typ-C wo 15 Watt drüber gingen:

Außer einer Datenleitung nach USB 3.2 Gen 2 (10 Gbps) beherrscht er den DisplayPort-Alt-Mode und USB Power Delivery mit bis zu 15 Watt. Der Port gleicht Nvidias VirtualLink der Turing-Grafikkarten (GeForce RTX 2000, Quadro RTX), jedoch verwendet AMD diesen Namen nicht.
https://www.heise.de/newsticker/mel...t-7-nm-Technik-fuer-Workstations-4591352.html

Ich vermute mal, bei den neuen RX Karten wird der mindestens gleichwertig sein.
 
Wulfman_SG schrieb:
das sehe ich in der tat als das größte noch kommende Problem. AMD setzt Release von ZEN3, RX6000 auf ein ähnliches / gleiches Zeitfenster wie MS/Sony ihre Konsolen. Sehr mutig ... sehr selbstmörderisch ...

Man weiss echt nicht was man dazu sagen soll!
Wenn man sich den Quartalsbericht von AMD anschaut, sieht man doch das schon jede Menge Konsolen SoCs ausgeliefert und bezahlt wurden. Glaubt ihr eigentlich das Sony und Microsoft Vorkasse leisten müssen bei AMD?
(Nicht wirklich) Die Konsolen SoCs werden seit Sommer produziert und ausgeliefert, da dürfte man gute 4-6 Monate vor ZEN 3 und Radeons drann gewesen sein von der Produktion, da überlappt sich jetzt etwas, aber die SoCs für die Konsolen für Weihnachten sind schon lange in den Lagern von Sony und Microsoft oder schon assembled.
 
  • Gefällt mir
Reaktionen: PS828, Colindo, LukS und 2 andere
Zurück
Oben