News Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2

Der Nachbar schrieb:
Ist seit Turing voll DirectX 12 kompatibel und nur AMD zieht hier technologisch nach.
https://www.computerbase.de/news/grafikkarten/directx-12-feature-level-12-2.73340/
Ach komm, der war jetzt aber wirklich billig. ;)
Wen wundert schon das sie bei einem Feature eher dran sind das sie zusammen mit MS auf den Weg gebracht haben?

Da gab es doch viel dollere Sachen wie den pseudo DX12 Support (FL11) bei Kepler. Das AMD hier deutlich eher am Start war ist wegen dem Mantle Projekt und dem Konsolen Geschäft jetzt auch nicht so wahnsinnig verwunderlich.
 
  • Gefällt mir
Reaktionen: Onkel Föhn und Mcr-King
Der Nachbar schrieb:
Die völlige Adrenalin Ausrichtung auf Gaming zeigt, wohin RDNA 2 geht und da haben nicht mal Multimediaoptionen mehr was zu melden.

Joa, mag sein.
nVidia hatte damals begonnen die GeForces rein auf Gaming auszurichten. Und waren dadurch, eben beim spielen, schneller.
Während GCN auch "andere Lasten" mitgeschleppt hat, wurde RDNA eben für Gaming konzipiert. Als Übergangslösung ist RDNA1 noch etwas mit GCN verbandelt. RDNA2 jedoch eben rein Gaming.
Das wurde von der Userbase größtenteils immer bemängelt, das GCN keine reine Gaming-Architektur ist, sondern "alles" kann.
Jetzt fährt man eben zwei gleisig.
Auf was kommt es dir denn an? Einen Counterpart für NVEnc?
Sind denn die GPUs beim transkodieren wirklich noch viel schneller als >8-Kern CPUs, welche softwareseitig voll unterstützt werden? Nicht wirklich.

Der Nachbar schrieb:
Ist seit Turing voll DirectX 12 kompatibel und nur AMD zieht hier technologisch nach.
https://www.computerbase.de/news/grafikkarten/directx-12-feature-level-12-2.73340/

Und trotzdem ist RTX propritär. DXR ist die freie Schnittstelle.
Ergänzung ()

SavageSkull schrieb:
Warum hat AMD nicht gekämpft, als erster auf den Markt zu kommen und selbst jetzt im Hype Train zu stehen, in dem Nvidia jetzt fährt?

AMD kämpft an allen Fronten. Das muss man doch selbst als nV Fanboy neidlos anerkennen?
Wichtiger sind eben die SoCs, Zen und die Mobile APUs.
GPU nimmt erst langsam wieder Fahrt auf.
Vielleicht sogar in Absprache mit Onkel Huang.

SavageSkull schrieb:
Ganz ehrlich, wenn es so wäre und sie auch 16GB statt nur 10GB hat, fehlt mir immer noch etwas, da ich mit der AMD, auf G-Sync verzichten müsste (oder extra nochmal Geld für einen neuen Monitor ausgeben müsste, was die AMD für mich dann zu teuer macht), auf DLSS verzichten müsste und auf RTX Voice verzichten müsste (was mir momentan extrem gut gefällt, ich kann derzeit ohne Headset mit Lautsprechern und Tischmikro sprechen, was ohne Filter mit einem grauenhaften Hall unmöglich war).

Du hast dich doch innerlich schon entschieden.
nVidia hat dich mit propritärem Features im Grunde schon gebunden.
Da kann AMD bringen was sie wollen.

Vor allem kennst weder du noch AMD die Leistung der RTX Karten bis zum heutigen Nachmittag wirklich.
Du verlässt dich auf Folien und/oder unter NDA stehende gekaufte Benchmarks.

AMD könnte natürlich heute um 14 Uhr eine riesige Präsentation machen mit "bis zu 100% schneller als 3090" ... und selbst dann würdest du nicht warten.
Du hast ja deinen GSync Monitor, welcher dich an nVidia fesselt.

Also beschwer dich nicht über AMD. Du hast dich selbst bereits entschieden, ohne freie Tests gesehen zu haben.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Kodak, wolve666, Chismon und 13 andere
Inxession schrieb:
Der Move von nVidia die Karten vermeintlich günstiger zu machen, ist wahrscheinlich dem Aspekt geschuldet, das propritäre RTX noch weiter zu verbreiten.

Wäre ja auch hanebüchen, wenn RTX nicht proprietär wäre.
 
  • Gefällt mir
Reaktionen: Mcr-King
Weshalb?
Man hätte ruhig mal eine quelloffene Lösung entwerfen können und gemeinsam mit AMD "für die Spieler" entwickeln.

So backt immer jeder sein eigenes Süppchen..
Warum sollte man das gut heißen?
 
  • Gefällt mir
Reaktionen: wolve666, Zubz3ro, s0UL1 und eine weitere Person
Inxession schrieb:
Und trotzdem ist RTX propritär. DXR ist die freie Schnittstelle.

Ist RTX nicht nur Nvidias Marketingbegriff für DXR? Wird doch auch jetzt nur DXR benutzt sobald du bei "RTX On" ein Hackerl setzt. Was daran propritär wäre versteh ich jetzt nicht. Auf welche Art das berechnet wird (RT Cores bei Nvidia oder angeblich Shader dann bei AMD) kann in dem Fall doch egal sein weil beides auf DXR setzt.


Inxession schrieb:
nVidia hat dich mit propritärem Features im Grunde schon gebunden.

Ein paar dieser Features bieten zudem doch schon gewissen Mehrwert. Ich kaufe Nvidia mittlerweile nicht nur mehr aufgrund der Leistung. Eine 6700XT kann ruhig 100€ günstiger sein, mehr VRAM haben, 10-15% schneller sein und ich würde mich aktuell doch für eine 3080 Entscheiden.
 
  • Gefällt mir
Reaktionen: cypeak und xexex
SavageSkull schrieb:
genauso wie FreeSync eine proprietäre Lösung ist.

Mach dich nicht lächerlich ...
Freesync = Adaptive Sync = GSync Compatible ...
GSync = Gsync ...
 
  • Gefällt mir
Reaktionen: wolve666, Chismon, s0UL1 und 11 andere
SavageSkull schrieb:
genauso wie FreeSync eine proprietäre Lösung ist.
FreeSync ist nur der Markenname von AMD für das von der VESA standardisierte "Adaptive Sync". Das kann Nvidia ja mit "Gsync-compatible" auch nutzen.
Gsync dagegen geht nur mit Nvidia Grafikkarten und einen Monitor, der ein spezielles Gsycn Modul von Nvidia verbaut hat (was den Monitor effektiv teurer als ein gleichwertiges FreeSync/AdaptiveSync Modell macht).

Nvidia hat sich bisher eigentlich noch nie mit offenen Standards hervorgetan. Vor Gsync und RTX war es PhysX, das nur mit Nvidia-Karten hardwarebeschleunigt war. Das konnte zwar irgendwann auch von der CPU berechnet werden, dort war aber absichtlich eine "Handbremse" eingebaut, wenn es nicht auf Nvidia-Karten berechnet wurde.
AMD geht dagegen überwiegend den Weg der offenen Standards. Neben der Unterstützung von Adaptive Sync stammt ja auch Mantle von AMD, aber von vornherein so, dass es jeder nutzen konnte. Vulkan ist ja eine Weiterentwicklung davon und auch DirectX 12 orientiert sich daran.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: wolve666, Unnu, Onkel Föhn und 6 andere
ZeroStrat schrieb:
Hm, guter Punkt. In meiner Vorstellung macht es durchaus einen Unterschied, ob die warme Luft erst noch direkt auf den RAM gerichtet ist, bevor die Gehäuselüfter es wegtransportieren. Die Gehäuselüfter könnten dies ja auch direkt tun. Schwer vorstellbar, dass das keinen Unterschied ausmacht. Letztlich gibt es Wärmezonen in einem Gehäuse mit teils großen Temperaturunterschieden.

Hast du dazu irgendwelche Messungen? Ich kann mir echt schwer vorstellen das in einem Gehäuse, mit vernünftigen Airflow, große Temperaturschwankungen vorhanden sind. Für RAM mit Heatspreader ist es aber essentiell das überhaupt Luft in Bewegung ist damit der Heatspreader effektiv arbeiten kann. Ob die Luft da jetzt 5 Grad wärmer oder kälter ist ist gar nicht so wichtig.
 
mibbio schrieb:
FreeSync ist nur der Markenname von AMD für das von der VESA standardisierte "Adaptive Sync". Das kann Nvidia ja mit "Gsync-compatible" auch nutzen.
Das ist auf den Punkt genau dieselbe Situation wie RTX zu der DirectX Befehlserweiterung "DXR".
Exakt dieselbe Situation.
 
  • Gefällt mir
Reaktionen: David_B und xexex
Inxession schrieb:
Vielleicht sogar in Absprache mit Onkel Huang.

Technically, Lisa Su's grandfather is Jen-Hsun Huang's uncle. They are not exactly niece and uncle, but close relatives.

Stimmt also nicht zu 100% ;)
 
  • Gefällt mir
Reaktionen: Ernie75 und Inxession
Der Nachbar schrieb:
Neuer Fertigungsprozess beim neuen Fertiger, damit neue Erfahrungen und das Letzte was nvidia jetzt verkaufen will, sind nicht haltbare Taktraten die die erwerbbare Leistung drosseln. Da denkt erstmal keiner bei nvidia an Premium Übertaktung, wenn man die Marktanteile gegenüber AMD halten und sogar steigern will.
Das ist Quatsch. Es war gerade NV`s Stärke, dass die Boardpartner da sehr viel machen konnten. Und damit ein noch breiteres Portfolio suggerierten. Machen sie diesmal auch, aber es ist davon auszugehen, dass hier nicht wirklich was gutes bei rum kommt. Das war in der Vergangenheit anders. Schließt nicht aus, das das wieder kommt, wenn Zeit ins Land vergeht. Aber im Moment bedeutet das auch, so viel Spielraum zum Konter hat NV nicht.
 
Meinen Messungen zu Folge macht es bei einem ausreichend großen Gehäuse nicht mal einen Unterschied, ob man ein oder zwei Lüfter nutzt, wenn dieser aus dem Seitenkasten reinbläst.
 
Hektor26 schrieb:
Neee freundchen, ist einfach Fakt!
Nein es ist eben kein allgemeiner Fakt. Es mag für manche Boardpartner bei der 5700 (xt) gestimmt haben. Aber das gab es bei NV auch in der Vergangenheit. [von schlechten Leitwärmepads auf RAM Bausteinen über nicht passenden Kühler - etc. pe. pe.]
Und das hat nichts mit AMD oder NV dirket zu tun! Das waren bisher eigentlich immer die Partner...
 
Selber schrieb:
mit nem Modell aus Blöcken wäre auch keiner glücklich geworden.
Wenn sie's groß genug gebaut hätten, häte mal alle Details sehen können, da dann die Blöcke klein genug gewesen wären! Wäre zwar Turmhoch gewesen, aber hey, die haben auch die Enterpreise nachgebaut.
Also von daher ...
;)
 
Ich hoffe die Treiber dazu werden eine einwandfreie und stabile Arbeit von diese Karte erlauben. Die zwei RADEON 5700XT, die ich hatte, mit ständigen Abstürzen, war "zum Mäuse melken" ärgerlich.
 
Artikel-Update: Der YouTuber JayzTwoCents ist an ein Foto der möglicherweise Radeon RX 6900 XT genannten Grafikkarte gelangt. Dieses zeigt offensichtlich den von AMD als Renderbild gezeigten Kühler, nur eben als echtes Bild. Darüber hinaus handelt es sich bei dem Foto um eine tatsächliche Grafikkarte mitsamt Slotblech, die beim offiziellen Bild noch gefehlt hat. Neue Details sind durch das Foto nicht in Erfahrung zu bringen.

Darüber hinaus zeigt der YouTuber ein weiteres Renderbild, das offenbar ein anderes Modell der Radeon-RX-6000-Serie zeigt, zum Beispiel also eine Radeon RX 6800. Der Kühler ist kleiner und es gibt nur zwei anstatt drei Axial-Lüfter, während die zwei 8-Pin-Stromstecker geblieben sind. Es ist davon auszugehen, dass das Render-Bild echt ist.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]
 
  • Gefällt mir
Reaktionen: Chismon, Wadenbeisser, Obi_Wan_v_Knobi und eine weitere Person
der rote Rahmen ist sicher beleuchtet so wie bei den Stock AMD Kühlern. Das fand ich da schon ganz sexy, denke das wenn das hier so rot umleuchtet ist sieht das nicht schlecht aus.
 
  • Gefällt mir
Reaktionen: Hatch, Yesman9277, Onkel Föhn und 7 andere
Beide Karten wissen zu gefallen - rein optisch. Nur bitte - wenn das die 6900XT sein soll, dann lass die Leistung auch gut genug sein...
 
  • Gefällt mir
Reaktionen: Chismon, Cpt.Willard, Yesman9277 und 4 andere
Zurück
Oben