News Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2

Holindarn schrieb:
Die Ti´s und Super werden kommen, NV wartet nur auf AMD, entweder um deren Portfolio noch mal zu trumpfen und /oder den Preis damit wieder anzuziehen... je nach Sachlage, blöd ist die Lederjacke nicht.

So wie immer halt. Ich sag nur 20xx Super
 
stevefrogs schrieb:
Und hier gleich das Vorbild zum direkten Vergleich.

Und hier gleich das Vorbild zum direkten Vergleich.

xfx-radeon-7970-double-dissipation_2268353.jpg
 
  • Gefällt mir
Reaktionen: Kodak, Cpt.Willard, Terminator-800 und 4 andere
Der Nachbar schrieb:
Warum intel, wenn der Herr Koduri von AMD jetzt intel unsicher macht und das Marketing teils unter AMD Niveau liegt. Bewährte, diskrete Grafikkarten Lösungen erhalte ich seit Generationen bei nvidia und AMD ist bei den APUs noch soweit zurück um eine intel Quicksync Alternative anzubieten, was gerne genutzt wird. Darüber hinaus gibt es Gründe, warum man lieber die halbwegs stabile VEGA Architektur in den APUs einsetzt, wenn man am langatmigen Treiberdesaster von RDNA teilnehmen durfte. Da wären alle ZEN APUs mit RDNA Architektur ein Desaster geworden. Die AMD APUs sind bis auf den modernen ZEN CPU Teil auch eingeschränkt einsetzbar und Gaming allein zieht seit AMD Fusion nicht, denn eine intel GMA X4500 ist sogar noch brauchbar in Windows 10 umgesetzt.
Das kann man schlecht von einer schlecht gealterten Fusion APU behaupten, wo schlechte Grafikkartenunterstützung von der lahmen CPU unterstützt wird, aber damals auch tönend Gaming groß beworben wurde.

Jetzt weiß ich es ganz genau. Hab zwar absolut nichts verstanden, aber wirst schon recht haben. 😆👍
 
Ich warte sowieso noch bis mindestens Januar-Februar.

Grundsätzlich lasse ich 3 Monate nach einem Hardwarelaunch verstreichen. Dann schaue ich mir bei den GPUs die ganzen Custom Lösungen an, die oft auch etwas brauchen bis sie alle da sind. Dann ordentliche Tests und erst dann sollte man kaufen.

Ich würde nie eine Grafikkarte wenige Tage nach Release kaufen. Man weiß ja auch nie ob dann wieder so eine Betrugsnummer wie mit der GTX 970 passiert.

Aus diesem Grund ist Nvidia auch immer noch auf meiner persönlichen Boykott-Liste. 10 Jahre hat ihnen das eingebracht, mal gucken ob sie 2024 wieder runtergenommen werden können.
 
  • Gefällt mir
Reaktionen: russianinvasion
DrFreaK666 schrieb:
Außerdem hält sich das hartnäckige Gerücht, dass die Treiber von AMD scheiße sind.

seien wir wirklich ehrlich: die amd treiber brauchen bei neuen gpu's immer so 2-3 releases bis die schnitzer gefixt wurden. dann kommen ggf. auch treiber releases die nochmals 1-2% durchschnittliche performance herauskitzeln...
 
Zuletzt bearbeitet:
@duskstalker Würde mich nicht wundern wenn Nvidias Designer sich von dieser alten XFX 7970 haben inspirieren lassen, die Vorderseite zumindest hat jedenfalls klare Parallelen in der Designsprache.
 
  • Gefällt mir
Reaktionen: Efaniel, tunichgut und Maxxx800
Iotis schrieb:
Die ist nicht deutlich schneller als eine 2060 Super! Und ausserdem interssieren mich die % beim kommenden Cyberpunk nicht die Bohne! Da nehm ich lieber Raytracing samt DLSS 2 mit! Sieht schöner aus als die FPS Zahl im Overlay!

20% sind für mich deutlich schneller.
DLSS 2.0 ist natürlich eine feine Sache
 
Falls die ingame 3d Darstellung der Karte korrekt ist, dann ist das eine Karte mit HBM Speicher. Ansonsten würden die zwei Seitlichen Schrauben neben dem Chip direkt in die RAM Module gehen, bzw. Durch die Leitungen.
Meine Vegas haben diese Bohrungen ebenso, sonst hab ich sowas noch nicht gesehen.
 
  • Gefällt mir
Reaktionen: cruse
Tzk schrieb:
Dann hast du ja jetzt nach dem Nvidia Unboxing vom Freitag bei beiden Karten den gleichen Informationsstand... :D Morgen wissen wir mehr.
Also bei den Nvidia Karten ist schon deutlich mehr bekannt. Erste grobe Benchmarks sind draußen und die Eckdaten.
Also gleicher Informationsstand ist hier falsch.
Und morgen wissen wir auch kaum mehr.
 
cypeak schrieb:
seien wir wirklich ehrlich: die amd treiber brauchen bei neuen gpu's immer so 2-3 releases bis die schnitzer gefixt haben. dann kommen ggf. auch treiber releases die nochmals 1-2% durchschnittliche performance herauskitzeln...

ja. Aber bei Nvidia gab es Treiber, die Grafikkarten zerstört haben. Bei AMD ist mir sowas nicht bekannt
ist zwar schon etwas her, aber es war wohl so
https://www.computerbase.de/news/grafikkarten/nvidia-zieht-geforce-treiber-196-75-zurueck.27142/
Das ist auch "witzig": https://www.nvidia.com/en-us/geforc...g-samsung-and-lg-notebook-lcd-display-panels/

Dann sind mir Bluescreens und Abstürze deutlich lieber
 
  • Gefällt mir
Reaktionen: Cr@zed^
Mein Beileid, aber genug OT :)
 
  • Gefällt mir
Reaktionen: tunichgut
DarkerThanBlack schrieb:
Jetzt weiß ich es ganz genau. Hab zwar absolut nichts verstanden, aber wirst schon recht haben. 😆👍
und ich dachte schon, nur ich hab eine Verständnisproblem... ich bin mir noch immer nicht sicher, ob @Der Nachbar eine "Nvidia Fanboy Anti AMD Rede" gehalten hat, oder gegen den gesamten dGPU Markt der letzen 10+ Jahre oberhalb der 200€ gewettert hat und Custom Kühler generell verteufelt.

"Mit dem Einbruch der Grafikkartenverkäufe für AMD sind sogar 400€ Karten eigentlich Luxus und in der lang anhaltenden Coronazeit bei einem vakanten Beruf überlegt man mehrfach, ob man das Geld wirklich für teure Grafikkarten übrig hat. Sicher auch nicht für solche Radeon Monster mit drei Lüftern, wenn die Spieler auf ihrem Schreibtischen eher kleine PC Gehäuse zu stehen haben.
Der Streamer wird so oder so sicher von der Geforce Experience überzeugt sein, wenn er mal dahinter kommt und sicher keine AMD nutzen. Hier schürt nvidia gerade für Spieler ein Paket zusammen, wo die Gesamtleistung abseits der größten FPS Balken tatsächlich AMD schlecht da stehen lässt und da ist noch mehr Potenzial dahinter. "
Soll das nun heißen "AMD schieb ab", egal was, weil zu teuer, aber wegen sonstigen Gründen (Featuresets über die sich Streamer freuen und deswegen nun für Zocker ein Paket geschnürt wird... Häääää???) "Nvidia "take my money! weil ich vielleicht Morgen schon arbeitslos bin und da ich sehr wahrscheinlich von den FE Karten keine abbekommen werde, nehme ich auch gerne eine Partner Karte mit 3 Lüftern, die nicht in mein Gehäuse passen würde, wenn sie nicht durch Nvidia persönlich gesegnet worden wäre". Schließlich ist so ein Gehäuse für eine ungesegnete AMD Karten mit 3 Lüftern einfach zu klein... Da stellt sich mir noch die Frage, wie es mit Nvidia Karten aus den älteren Generationen ist... sind die Turing Karten mit 3 Lüftern raus gewachsen, oder passen die wenigstens noch, weil der Segen von damals noch hält?

Weiter bin ich ehrlich gesagt auch nicht mehr gekommen... das Intro mit der Wursttheke war schon komisch genug und hat mich darin bestätigt, glaube ich, dass es gut ist, dass ich meinen Fleischkonsum sehr weit runtergeschraubt hab ... ich bekomme Kopfschmerzen
 
  • Gefällt mir
Reaktionen: Cpt.Willard und Maxxx800
Maxxx800 schrieb:
Falls die ingame 3d Darstellung der Karte korrekt ist, dann ist das eine Karte mit HBM Speicher. Ansonsten würden die zwei Seitlichen Schrauben neben dem Chip direkt in die RAM Module gehen, bzw. Durch die Leitungen.
Meine Vegas haben diese Bohrungen ebenso, sonst hab ich sowas noch nicht gesehen.

nicht zwingend. hier folgend ein paar bilder.

zunächst mal der vergleich zwischen dem fortnite modell und einer geleakten rdna 2 engineering karte:

navi.jpg


die löcher/schrauben sind zwischen den markierten GDDR modulen. offenbar geht das, außer die karte ist eine ente.

die schraublöcher sind untypisch für moderne HBM karten angeordnet. das loch links vom core sitzt zu weit außen (zumindest im render).

bei vega und der radeon 7 ist dieses loch näher am core:

2871-pcb-front.jpg

radeon7.jpg


aber bei fury gibts ähnliche abstände:
r9 fury pcb.png


die alten amd gddr karten haben diese löcher garnicht.

eine 5700XT:

front.jpg


hier noch eine r9 290x als referenz für andere high end gddr amd karten:

r9 290x.jpg


außerdem auffällig sind die drei ram module richtung pcie slot. mir sind nur karten mit 1-2 modulen richtung pcie slot bekannt, nicht drei.

die löcher können ein hinweis auf HBM sein - oder aber amd hat einfach das layout angepasst, dass da löcher zwischen den modulen hinpassen.

das engineering sample mit gddr6 und den löchern an exakt diesen stellen deutet auf genau das hin: gddr6 mit 6 (oder 8) statt 4 löchern um das package.

anhand des engineering samples und die deckungsgleiche lochposition mit dem offiziellen amd render geht die chance für hbm meiner meinung nach richtung 0.
 
  • Gefällt mir
Reaktionen: Maxxx800 und yummycandy
@duskstalker
Danke, das Bild kannte ich nicht, kannte die Löcher bis jetzt nur vom Umbauen meiner Karten. Interessant jedenfalls.
 
tunichgut schrieb:
@DrFreaK666
Sowas gabs auch bei Amd 2015 , betraf damals auch einen Kumpel mit seiner MSI 7870, die verstarb.

War der Jensen nicht letztens wieder fleißig am backen?
Jensen back2.png

Da sag ich nur: Defekte Grafikkarte im Backofen reparieren. Wirklich!
Hier darfst du nicht draufklicken ---> Backstunde mit Jensen

Ich muss aber wirklich sagen das der Jensen wirklich fleißig ist.
Vom Hörensagen war er die letzten Monate unter dem Vorwand Corona nur schwer erreichbar
und stand fast andauernd in der Backstube wo er den Ausschuss der ersten Charge an 3080 und 3090er
wieder kross und knusprig zum laufen gebracht hat.
Ich soll ausrichten, falls eine der Karten innerhalb der nächsten 9 Monate wieder abschmiert, keine Panik der Jensen hat bereits ein spezial Rezept bereit.

8400M und 8600M Kawoom
Nach Angaben von Sony sind die defekten Grafikprozessoren von Nvidia in 14 Modellen der VAIO Notebook-Serien verbaut. Sie können sich wegen minderwertiger Materialien von der Platine lösen und somit für Fehler sorgen oder den Laptop vollständig lahm legen.

So nebenbei hatte man sich es mit Apple auch gleich verscherzt.
 
Zuletzt bearbeitet:
Nvidia hat DLSS 2.1 was ein echtes Killerfeature werden kann. Wird AMD hier auch was in der Hinsicht bieten können?

Für mich wie für die meisten zählen FPS und Bildqualität und da hat Nvidia schon was zu bieten. Wenn auch zu Apothekenpreisen....
 
Inxession schrieb:
Der Move von nVidia die Karten vermeintlich günstiger zu machen, ist wahrscheinlich dem Aspekt geschuldet, das propritäre RTX noch weiter zu verbreiten.
Ist seit Turing voll DirectX 12 kompatibel und nur AMD zieht hier technologisch nach.
https://www.computerbase.de/news/grafikkarten/directx-12-feature-level-12-2.73340/


aldaric schrieb:
Also Ampere traut man eine Steigerung zu, aber RDNA2 nicht, obwohl Taktbereinigt RDNA1 schon minimal vor Turing war ?

Einige Leute muss man nicht verstehen.
Wer die Leistung der RDNA Treiber wollte, gerne. Das hat sogar auf die Vega abgekupfert und ich hätte die Karte manchmal aus dem Fenster geworfen. AMD kann nackte Rohleistung und setzt diese ungehäutet mit den Schrotkugeln auf den Teller der Kunden, während nvidia wenigstens daraus mit einer vorhandenen Küchenausstattung ein schmackhaftes Steak draus macht.

DarkerThanBlack schrieb:
Jetzt weiß ich es ganz genau. Hab zwar absolut nichts verstanden, aber wirst schon recht haben. 😆👍
Der Grafikchef von AMD, Herr Koduri leitet nun etwas länger die GPU Abteilung von intel und ich werde mich nach der AMD VEGA Bühnenvorstellung dieses Herrn bei intel bei der Vorstellung zurück halten. Nicht noch das im Nachhinein die brauchbaren intel IGPs völlig unbrauchbar werden.
Die ZEN APUs kommen mit VEGA GPU Architektur und warum die RDNA Architektur nicht zeitig in die APUs integriert wurden, zeigten letztlich sogar Adrenalin Treiber. AMD hat nicht das Personal für die vielen Baustellen, besonders, wenn man die knappen Entwicklungsressourcen konsequent für die Konsolen SoCs abgestellt hat, damit auch die Auftrageber Sony und Microsoft ohne Mängel beliefert werden können. AMD kann sich nicht leisten die erste Charge Konsolen SoCs auch bei der Treiberunterstützung mit irgendwelchen, gravierenden Mängeln bei beiden Kunden auszuliefern.

Berlinrider schrieb:
Über 20 Seiten wilde Spekulation über die Effizienz des Kühlers etc. ohne das es überhaupt ein finales Sample in die Hände eines Testers geschafft hat...ganz schön viel Freizeit unterwegs hier
Das passiert, wenn das AMD Marketing eine nichtssagende Renderkarte abliefert und die Kunden die auf das Produkt für ihre Kaufentscheidung warten für Spekulationen abgespeist werden. Auch ein Grund, warum eben solche News meinen Wunsch auf die nächste AMD Karte drosseln. Ich will keine Renderbilder, sondern Tatsachen für eine Kaufentscheidung.

mibbio schrieb:
Oder dann im Nachhinein feststellen, dass AMD doch das bessere Produkt hinsichtlich Preis/Leistung gebaut hat und sie jetzt wegen ihrer Ungeduld drüber ärgern, das "Falsche" gekauft zu haben.
Wenn man eine Leistung kauft, für die man bezahlen will, weil man davon überzeugt ist, kann sich AMD ärgern den Kunden nicht im Wettbewerb mit dem eigenen Produkt schnell überzeugt zu haben. Ich werde mich garantiert nicht mit einer RTX ärgern, wenn die Leistunsgwerte stimmen, weil AMD bis auf die RX5700 Leistunsgverdoppelung nicht mal die Tensorkerne innerhalb eines Jahres aus dem Ärmel schüttelt.


rentex schrieb:
520 Posts...wegen eines Renderbilds...
Weil es Interessenten für RDNA 2 Grafikkarten gibt und AMD nur Renderbilder abliefert.

Novasun schrieb:
NV arbeitet wohl wirklich an der Grenze. Die 3080 lässt sich auf der GPU kaum Übertakten...
Neuer Fertigungsprozess beim neuen Fertiger, damit neue Erfahrungen und das Letzte was nvidia jetzt verkaufen will, sind nicht haltbare Taktraten die die erwerbbare Leistung drosseln. Da denkt erstmal keiner bei nvidia an Premium Übertaktung, wenn man die Marktanteile gegenüber AMD halten und sogar steigern will.

thepusher90 schrieb:
Echt interessant von wie vielen "Guck-doch-mal-über-den-eigenen-Tellerrand"-Motzern hier gejammert wird über AMD-Marketing in Fortnite, dem vermutlich derzeit größten Hype Spiel überhaupt.
Der ZEN als Vergleich wird aber nicht mit Hype erfolgreich bleiben, sondern mit Bodenständigkeit bei den Kunden produktiv einsetzbar zu sein. Fortnite ist auch nicht die einzige Anwendung und wenn Morgen ein anderes Spiel viel mehr Spieler hat, aber die Radeon darin unerwartet abstinkt, dann war es mit dem Hype.
Kundenzufriedenheit endet nicht bei einem Spiel und heute kräht auch keine Schar an Spielern rund um QIIIArena.

cypeak schrieb:
....
ich finde den zeitpunkt ende oktober, einige wochen NACH den konsolen, doch einwenig spät.
Weil AMD als Konsolen SoC Zulieferer 100% Marktmonopol inne hat und nur liefern soll. Was will man da vielleicht mit höchstens 20% Radeon Marktanteilen schon früher an der Leistungsfähigkeit und Absatzwahrscheinlichkeit der Konsolen preisgeben? Hier haben Sony und Microsoft über RDNA 2 in den Konsolen das völlige Werberecht und das ist für AMD weit lukrativer, weil auch Fortnite auf der Konsole gespielt werden kann. Radeon wird ein Zubrot für AMD.

Thukydides schrieb:
Ich z.B. fahre Rennrad und da hat man verschiedene Fahrräder und holt sich auch gerne mal was neues für um die 3000€. Dann noch Hochprofilflegen für 1300€ das Paar, da kommt auch schnell was zusammen.
https://amdfanstore.com/amd-custom-mountain-bike/
So überzeugend wie AMD Radeon Produkte. Bei AMD kippt der Gegenwert zusehends, wenn man schon Fahrräder an seine treuen Kunden verkaufen will, wo schon allein gute Mäntel gerne 30€ das Stück kosten können.

DrFreaK666 schrieb:
.....
Es geht um Premiere Pro? Das ist genau genommen nur ein Benchmark
https://www.igorslab.de/workstation-grafikkarten-charts-benchmarks-tests-und-details/9/
Ändert trotzdem nichts an der GPGPU Leistung, weil AMD nicht die RDNA Treiber mal so schnell innerhalb von drei Monaten durch DNA Manipulation beschleunigen kann. Gaming oder OpenCL und die AMD Ressourcen sind sehr beschränkt, wenn man sich monatelang mit der grundlegenden Treiberpflege für die aktuellen Karten beschäftigt hat um Fehler auszuräumen.

catch 22 schrieb:
und ich dachte schon, nur ich hab eine Verständnisproblem...
War das Ursprungszitat an den sprechenden Minion gerichtet oder an wenn? Der Beitragsersteller, an dem es gerichtet war, hat von oberflächlichen Kontrastmarketing geschrieben, daher habe ich die längst bekannte Kontrastbeleuchtung an der Fleischtheke und Gemüsefach angesprochen, die lang genug durchgekaut ist um nicht weiter darauf rein zu fallen. Es sind keine neuen Erkenntnisse.

Da hier im Forum Vollzitate durch die Moderation ungern gesehen sind, muss man leider als Leser mit klar kommen den Bezugsbeitrag selbst zu lesen. Dann versteht man auch den Bezug.

Es gibt aber auch hier erneut erwähnt mehr Anwendungfälle, wo eine nvidia letztlich ihren Preis sogar für die 400€ wert ist.
https://ac.igorslab.de/workstation-grafikkarten-charts-benchmarks-tests-und-details/9/
Da muss man schon zur VEGA VII greifen, die aber beim Gaming nun mal nicht an vorderster Front steht. Farcry 5 New Dawn als Ausnahme für die Leistung der VEGA trifft nur nicht die Spieler, die kein FarCry spielen.
 
Der Nachbar schrieb:
Die ZEN APUs kommen mit VEGA GPU Architektur und warum die RDNA Architektur nicht zeitig in die APUs integriert wurden, zeigten letztlich sogar Adrenalin Treiber. AMD hat nicht das Personal für die vielen Baustellen,
Ob es an fehlender Manpower liegen mag, wird hier wohl kaum einer sagen können können. Nicht alles ist Fleißarbeit, manchmal reicht auch die zündende / rettende Idee einer einzelnen Person, z.B. wenn diese gerade einer existentiellen Frage auf der Keramik nachgeht.
Allerdings ist allgemein bekannt, dass solange DDR5 (als limitierende Faktor) verwendet wird, RDNA(2) als iGPU für Renoir nicht besser abschneiden würde, als Vega.

Der Nachbar schrieb:
War das Ursprungszitat an den sprechenden Minion gerichtet oder an wenn?
Nein, ich habe nicht mit @sprechenden Minion "gesprochen", ich sehe gerade, es gibt auch gar nicht einen Forenteilnehmer namens @sprechenden Minion.
Ich habe lediglich @DarkerThanBlack gegenüber zum Ausdruck gebracht, dass ich ebenfalls deinen (Wall of) Text ebenfalls nicht wirklich verstanden habe, und mein Unverständnis zu deinem Beitrag auch anhand eines Beispieles konkreter erläutert. Des weiteren habe ich erklärt, dass ich meinen Lese und Verständnis Versuch aufgegeben habe, so dass wir von einem klassischen TLDR sprechen können, was mir schon ein wenig peinlich ist. Weswegen ich halt dankbar bin, dass es nicht nur mir so ging.
Die Sache mit dem TLDR ist übrigens ein Schicksal, welches auch dein letzter Beitrag ereilt hätte, wenn dein Beitrag nicht der letzte zu diesem Zeitpunkt gewesen wäre und ich daher beim scrollen gesehen habe, dass du mich zitiert hast. Es wäre vielleicht hilfreich nicht x verschiedene Personen in einem Posting zu zitieren. Das macht einen Beitrag unangenehm lang
 
Der Nachbar schrieb:
Die ZEN APUs kommen mit VEGA GPU Architektur und warum die RDNA Architektur nicht zeitig in die APUs integriert wurden, zeigten letztlich sogar Adrenalin Treiber.
Zen-APUs kommen in erster Linie mit Vega wegen Time-to-Market. Eigentlich nicht schwer zu verstehen. Man plant und entwickelt Produkte nicht erst ein Jahr im Voraus und das Problem von iGPUs ist vor allem noch immer, dass sie massiv an der Bandbreite hängen. Was auch ein Grund dafür ist, warum Vega beim Sprung von Picasso zu Renoir kleiner geworden ist - es ist schlicht Ressourcenverschwendung und den Platz hat AMD dann lieber z.B. in mehr Kerne bei der CPU investiert.

Was vollkommen logisch ist, da mehr Kerne in vielerlei Hinsicht Vorteile bitten. iGPU X mit Architektur Y mag auf dem Papier potenter sein, aber wenn sie an der Bandbreite verhungert, dann hat man an der falschen Stelle Ressourcen verbraten.
 
  • Gefällt mir
Reaktionen: ArrakisSand und DrFreaK666
Zurück
Oben