News Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2

AMD wird der Verlierer sein, und zwar deutlich, leider. In der CPU Sparte der Aufsteiger, in der GPU Sparte der Absteiger, da es ein langsamer Abstieg ist, und bei Intel ein langsamer Anstieg der GPU Sparte, werden sie sich eines Tages kreuzen und Intel wird AMD bei den GPUS überholen.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Inxession schrieb:
Kommt Raytracing ins Spiel bricht BigNavi dann drastisch ein. Aber, es ist ja die 1. Gen RT bei AMD.
Somit bleibt abzuwarten wie RT unter RDNA2 performt.

Abwarten und tee trinken, nur weil man RT Cores dezidiert hat heißt das nicht das die Shader nicht auf die RT Berechnungen warten müssen somit bin ich mir auch nicht sicher ob AMD mit dem Shader RT nicht ähnlich gute Ergebnisse erzielen wird wie Nvidia.
 
  • Gefällt mir
Reaktionen: KlaraElfer
@Mister L.

Die Warscheinlichkeit ist hoch das sie nicht mehr als die geforce Modelle mit ihren 320W und mehr fressen werden. ;)
Ich tippe mal auf etwas um die 300W und damit sparsamer als die Konkurrenz.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Zertruemmerdog schrieb:
was lässt dich zu dieser Schlussfolgerung? Ich kann mal dagegen halten, dass die neue Konsolengeneration komplett auf RDNA2 aufbaut und entsprechend im Vorteil gegenüber Nvidia sein wird(könnte).

Ich meine gelesen zu haben das RT bei RDNA2, Teile der "normalen" Pipes nutzt und nicht wie bei nVidia, separate Tensor Cores.

Damit bleibt natürlich weniger Ressource fürs Rastern übrig ...

Die Konsolen werden ebenso arbeiten.

Lass mich natürlich eines besseren belehren.

KurzGedacht schrieb:
Es sind keine +30% Raster-Leistung. Nicht mal annähernd.

Laut nVidia schon. Lassen wir uns auch hier, eines besseren belehren.
 
  • Gefällt mir
Reaktionen: .Sentinel. und KlaraElfer
scootiewolff22 schrieb:
AMD wird der Verlierer sein, und zwar deutlich, leider.
Und auf Basis welcher objektiven Daten beruht die Feststellung, oder ist das nur Wunschdenken beim Blick in die Glaskugel?
 
  • Gefällt mir
Reaktionen: Setting, Orok91, cookie_dent und eine weitere Person
Mister L. schrieb:
Ich hatte zumindest gehofft das es 1x 8 und 1x 6 Pin
Ja das wird vermutlich bei den kleineren RDNA2 Karten realisierbar sein aber sicherlich nicht bei Big Navi. Wie soll das auch gehen ? Das war doch von Anfang an klar das big Navi mindestens 2x 8Pin hat.
 
  • Gefällt mir
Reaktionen: KlaraElfer
papa_legba schrieb:
Absolut amateurhaft in einem Spiel mit 350 Millionen registrierten Spielern und mehreren Millionen gleichzeitig online, Werbung zu machen. Ironie Ende
Wieviele Spielen es denn täglich am PC? Weiß keiner weils Epic nicht sagt und der Epic Store das auch in 10 Jahren nicht anzeigen können wird. Lt. Klage gegen Apple existieren aber 1/3 aller Accounts auf IOS.

Ebu85 schrieb:
und für die NV Jünger und Fornite hasser... hier noch Mal Keynote Folie 5 der NV Präsentation ;)
Böse Zungen könnten behaupten so kann auch eine RX6000 richtiges Raytracing...

3 Lüfter bei AMD... ...wobei das hatte die Radeon VII auch. Bin auf die Lautstärke und Temperatur gespannt.
Nachdem bei den Tests immer das Referenzdesign getestet wird hat da AMD es sich immer unnötig schwer gemacht.

Mehr als die Leistung der neuen AMD Karten interessiert mich eher ihre Raytracing Lösung und Fidelity FX.
 
  • Gefällt mir
Reaktionen: KlaraElfer
@mibbio

Das verallgemerst du jetzt. Auch bei Nvidia gabs bei den RTX3000 von einigen Leuten Kritik über den Stromverbrauch. Auch ich kritisiere es dort, zumindest oberhalb der RTX3070, denn da ist bei mir die schmerzgrenze erreicht. Ich wünsche mir einen Mittelweg zwischen verbrauch und Leistung. Dies bot mir bisher die GTX1080 ganz gut. Bei der nächsten Gen wäre es auch wünschenswert gewesen, aber da nun beide Firmen ihre Karten mit RT vollstopfen, geht es wohl nicht anders, als den Stromverbrauch zu steigern.
 
  • Gefällt mir
Reaktionen: KlaraElfer
scootiewolff22 schrieb:
eines Tages kreuzen und Intel wird AMD bei den GPUS überholen.

Fun Fakt der größte GPU Produzent ist Intel jetzt schon ;-)
Die sollen erst mal ordentliche Treiber Rausbringen die Intel Treiber sind erfahrungsgemäße Grütze
 
  • Gefällt mir
Reaktionen: KlaraElfer
Na, da ist doch das was die meisten wollten, AMD generiert Aufmerksamkeit fuer die eigenen Karten vor dem Nvidia Launch. Aber das ist auch wieder nicht recht...

Auch wenn ich Fortnite nicht mag, vom Marketing her ist es genial. Grosse Playerbase addressiert die selber eher weniger in Techforen unterwegs sind und Mund zu Mund Propaganda betreiben. Gleichzeitig ist die News auf allen Techforen und die Leute werden auch angesprochen. Also hier hat man wirklich das maximale rausgeholt mit minimal Aufwand. Die, die sich jetzt darueber aufregen werden so oder so Nvidia kaufen, um die ist es nicht schade.

Rein technisch gesehen kommt natuerlich nicht viel, das wird fuer den 28. Oktober aufgespart, sollte aber klar sein. Oder hat Nvidia das anders gemacht? Die Spekulationen dazu sind aber amuesant zu lesen.

Kurz gefasst: AMD ist in aller Munde. Job erledigt.

Was ich aber auf der Software Seite noch hoffe ist bessere Unterstuetzung fuer ML, gerade die grossen Frameworks. Das ist leider immer noch ziemlich nervig bei AMD. Aber gut, hier werden jetzt eh erstmal die Gamer adressiert.
 
  • Gefällt mir
Reaktionen: Zwenki, Tanzmusikus, Orok91 und eine weitere Person
Design sieht gut aus. Grafikkarte halt mit 3 Lüftern. Ich hoffe die ist in der Lautstärke angenehm.

Was ich hier nicht verstehe ist das viele wegen Fortnite nun auf AMD rumhacken. Fortnite hat weltweit derzeit 350 Mio. registrierte Spieler. EPIC macht immer noch massive Geld mit dem Spiel. Zu behaupten, Fortnite spielt keiner mehr und weiteres bla bla bla ist m.M.n. mehr Kindergarten als Fortnite selbst. Selbst nvidia wirbt mit Fortnite.

Ich bin nur gespannt inwiefern RT die neuen AMD Karten es können und wie die Performance ist. Ob Oktober oder November ist mir echt egal. Wird gekauft was gut ist, und so lange kann ich warten.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und KlaraElfer
scootiewolff22 schrieb:
AMD wird der Verlierer sein, und zwar deutlich, leider. In der CPU Sparte der Aufsteiger, in der GPU Sparte der Absteiger, da es ein langsamer Abstieg ist, und bei Intel ein langsamer Anstieg der GPU Sparte, werden sie sich eines Tages kreuzen und Intel wird AMD bei den GPUS überholen.

Das ist ein mögliches Szenario - entstammt aber in seiner Formulierung als Zukunftsvorhersage lediglich deiner privaten Glaskugel. Niemand weiß, wie gut Intels GPUs und vor allem die dazugehörigen Treiber sein werden. Genauso wenig ist derzeit bekannt, wie leistungsstark RDNA2 genau ist und wie schnell AMD RDNA3 wird entwickeln können.

Ja, gerade zeitlich hängt AMD mit seinen Releases seit Jahren hinterher, nur um dann leistungsmäßig dann nicht gleichziehen zu können, das ist schon korrekt. Mit RDNA hat die Aufholjagd aber ja nun einmal gerade erst begonnen - und auch die Zen war zunächst nicht die enorme Waffe, die Zen 2 nun ist.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Skjöll, KlaraElfer und eine weitere Person
Inxession schrieb:
Ich meine gelesen zu haben das RT bei RDNA2, Teile der "normalen" Pipes nutzt und nicht wie bei nVidia, separate Tensor Cores.

Damit bleibt natürlich weniger Ressource fürs Rastern übrig ...

Die Konsolen werden ebenso arbeiten.

Lass mich natürlich eines besseren belehren.



Laut nVidia schon. Lassen wir uns auch hier, eines besseren belehren.
Kann ich mir nicht vorstellen. Sie werden schon raytracing kerne verbauen. Sonst ist es klar das sie die nächsten jahre kein gegenstück zu dlss herausbringen. Für ki deeplearning und echtzeit raytracing berechnung sind die normalen kerne nicht schnell genug.
 
  • Gefällt mir
Reaktionen: KlaraElfer
mal unabhängig von der Leistung - hoffen wir mal das AMD bzw. die Partner es auch schaffen die Karte(n) vor dem Weihnachtsgeschäft in die Regale zu bringen, war in den letzten Generationen leider oft ein Problem
 
  • Gefällt mir
Reaktionen: KlaraElfer
Der Merowinger schrieb:
AMD kommt viel zu spät, bis dahin hat nVidia schon die meisten derer neuen GPUs verkauft

Viele Early-Adopter wird Nvidia abgreifen, ja. In ihrer Gesamtheit ist diese Aussage dennoch Unsinn.
 
  • Gefällt mir
Reaktionen: Zwenki, Schorsch92, greeny112 und 5 andere
@Adzz
laut Infos wandert die RT Berechnung in den Shader somit ist das RT ein teil der Shaderfeatures

laut MS hat die Xbox X maximal 13Tflops RT Leistung das wäre insofern ziemlich beeindruckend da wir hier von 52CUs sprechen würden ob das tatsächlich stimmt abwarten auf echte benches.

und auch wenn die RT Kerne bei NV dezidiert Arbeiten so warten Sie nachwievor auf Berechnungen der RT Kerne bzw. müssen auch Berechnungen für diese machen, das wird sich auch mit den Aktuellen RTX 3000 nicht ändern.

Die AMD Variante wäre hier demnach nur effizienter weil man sich dezidierte Kerne einspart und somit wertvolle Chipfläche anderweitig verplanen kann.
 
  • Gefällt mir
Reaktionen: KlaraElfer
@xexex

Mit anderen Worten du willst mittels schüren von irgendwelchen Ängsten und der Forderung nach überzogenen Erwartungen sicherstellen das möglichst wenig User die Tests der Karten abwarten und möglichst viele gleich die neuen Geforce Karten kaufen.

Es gibt immer einen stärkeren Kühler der einen leiseren Betrieb ermöglichen könnte, alles eine Frage des Preises aber definitiv nicht die Aufgabe des Referenz Modells. Das zu unterbieten ist Aufgabe der Custom Designs.
Im übrigen dürfte es einen recht einfachen grund für nvidias Design Entscheidung geben, die Dinger fressen deutlich mehr als die alten FE TIs und benötigen eine entsprechend starke Kühlung um zumindest auf ähnliche Lautstärke Werte zu kommen.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Wadenbeisser schrieb:
Mit anderen Worten

Erzählst du wieder Blödsinn.
Wadenbeisser schrieb:
Es gibt immer einen stärkeren Kühler der einen leiseren Betrieb ermöglichen könnte, alles eine Frage des Preises aber definitiv nicht die Aufgabe des Referenz Modells.

Mit dem Referenzmodell werden so gut wie alle Magazine testen und die Karte wird sich mit den anscheinend sehr durchdachten Nvidia FE Modellen messen müssen.
 
  • Gefällt mir
Reaktionen: KlaraElfer
Zurück
Oben