News Teaser: AMD zeigt die Radeon RX 6000 mit RDNA 2

schon krass wie hier spekuliert wird XD. selbst die Leaks sind reine spekulation keiner weiß welcher chip das ist. kann ja zb. auch der PS5 oder Xbox GPU sein. Haltet doch alle mal den Ball flach am 28.10 wissen alle mehr. In den nächsten Wochen wird eh immer häppchen weiße etwas "geleakt" so ganz zufällig

P.s. und auch Igor bekommt seine Infos nur von den Boardpartner und die haben selber keine Infos. Deshalb spekuliert er auch nur. AMD Hüllt sich in schweigen und das ist gut so. NV Preise momentan zeigen einfach nur wie man die Leute mit RTX20xx Karten über den Tisch gezogen hat. Von daher war die Entscheidung ganz gut eine RX5700XT zu kaufen ;)
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Fighter1993, Inxession und Tanzmusikus
Zertruemmerdog schrieb:
was lässt dich zu dieser Schlussfolgerung? Ich kann mal dagegen halten, dass die neue Konsolengeneration komplett auf RDNA2 aufbaut und entsprechend im Vorteil gegenüber Nvidia sein wird(könnte).
Wie bei der alten konsolen generation und vega? Hoffe das wird kein poor volta pr desaster. Amd ist ja jetzt schon etwas zurück gerudert und hat gemeint dass der hype etwas zu hoch ist und die erwartungen nicht ins unendliche steigen sollten.
 
aldaric schrieb:
Also Ampere traut man eine Steigerung zu, aber RDNA2 nicht, obwohl Taktbereinigt RDNA1 schon minimal vor Turing war ?

Wer wird denn mit deiner Frage adressiert? Zitat? Kontext?
RDNA war noch vor Turing, die waren gleichauf pro Shader, zudem ist das nun wirklich keine entscheidende Metrik, weil Nvidias SM noch mit Tensor und RT Cores gestreckt war und AMD ein Jahr später kam.

aldaric schrieb:
Einige Leute muss man nicht verstehen.

Wer ist denn mit "Leute" gemeint? Ich sehe keine derartige Aussage.

aldaric schrieb:
Wer hier auch glaubt, dass nVidia zu Release genügend Karten hat, der lebt auch noch in einer Traumwelt.

Das ist unter anderem einer der Gründe, warum es besser ist früher zu releasen.
Kann ja sein, dass Nvidia höhere Stückzahlen bringt, und AMD dieses Jahr nur noch wenige, oder umgekehrt.
 
Über 20 Seiten wilde Spekulation über die Effizienz des Kühlers etc. ohne das es überhaupt ein finales Sample in die Hände eines Testers geschafft hat...ganz schön viel Freizeit unterwegs hier :D

Spekulatius im Spätsommer hat aber was ;)
 
@w0mbat

Ändert trotzdem nichts daran das RDNA2 mit GDDR6 kommen wird. ;)

Vielleicht wird es im professionellen Bereich nochmal was mit HBM2 Speicher geben mit RDNA2 das kann sein.
 
Adzz schrieb:
Amd ist ja jetzt schon etwas zurück gerudert und hat gemeint dass der hype etwas zu hoch ist und die erwartungen nicht ins unendliche steigen sollten.

Quelle?

AMD hat bis her lediglich gesagt das sie eine High End Karte für 4K Gaming bringen. Wüsste nicht das man da zurück gerudert ist.
 
  • Gefällt mir
Reaktionen: Fighter1993
aldaric schrieb:
Also Ampere traut man eine Steigerung zu, aber RDNA2 nicht, obwohl Taktbereinigt RDNA1 schon minimal vor Turing war ?

Einige Leute muss man nicht verstehen.

@Adzz

Gerne kannst du mich zitieren. Aber weder bei Pascal, noch bei Maxwell, waren die Rekordverkäufe kurz nach Release. Sondern immer erst weit weit danach.

Wer hier auch glaubt, dass nVidia zu Release genügend Karten hat, der lebt auch noch in einer Traumwelt.
Nunja, das problem wird amd ja auch haben. Wenn die FE im dezember rauskommt und customs dann im Januar ist das schon eine sehr lange zeit in der nvidia sehr viele neue karten produzieren kann. Es ist einfach blöd für amd das es nicht schneller ging. Aber ich werde denoch warten weil 10 gb mir nicht genug sind. Wenn amd nicht abliefert dann halt nächstes jahr zen 4 mit einer 3080 20gb variante.
 
KurzGedacht schrieb:
Warte erst mal ab ob Nvidia nicht morgen dein Vertrauen verspielt.
Es gibt da so Vögelchen die wenig erfreuliches zwitschern.

Auf diese "Gerüchte" gebe ich generell nicht viel. Aber sollten die neuen Karten nicht leisten was versprochen / erwartet wird, wird eben auch da nicht gekauft. Das ist völlig unabhängig vom Hersteller !
 
Sieht letztlich wie eine Grafikkarte Typ X Y Z aus. Letztlich machts nur der Chip und von dem sieht und liest man ja noch nix oder ?
 
@xexex

Eher kritisierst du weil es von AMD kommt denn es gibt genug Custom Designs bei denen es ähnlich umgesetzt wurde und selbst nvidias FE besaßen einen Schriftzug an der vergleichbaren Stelle, was dir aber offensichtlich egal ist.
Man sieht sogar in dem Rundflug aus #133 das im Gegensatz zum VII Kühler unter dem Schriftzug Platz für die Abluft ist, was du aber abstreitest.
Dort könnte man sogar sehen das bei den Stromanschlüssen Abluft entweichen könnte.
Unbenannt.JPG
Unbenannt2.JPG

Des weiteren gab es dieses Durchluft Design bereits bei Custom Designs der Vega Karten, was aber offensichtlich erstaunlich wenig zur Kenntnis genommen haben.

Damit bleibt die Frage was du wirklich bezwecken willst.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
und für die NV Jünger und Fornite hasser... hier noch Mal Keynote Folie 5 der NV Präsentation ;)
 

Anhänge

  • Keynote_Page_05.jpg
    Keynote_Page_05.jpg
    209,8 KB · Aufrufe: 386
  • Gefällt mir
Reaktionen: Setting und cele
duskstalker schrieb:
mir gehts hier nicht mal um die leistung. gddr ist einfach ein technischer rückschritt zur budgetlösung und big navi wird mit abstand die teuerste gaming gpu, die amd jemals angeboten hat. das macht die karte potentiell im vergleich zu fury, vega und radeon 7 irgendwie langweilig & uninteressant - RDNA2 wird viel konkurrenzfähiger sein als die anderen karten, aber gleichzeitig verliert das ding durch den womöglichen rückschritt beim speicher ungemein an sexappeal.

nein. einfach nur "nein!".
gddr6 ist keine "budgetlösung" - wer sagt das?
die karte muss nicht "aufregend" oder "interessant" sein und sie muss auch kein" sexappel" haben -sie muss zum angestrebten preispunkt ordentlich performen ohne die lautstärke eines hubschraubers zu haben.
ob sie das mit gddr6 oder gddr6x oder gar hbm macht, ist gänzlich uninteressant.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: .Sentinel. und Benji18
Wadenbeisser schrieb:
unter dem Schriftzug Platz für die Abluft ist, was du aber abstreitest.

Du solltest meine Beiträge auch zu ende lesen, bevor du dich wieder getriggert fühlst.
Ich habe aber auch nicht gesagt, die Kühlung der AMD Karte wäre für den Eimer, man muss sich allerdings mehr als nur das eine Bild anschauen, um es halbwegs beurteilen zu können.


Wadenbeisser schrieb:
Des weiteren gab es dieses Durchluft Design bereits bei Custom Designs der Vega Karten, was aber offensichtlich erstaunlich wenig zur Kenntnis genommen haben.

Das ist richtig, dort konnte man ebenfalls ein kurzes Board einsetzen, weil AMD auf HBM gesetzt hat. Die Lösung einiger Partner war dort mehr als gelungen, ist hier aber nun leider nicht der Fall.
1600164372560.png

https://www.xfxforce.com/gpus/amd-radeon-tm-rx-vega-56-hbm2-8gb-3xdp-hdmi-double-dissipation
 
Zuletzt bearbeitet:
Shoryuken94 schrieb:
Die Aussagen sind kindischer als die Zielgruppe von Fortnite.
Professionell wäre wohl ein direkter Teaser ins Computerbase Forum. Bekanntlich der Nabel der Welt wenn es um Grafikkarten und dessen Absatz geht. :rolleyes:

AMD gibt das Design auf Twitter frei und ermöglicht es in einem Game die Rendergrafik mit eigenen Augen anzusehen.
Natürlich volles Bullshit. Lieber 100 Fotos von unfertige Kühler durch Chinesen.

Man merkt einfach wie manche sich auf eine Grafikkarte schon eingeschosden haben und bereit sind eine Summe auszugeben. Natürlich ist dann alles andere scheiße, weil selbdt trifft man nur die besten Entscheidungen.
 
  • Gefällt mir
Reaktionen: Benji21, eyedexe, Selber und 5 andere
2x 8 Pin Stromanschlüsse? Dann wird die Karte vermutlich wohl auch ordentlich Strom futtern wollen. Schade, ich hatte eher auf ein Sparsames Modell gehofft.
 
Mister L. schrieb:
2x 8 Pin Stromanschlüsse? Dann wird die Karte vermutlich wohl auch ordentlich Strom futtern wollen. Schade, ich hatte eher auf ein Sparsames Modell gehofft.
Die chipfläche ist verdoppelt. Selbst wenn die architektur im idealfall 50% effizienter geworden ist müssen sie im raytracing und dlss nachziehen. Dafür müssten auch noch viele extra kerne drauf. Das alles verbraucht halt Strom.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Mister L. schrieb:
2x 8 Pin Stromanschlüsse? Dann wird die Karte vermutlich wohl auch ordentlich Strom futtern wollen. Schade, ich hatte eher auf ein Sparsames Modell gehofft.
Wenn die shader verdoppelt werden, raytracing usw alles noch dazu kommt mit was hast du da gerechnet? Mit 1x 8pin bei 5.000 Shader und 150W TDP? ach Leute...
 
  • Gefällt mir
Reaktionen: Tanzmusikus
stevefrogs schrieb:
Hübsch ist sie ja, aber wie war das noch gleich mit den hübschen Töchtern anderer Mütter?
Ich prüfe erst die Leistung, bevor ich auf die Hübschheit achte. Bewahrt hier wie dort vor Problemen:)
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Ich habe mit gar nichts gerechnet. Woher auch? Ich habe kaum Informationen über die RX6000er Serie. Ich hatte zumindest gehofft das es 1x 8 und 1x 6 Pin ist. Mich nteressiert sehr wohl die Stromaufnahme meines Systems. Aber solche diskussionen habe ich schon bei RTX3000 gelesen gehabt. Und irgendwelche Gerüchte lese ich prinzipiell nicht mehr. Das internet ist voll von solchen scheiß.
 
Mister L. schrieb:
Schade, ich hatte eher auf ein Sparsames Modell gehofft.
Das wird sicherlicht das Modell vom oberen Ende der Skala sein. Nach unten hin werden da mit Sicherheit auch noch kleinere kommen mit weniger Leistungsaufnahme.

Und eher allgemein, finde ich es schon witzig, dass die 2 Stromanschlüsse bei AMD direkt wieder ein KO-Kriterium ist, während die Leute auf der anderen Seite Nvidia die Karten mit 3 Anschlüssen am liebsten aus der Hand reißen würden. Fällt aber immer wieder auf, dass bei AMD zuerst auf den Verbrauch geguckt wird, es bei Intel oder Nvidia dann aber eher heißt "egal, was es verbraucht, Hauptsache ist am schnellsten".
 
  • Gefällt mir
Reaktionen: DerKonfigurator, fLo547, Hatch und 7 andere
Zurück
Oben