News Next-Gen-Radeon: Foto eines möglichen Prototyps der Radeon RX 6000

Ich persönlich warte gar nicht auf einen 3080 oder 3090 konter. Gerne was performantes aber nur ~200W Jetzt ne 5700 oder 5700XT ist mir doch zu teuer bei den noch aktuellen Preisen...

Ist bei NVidia Sourroundview mit ungleichen Auflösungen eigentlich immernoch nicht möglich? Eyefinity funktioniert ja erstaunlich gut mit gemischten Auflösungen.
 
TigerNationDE schrieb:
Finde den AMD Ansatz irgendwie eh mega schwierig. Da haut nVi nun einen raus, und die warten erstmal bis Ende Oktober um dann mal was zu bringen. Entweder hat man den totalen Hit, oder man hat einfach gar nichts und will jetzt nicht doof da stehen.

Hätten Sie echt einen Hit, würden sie mehr ankündigen, als eine Ankündigung, wo dann wiederum wirklich etwas angekündigt wird. Alles andere ist marketingtechnisch einfach nur ein GAU. Auch wenn einige sich das gerne als Taktik schönreden wollen, dass nichts kommt.
Ende Oktober kommt dann die große Ankündigung, dass man ein paar Wochen später Referenz kaufen kann und Partnerkarten kommen dann wann? 2021. Und da darf man dann auch noch auf Tests warten, ob die Karten wenigstens diesmal die Leistung bringen, die sie eventuell versprechen.
Alles wie immer. Da steckt schon nen halbes Jahr ne NVIDIA in der Kiste. Läuft.
 
Zuletzt bearbeitet:
Also es wird immer schlimmer hier im Forum, Leute lest einfach mal den Artikel zu Ende. Am Ende ist jeder zweite Kommentar deswegen ein Troll weil die Leute es net blicken bzw. zu Faul sind den Artikel zu lesen.

1. Der Staub macht die Sache weder authentisch noch unauthentisch, je nachdem wo das Bild entstanden ist. Das Bild kommt mit Sicherheit nicht von AMD, es kommt von irgendeinem Partner und ich bin sicher dass das Bild nicht für die Öffentlichkeit bestimmt war. Seit wann muss ein Gehäuse staubfrei sein? Funktioniert deswegen die Grafikkarte schlechter? Man, man, man, was für vorstellungen die Leute haben. Als ob das Gehäuse in einem "Labor" (In einem richtigen Labor gibt es quasi keinen Staub, alles andere sind Labore weil die Leute das so nennen).

2. Es geht wahrscheinlich nicht um navi 21 sondern navi 22. Also das ganze rumgeheule von wegen die Karte ist zu schwach ist obsolet.

3. Es ist ein Leak, keine gesicherte Information.

Benutzt bitte euer Hirn zum denken, und postet nicht reihenweise so einen Schwachsinn.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Blueztrixx, gongplong und 12 andere
Matthias80 schrieb:
Wollte schon sagen gutes Auge...
Aber nee die Heat Pipe Anordnung...
Kann der Küphler ned sein...

MfG

Stimmt schon, in der Perspektive etwas schwierig zu bestimmen.
Aber eine potente Kühlung wird da nicht dahinterstecken. Vielleicht max. für 150 TDP ausgelegt.
 
Matthias80 schrieb:
Aber weil die "Hardware" die gleiche ist, werden die Spiele einfach gut laufen.

Wieder diese Geschichten ausm Paulanergarten... Auch in den alten Konsolen steckt bereits AMD in Form von GCN in den verschiedensten Ausbaustufen. Und es hat sich über die letzten 7 Jahre da nicht viel getan. Wie immer liefen einige Spiele auf AMD Hardware besser, einige auf Nvidia. Wirklich einen großen Einfluss konnte man her nicht sehen und das wird sich wohl auch mit der neuen Generation nicht groß ändern.

modena.ch schrieb:
Navi 10 (RDNA1) ist nur ein 250mm2 Chip und pisst einer 445mm2 2070/ 545mm2 2070 Super an den Karren.
Was wäre wohl los gewesen wenn AMD davon eine Karte mit doppelten Shadern und grösserem SI gebracht hätte?

Milchmädchenrechnung. Du vergleichst hier einen 16nm Chip mit einem 7nm Chip. Das sind 2 Full Nodes die dazwischen liegen. Das ist ein Full Node Sprung, der dazwischen liegt. Im gleichen 7nm Verfahren wäre der Chip der 2070 Super auch nur ca 330mm² groß gewesen. Und an den Karren pissen? Na ja. Die zusätzliche Chipfläche wird für zusätzliche Fubktionen genutzt, die die 5700Xt nicht kann. Ein weiterer Punkt, die 2070 Super nutzt einen beschnittenen Chip. In der 2080 Super siehst du, was der größere Chip wirklich kann.

Und was wäre passiert, wenn AMD den Chip doppelt so groß gemacht hätte? Sie hätten einen unkühlbare Missgeburt geschaffen. Die 5700XT kommt schon auf 225 Watt. Mit doppelter Shaderzahl, doppeltem Soeicher und breiterem Interface liegen wir dann plötzlich bei 500+ Watt. Man hätte also extrem am Takt drehen müssen, damit man einen annähernd nutzbaren Chip erhält. Da die Leistung auch nicht linear skaliert, hätte man wohl die Wahl zwischen einem Big Chip der nicht an die 2080Ti rankommt gebaht oder einen Big Chip der zwar die 2080Ti schlägt, aber am verglühen. Zumal die 7nm Fertigung ziemlich teuer ist. Der 500mm² Chip wäre auch in der Fertigung deutlich teurer als die 2080Ti gewesen.

So einfach funktioniert das ganze halt nicht, wie sich manche das vorstellen...

The Mechanic schrieb:
Vielleicht max. für 150 TDP ausgelegt.

Bei ES ist das schwer abzuschätzen, da wir die Konfiguration nicht kennen. Gerne Takten die Samples deutlich niedriger. Wenn die Karte auf dem bild z.B. bei einem Entwickler im Rechner steckt der die Treiber dafür schreibt, muss nicht der volle Takt anliegen. Von daher würde ich noch keine festen schlüsse ziehen, Könnte sein, muss es aber nicht. Für eine 150 Watt GPU hätte man aber wohl eine völlig andere Stromversorgung gewählt... Aber mal abwarten. Vielleicht ist es auch eine 150 Watt Einstiegs GPU / Mittelklasse
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus, NMA, estros und eine weitere Person
Averomoe schrieb:
Nein, weil das die Leistungsaufnahme sprengen und sehr viel Chipfläche bedeuten müsste. Höchst unwahrscheinlich.

Seit wann hat das Interface einen hohen Impact auf die Leistungsaufnahme? Wäre mir total neu.
512 Bit ist teuer in der Umsetzung und führt eher zu "Platzproblemen" im Platinenlayout. Meines Wissens. und das will man eher verhindern. Natürlich muss das auch der GPU Chip "können". Okay - bezieht sich deine Aussage auf den GPU Chip?
 
Weitere Leaks von Big Navi
5738b54dda4a1cf6.jpeg
 
  • Gefällt mir
Reaktionen: Blueztrixx, Blumenwiese, gongplong und 22 andere
Adzz schrieb:
Doppelt so groß bedeutet nicht doppelt so schnell in Anwendungen und Spielen.

Das hat keiner gesagt. Aber normal funktioniert es eben schon so. Mehr Ausführungseinheiten, mehr
Speicherbandbreite ergibt mehr Leistung. Ne 100% Skalierung erwartet keiner. Aber 50-70% sind drin.
Dann wären wir aber immer noch bei RDNA1 und hätten ne 2080TI / evtl 3070 schon weit hinter uns gelassen.
 
Marcel55 schrieb:
Sagt jetzt nicht so viel aus.

Bitte AMD nicht wieder so ein Radial-Kreischlüfter beim Referenz-Design, ich weiß nicht ob ihr das absichtlich macht um die Boardpartner nicht zu verprellen, aber eine Karte die schon von Haus aus mehr als 40dB beim zocken raus haut geht gar nicht.

Gab schon ne Aussage - von Su? - es wird kein Radiallüfter werden.
 
  • Gefällt mir
Reaktionen: Benji18
The Mechanic schrieb:
Stimmt schon, in der Perspektive etwas schwierig zu bestimmen.
Aber eine potente Kühlung wird da nicht dahinterstecken. Vielleicht max. für 150 TDP ausgelegt.
Naja wenn der Lüfter ne 9000rpm Turbine ist geht da mehr...
Aber ja sicherlich.
Wobei es um niedriger getaktete Samples geht... da geht es nicht um max. Leistung und Temperatur.

MfG
 
gidra schrieb:
Bei welchen GK ab 1000er Reihe hat die Speicherbandbreite nicht ausgereicht ? Gibt es überhaupt einen Verfahren, mit dem man testen könnte ? Weil es ja stehts ein Argument ist, wie auch hier.
Die 1070Ti war, soweit ich weiß, sehr stark durch die Bandbreite limitiert. Vom Design her schon.
Shoryuken94 schrieb:
Du vergleichst hier einen 16nm Chip mit einem 7nm Chip. Das sind 2 Full Nodes die dazwischen liegen.
EIN Full-Node Shrink. TSMCs N7 ist eine Node kleiner als der N16. Die N10 waren eine Half-Node, weswegen Intel ja auch anders zählt.
 
  • Gefällt mir
Reaktionen: Shoryuken94
Ich frage mich echt, was die "Redaktion" für Erwartungen hat? Alle waren von Nvidia und dem Leistungssprung gegenüber der 2080Ti überrascht und jetzt erwartet man allen Ernstes, dass AMD, die bislang nicht mal mit der 2070S! konkurrieren konnten, dass sie mit der 3080 konkurrieren? Das würde mich doch sehr überraschen. Ich fürchte hier eher den nächsten Fail von AMD, die bestenfalls an eine 3070 rankommen könnte und dann mit 16GB prahlt, die dann unmittelbar durch Nvidia wieder gekontert werden (3070(S) 16GB; 3080(S) 20GB).
 
  • Gefällt mir
Reaktionen: Ashnacl
Matthias80 schrieb:
Ich hoffe wenn man dich beim Wort nehmen kann. Du in diesem Moment deine Nvidia zertrittst!
Weil du hattest ja sicherlich nur vergessen, das Nvidia hier nicht Pince Charming ist.
Bringst du da jetzt irgendwas durcheinander? Ich habe doch nur auf die Aussage von AMD verwiesen, aus der man schließen könnte, dass sie im Highend konkurrieren wollen. Ich hab weder Nvidia noch AMD in irgendeiner Weise bewertet.
 
Colindo schrieb:
Die 1070Ti war, soweit ich weiß, sehr stark durch die Bandbreite limitiert. Vom Design her schon. ...
Wirklich ? Wo gibt es den Tests die die Speicherbandbreite testen ? Mir persönlich ist keine Möglichkeit bekannt. Euch offensichtlich schon, nur wollt ihr nicht verraten woher.
 
ich seh es jetzt schon kommen.. irgentwo zwischen 3070 und 3080.. wobei eher richtung 3070...

mächtige 16gb Vram die zwar in der Theorie geil klingen.. aber dann nur mit mageren 256bit angeschlossen sind.. bei der kleineren Karte dann dementsprechen 12gb Ram und 192bit interface

von der Theorie vielleicht ein potenter Chip (5700xt x2 + architexturänderung) der dann gnadenlos am Speicherinterface verhungern wird
 
Smartin schrieb:
Ich fürchte hier eher den nächsten Fail von AMD, die bestenfalls an eine 3070 rankommen könnte

...und das mit über 300Watt wahrscheinlich. Ne is klar. Wenn du nicht auf AMD warten willst dann kauf NVidia aber schreib hier keinen Dummfug. Eine 3070 = 2080ti ist schon alleine dadurch erreichbar wenn AMD die 5700XT verdoppelt.

@ Über mit...

Und noch so einer... Klar hat AMD noch nie Grafikkarten hergestellt und hat daher keine Ahnung vom Bandbreitenbedarf seiner GraKas. Wenn NVidia hingegen ein 192Bit Interface bringt, dann kräht kein Hahn danch.

Oh Mann, die Posts hier werden immer peinlicher, wird Zeit den Thread zu schließen
 
  • Gefällt mir
Reaktionen: gongplong, Hardwarious, Acedia23 und 3 andere
mibbio schrieb:
Bringst du da jetzt irgendwas durcheinander? Ich habe doch nur auf die Aussage von AMD verwiesen, aus der man schließen könnte, dass sie im Highend konkurrieren wollen. Ich hab weder Nvidia noch AMD in irgendeiner Weise bewertet.
Hatte deinen Beitrag negativ für AMD verstanden... Auf einer Art wo nvidia nun nicht besser da steht...

Mfg

Edit.
Hast du editiert?
vielleicht hab ich falsch zitiert. Moment.

Edit2.
Habs raus genommen. Muss was falsch gelaufen sein... Finde das gar ned mehr... 😣

Sorry
 
Zuletzt bearbeitet:
modena.ch schrieb:
Aber 50-70% sind drin.
Dann wären wir aber immer noch bei RDNA1 und hätten ne 2080TI / evtl 3070 schon weit hinter uns gelassen.

Aber zu welchem Preis? Eine 450 - 500 Watt Karte die etwas schneller als eine 250 Watt 2080Ti ist, wird auch nicht gerade ein tolles Produkt. Realistisch hätte man den Takt dann auch stark gegenüber der 5700XT senken müssen, womit man ganz fix wieder kräftig Leistung verliert. Mit 375-400 Watt hätte man dann vielleicht die 2080Ti erreicht, allerdings hätte man dann auch eine deutlich teurere Karte. Nvidia hätte dann einfach den Preis gesenkt oder die 2080Ti Super gebracht (die es in der GeForce Now Cloud ja gibt).

Hätte AMD die Möglichkeiten gehabt, hätten Sie es gemacht. Aber nach einigen berichten hat AMD einen größeren Chip auf RDNA Basis aufgrund der Leistungsaufnahme eingestellt und nicht gebracht.

Aber ausgehend von der 5700Xt bei über 200 Watt war man schon sehr eingeschränkt.
 
Zurück
Oben