News Next-Gen-Radeon: Foto eines möglichen Prototyps der Radeon RX 6000

Ist eigentlich schon jemand dabei das PCB zu überprüfen?
Vllt. ist das tatsächlich einfach nur ne olle Karte - Backplate abgerupft, selbstgedruckte Aufkleber raufgebackt und ... fertig.
 
  • Gefällt mir
Reaktionen: Blueztrixx
Smartin schrieb:
Ich frage mich echt, was die "Redaktion" für Erwartungen hat? Alle waren von Nvidia und dem Leistungssprung gegenüber der 2080Ti überrascht und jetzt erwartet man allen Ernstes, dass AMD, die bislang nicht mal mit der 2070S! konkurrieren konnten, dass sie mit der 3080 konkurrieren? Das würde mich doch sehr überraschen. Ich fürchte hier eher den nächsten Fail von AMD, die bestenfalls an eine 3070 rankommen könnte und dann mit 16GB prahlt, die dann unmittelbar durch Nvidia wieder gekontert werden (3070(S) 16GB; 3080(S) 20GB).

Naja, können und wollen sind 2 unterschiedliche Dinge.
Navi 1 ging hoch bis in die 250mm2 Klasse und ist dort auch mit einer sehr konservativen Transistordichte für den Prozess gefahren.
Ampere geht stand jetzt erst in der 400mm2 Klasse überhaupt los.
Das größte Problem für AMD wird die Energieeffizienz und die Speicherbandbreite (wobei man zumindest bei einem ganz großen Chip auf HBM2e setzen könnte).
AMD kann da ein 30 Milliarden Transistor Monster mit HBM und 400W TDP raushauen.
Ob sich das irgendwie wirtschaftlich rechnet ist eine andere Frage.
 
  • Gefällt mir
Reaktionen: Informer
Smartin schrieb:
Ich frage mich echt, was die "Redaktion" für Erwartungen hat? Alle waren von Nvidia und dem Leistungssprung gegenüber der 2080Ti überrascht und jetzt erwartet man allen Ernstes, dass AMD, die bislang nicht mal mit der 2070S! konkurrieren konnten, dass sie mit der 3080 konkurrieren?
Naja du kannst jetzt nicht von einer Midrange Karte der letzten Generation auf eine Highend Karte in der NextGen schließen. AMD hatte einfach zuviel zu tun um sich auf einen Highend Ableger zu konzentrieren. Die 5700XT lässt allerdings schon erahnen, dass sie dazu durchaus in der Lage gewesen wären. Die Frage ist mMn weniger ob AMD eine Konkurrenz zur 3080 bringen kann, als viel mehr ob sie es wollen. Man ist durch die Konsolen eh gut aufgestellt und warum sich auf einen Preisdumping Kampf mit NV einlassen, wenn das Gro des Umsatzes eh im Midrange Bereich gemacht wird. Und da zählt dann eher ein gutes P/L-Verhältnis. Von daher ist eigentlich alles möglich.
 
  • Gefällt mir
Reaktionen: Casillas, Tanzmusikus und Informer
16GB vram.. also 256 oder 512 bit

also wenns ein 512bit interface ist.. ist es teuer und Stromhungrig..
wenns ein 256bit interface ist frag ich mich ob ein Chip in der 2080TI leistungsklasse nicht an der Speicherbandbreite verhungert.. auch wenn massig speicher vorhanden ist
 
gidra schrieb:
Wirklich ? Wo gibt es den Tests die die Speicherbandbreite testen ? Mir persönlich ist keine Möglichkeit bekannt. Euch offensichtlich schon, nur wollt ihr nicht verraten woher.
Du musst halt lesen, wenn du zitiert wirst:
bigfudge13 schrieb:
Natürlich. Einfach den Speicher übertakten und schauen, ob die Leistung proportional dazu steigt oder nicht.
 
  • Gefällt mir
Reaktionen: Tanzmusikus und Colindo
hmm ich warte in aller Ruhe ab, was Tests ergeben. Wenn das die kleine AMD sein soll, dann hoffe ich noch auf die große, das da was Vernünftiges kommt.
 
  • Gefällt mir
Reaktionen: Larnak
Wie manche hier verzweifelt den Screen als Fake versuchen hin zu stellen.

Also erst mal der Staub ist kein Hinweis das hier was gefaket ist. Hier geht es um echte Tests - Ingenieurs Zeugs wo Lastszenarien etc. pe. pe. gemessen werden um zu schauen wie verhält sich der Chip, wo fließen welche Ströme gibt es Probleme... Die bauen sich so ein "Banchtabel" hin und meist einmal für sehr lange Zeit. Denn die Umgebungsvariabeln sollen sich möglichst nicht ändern.

Das ist wichtig damit die Ergebnisse "save" sind. Mal davon ab wer kann bitte ein solches GPU Board so faken? Wer von euch hat das bitte im Keller liegen? Das Bild ist echt - der einzige Fake der möglich wäre - da steckt eine total andere Karte drin die "damals" getestet wurde... muss aber eine 16GB Karte gewesen sein.
 
Adzz schrieb:
So funktionier Hardware aber nicht. Doppelt so groß bedeutet nicht doppelt so schnell in Anwendungen und Spielen.

Das kommt auf die architektur an.
RDNA ist imho ein ableger der Konsolen SoCs.
Weshalb er realtiv klein mit 250mm² war, hat warcheinlich nicht weiter skaliert.
Was da jetzt mit RDNA2 ankommt weiß man nicht, wenn du die rehenwerke alle versorgt gekommst ist lineare skalierung prinzipel möglich.
 
Matthias80 schrieb:
Setzt voraus das meine Produkte fertig sind.
Logisch ne.

MfG
Es setzt voraus, dass man sein Produkt fertigt hat?
Wieso? Die Leistung sollte doch jetzt bekannt sein, die Dinge sollten schon in Produktion gehen.

Die Leistung der Karten steht schon fest!
 
VYPA schrieb:
Es ergibt einfach keinen Sinn, dass AMD warten sollte, wenn sie mithalten können.
Vielleicht ist es Taktik um nVidia nur wenig Zeit zu geben um zu reagieren. Vielleicht sind die Karten der 3070 und 3080 ebenbürtig oder "etwas" besser und der Preis "leicht" unter nVidia. Damit verspricht sich dann AMD mehr Käufer anzusprechen. Und nVidia braucht auch etwas Zeit um zu reagieren.

borizb schrieb:
Die Fanboy Thematik beginnt für mich immer damit, dass jemand seine Kaufentscheidung pro
Intel/AMD/NVIDA öffentlich macht, lange bevor das Produkt auf dem Markt und gereviewed ist.
Ich schreibe ja auch das die 6700 oder 6800, oder wie auch immer das Gegenstück von AMD zur 3070 heißen wird. Bei 16GB Ram und etwa gleicher Performance und Preis, mein Favorit ist.
Ich schreibe ja nicht das sie gekauft ist noch ehe es eine Vorstellung oder Tests gibt.
AMD ist mir Sympathischer nach den ganzen Dickmoves von nVidia in den letzten Jahren. Außerdem wenn AMD gut abliefert macht es doch Sinn mit dem Kauf AMD zu unterstützen.
Eine starke Konkurrenz ist immer gut. Wir haben ja gesehen wie nVidia bei Turing die Preise angezogen hat da AMD nichts zu bieten hatte.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Blueztrixx, Blaze1987 und eine weitere Person
TigerNationDE schrieb:
Ich denke AMD is im GPU Sektor ein wenig vorsichtiger geworden seit man mit der Radeon VII so auf die Nase fiel :D
Ich bin jedenfalls mega gespannt was da kommt.

Ich denke, dass die VII nicht dazu gedacht war, das Gamerherz höher schlagen zu lassen. Das war ein Produkt um die Aktionäre ruhig zu stellen, auf die AMD ja leider Rücksicht nehmen muss, schließlich arbeiten die mit deren Geld.
7nm dürften damals besser als erwartet gestartet sein und es war möglich, ein paar Chips für dieses Produkt zu erübrigen. Dann hatte man was, was immerhin teilweise mit der damals aktuellen 2080 bleifrei mithalten konnte.

Die Botschaft: "Wir können es noch, wenn wir wollen." Mehr war das nicht.
 
  • Gefällt mir
Reaktionen: Tanzmusikus
FreedomOfSpeech schrieb:
Ich zähle 6 Chips. Also eher 384bit. Bisherige Gerüchte gingen von 512bit für den großen Chip aus, also warum kann das auf dem Bild nicht der kleine Biggy sein mit 6 Chips, 12GB und 384bit?
Ich auch und wüsste nicht, wo noch zwei weitere Chips liegen sollten, da die PS den übrigen Platz einnehmen.
The Mechanic schrieb:
Soweit ich das sehe, dürfte der genutzte Kühler ein Thermaltake Contac 21 sein:
https://nordic.thermaltake.com/products-model_Specification.aspx?id=C_00001807
Dieser hat eine HP zu wenig. Von daher würd ich mich gar nicht auf TDPs verlassen. Der Kühler wird schon gut Wärme abführen können.
 
Blackfirehawk schrieb:
ich seh es jetzt schon kommen.. irgentwo zwischen 3070 und 3080.. wobei eher richtung 3070...

mächtige 16gb Vram die zwar in der Theorie geil klingen.. aber dann nur mit mageren 256bit angeschlossen sind.. bei der kleineren Karte dann dementsprechen 12gb Ram und 192bit interface

von der Theorie vielleicht ein potenter Chip (5700xt x2 + architexturänderung) der dann gnadenlos am Speicherinterface verhungern wird
Das ist little BigNavi (N22) die kommt im Januar/Februar frühestens als Gegner zur 3060 (TI) - wird unter 400 Euro kosten und ja darfst mich dann daran erinnern.....
 
  • Gefällt mir
Reaktionen: Otsy und Colindo
legenddiaz schrieb:
Es setzt voraus, dass man sein Produkt fertigt hat?
Wieso? Die Leistung sollte doch jetzt bekannt sein, die Dinge sollten schon in Produktion gehen.

Die Leistung der Karten steht schon fest!
Nope
da das genaue Release Datum nicht bekannt ist... ist ja noch gut Zeit... so kann an den Specs (siehe 5600xt Bios vram) bis zur letzten Minute dran rum gebastelt werden.
Auch stellt man sich so breit auf... verschiedene Chips... verschiedene Speicherinterfaces um (wenn man als zweites kommt) den Markt perfekt aufmischen kann.
Leistungstechnisch und Preislich.
Sofern man es Designtechnisch kann.
Vega war auch besser geplant als es dann physisch geklappt hat.

MfG
 
  • Gefällt mir
Reaktionen: Tanzmusikus
Wolfgang schrieb:
„Typical Samsung 16GB“

Da könnte auch „Typical Samsung 16Gb“ stehen

Statt 16GB als Größe könnte es auch einfach heißen, dass Samsung Chips mit 16 Gb/s verbaut sind.

Des weiteren seh ich nur 5 Speicherchips. 3 im markierten Bereich und 2 rechts neben der GPU. Die 3 anderen Chips um auf 8 zu kommen müssten ja zwischen GPU und PCIe Slot liegen. Geht das überhaupt (Signalwege, Störungen etc.)? Ich hab noch nie eine GPU gesehen die sowas hat.

Wie wärs also mit 10GB an 160 bit mit 324 GB/s Bandbreite für nen kleinen Chip?
 
  • Gefällt mir
Reaktionen: Tanzmusikus
gidra schrieb:
Wirklich? Wo gibt es den Tests die die Speicherbandbreite testen? Mir persönlich ist keine Möglichkeit bekannt. Euch offensichtlich schon, nur wollt ihr nicht verraten woher.
Erstmal darfst du mich gerne duzen. Dann gibt es Tests, wo der Speichertakt variiert wird, auch von CB. Wenn du das wirklich noch nie gesehen hast, schau mal in den Vega-Test. Beim Test der 1070Ti sah man tatsächlich nicht eindeutig die Limitierung, da wurden aber auch 1070Ti-Customs mit einer 1080 FE verglichen, weil Nvidia keine FE bereitgestellt hat. Das verwässert das Bild.
Ergänzung ()

Matzegr schrieb:
Die 3 anderen Chips um auf 8 zu kommen müssten ja zwischen GPU und PCIe Slot liegen.
Ja, man sieht auch deren Footprint, wenn man im Bild reinzoomt.
 
  • Gefällt mir
Reaktionen: bigfudge13
Zurück
Oben