News Next-Gen-Radeon: Foto eines möglichen Prototyps der Radeon RX 6000

k0ntr schrieb:
Genau solche News führen dazu, dass viele sich eine Nvidia kaufen werden, obwohl noch keine Fakten da sind. Hört bitte auf damit CB, vor allem mit der "Einschätzung vom Team". Das sind auch wieder nur Gerüchte. Wörter aus eurem Mund hat nunmal mehr Gewicht als einer aus dem Forum.

Was noch viel schlimmer ist. Man wird wieder unnötig über Sachen disskutieren die nicht Wahr sind. Zu viel Bullshit.
AMD kündigt seine Produkte erst ENDE Oktober an. Strategisch ergibt das nur Sinn, wenn ich der 3080/3090 nicht die Stirn bieten kann. Viele Kunden, die unbedingt Power haben wollen kaufen bis dahin bereits bei nvidia. Nur ein geringer einstelliger Prozentsatz wird die Karte noch mal abgeben und stattdessen im November eine möglicherweise gleichwertige Radeon kaufen.
WENN es eine starke Karte von AMD gibt, dann sollten sie die jetzt ankündigen und einige 3080 Käufer zum Abwarten "zwingen" - einzig falls sie auf die 3090 schielen und dort tatsächlich auf Augenhöhe wären ein direkter Schlagabtausch nach deren Release vielleicht förderlich.
Es ergibt einfach keinen Sinn, dass AMD warten sollte, wenn sie mithalten können.
 
  • Gefällt mir
Reaktionen: Haldi und legenddiaz
VYPA schrieb:
AMD kündigt seine Produkte erst ENDE Oktober an. Strategisch ergibt das nur Sinn, wenn ich der 3080/3090 nicht die Stirn bieten kann. Viele Kunden, die unbedingt Power haben wollen kaufen bis dahin bereits bei nvidia. Nur ein geringer einstelliger Prozentsatz wird die Karte noch mal abgeben und stattdessen im November eine möglicherweise gleichwertige Radeon kaufen.
WENN es eine starke Karte von AMD gibt, dann sollten sie die jetzt ankündigen und einige 3080 Käufer zum Abwarten "zwingen" - einzig falls sie auf die 3090 schielen und dort tatsächlich auf Augenhöhe wären ein direkter Schlagabtausch nach deren Release vielleicht förderlich.
Es ergibt einfach keinen Sinn, dass AMD warten sollte, wenn sie mithalten können.
Setzt voraus das meine Produkte fertig sind.
Logisch ne.

MfG
 
  • Gefällt mir
Reaktionen: Tanzmusikus, Acedia23, Rockstar85 und 3 andere
Soweit ich das sehe, dürfte der genutzte Kühler ein Thermaltake Contac 21 sein:
https://nordic.thermaltake.com/products-model_Specification.aspx?id=C_00001807

Das Teil hat eine TDP von 140W. Die TDP kann man schwer vergleichen, vor allem wenn man einen CPU Kühler auf eine Graka klatscht. Dass da eine "Big GPU" daruntersteck ist eher unwahrscheinlich. Vielleicht ein RX 5600 Nachfolger?
 
  • Gefällt mir
Reaktionen: Digibyte
gidra schrieb:
Bei welchen GK ab 1000er Reihe hat die Speicherbandbreite nicht ausgereicht ? Gibt es überhaupt einen Verfahren, mit dem man testen könnte ?
Natürlich. Einfach den Speicher übertakten und schauen, ob die Leistung proportional dazu steigt oder nicht.
 
  • Gefällt mir
Reaktionen: Colindo, JJJT und McFritte
modena.ch schrieb:
Navi 10 (RDNA1) ist nur ein 250mm2 Chip und pisst einer 445mm2 2070/ 545mm2 2070 Super an den Karren.
Was wäre wohl los gewesen wenn AMD davon eine Karte mit doppelten Shadern und grösserem SI gebracht hätte? Und doppelte Shader der Mittelklasse gab es in der Vergangenheit öfters beim grossen Chip
Eine 2080 TI ist da nur 40% entfernt und dementsprechend auch die 3070 hinetwa.

Also anzunehmen ein RDNA 2 Big Chip, deren Architektur wie angekündigt eine höhere IPC hat,
sicher ein breiteres SI hat, sicher höher getaktet ist und mutmasslich die doppelte Menge an Shadern bringt, wäre nur 40% schneller ist etwas sehr tief gestapelt.
Für den grossen RDNA2 Chip ist die 3070 ziemlich sicher kein Gegner.

Wünschenswert wäre das für alle von uns, aber eine 100%-ige lineare Skalierung wird doch nicht möglich sein?
Ich bin mir sicher, man wird auch eine RTX 3080 angreifen können und sogar RTX 3090 sehe ich in Reichweite, aber zu welchen Konditionen? Preis, Featureset, Stromverbrauch, Leistung(höher&weniger), Speicher usw.
 
  • Gefällt mir
Reaktionen: NMA
The Mechanic schrieb:
Soweit ich das sehe, dürfte der genutzte Kühler ein Thermaltake Contac 21 sein:
https://nordic.thermaltake.com/products-model_Specification.aspx?id=C_00001807

Das Teil hat eine TDP von 140W. Die TDP kann man schwer vergleichen, vor allem wenn man einen CPU Kühler auf eine Graka klatscht. Dass da eine "Big GPU" daruntersteck ist eher unwahrscheinlich. Vielleicht ein RX 5600 Nachfolger?
Wollte schon sagen gutes Auge...
Aber nee die Heat Pipe Anordnung...
Kann der Küphler ned sein...

MfG
 
  • Gefällt mir
Reaktionen: The Mechanic
Wie süß ist denn bitte der kleine Towerkühler auf der GPU :love:
 
  • Gefällt mir
Reaktionen: Blueztrixx
modena.ch schrieb:
Leistung zur Verfügung stellen"konnte" ist der falsche Satz. Zur Verfügung stellen "wollte" ist richtig.

Navi 10 (RDNA1) ist nur ein 250mm2 Chip und pisst einer 445mm2 2070/ 545mm2 2070 Super an den Karren.
Was wäre wohl los gewesen wenn AMD davon eine Karte mit doppelten Shadern und grösserem SI gebracht hätte? Und doppelte Shader der Mittelklasse gab es in der Vergangenheit öfters beim grossen Chip
Eine 2080 TI ist da nur 40% entfernt und dementsprechend auch die 3070.
So funktionier Hardware aber nicht. Doppelt so groß bedeutet nicht doppelt so schnell in Anwendungen und Spielen.
 
  • Gefällt mir
Reaktionen: .Sentinel.
Averomoe schrieb:
Nein, weil das die Leistungsaufnahme sprengen und sehr viel Chipfläche bedeuten müsste. Höchst unwahrscheinlich.

das ist nicht zwingend der fall!
genaugenommen ist es sogar der weg den ich gehen würde bei einigen der rahmenbedingungen.

warum?
zum einen hatten schon hawaii (R290(x) bei einer tdp von 250w) und grenada (R390(x) bei einer tdp von 275w) chips ein 512bit interface - und diese wurden noch in 28nm gefertigt, in einer zeit als 28nm bereits "ausgelutscht" waren.

16GB lassen sich auch mit weiteren 8 chips a 1GB auf der unterseite realisieren.
da micron nvidia offenbar exklusiv mit gdd6x beliefert, blieben bei micron für amd bestenfalls der 16gbps gddr6 ram übrig.
samsung bietet schon seit januar 2018 ihren gddr6 in 16 und 18gbps(!) varianten an - das ist nicht so weit weg von den 19 bzw 19,5gbps des gddr6x auf ampere.

hier paar mögliche speicherbandbreiten, je nach interface und speicherbestückung..

14Gbps16Gbps18Gbps
256bit SI448 GB/s512 GB/s576 GB/s
384bit SI672 GB/s768 GB/s864 GB/s
512bit SI896 GB/s1024 GB/s1152 GB/s

ganz sooo schlecht sähe es dann auch bei 256bit nicht aus - bedenkt man dass die rtx3070 wohl bei den 448 GB/s gesetzt wird.
die 3080 mit ihrem 320b interface kommt bei 760 GB/s raus.
die 3090 mit den leicht schnelleren chips an dem 384b interface bei 936 GB/s.

beim 512bit interface würde amd bereits mit 14Gbps gddr6 chips über einer 3080 rauskommen.
mit 16 oder gar 18Gbps gddr6 variante würde man die amperes sogar pulverisieren was reine speicherbandbreite angeht.

wenn man dazu noch das etwas effizientere 7nm verfahren von tsmc in das blickfeld nimmt, ist so etwas nicht gänzlich abwägig.
256bit SI ist das was bereits die 5700er navi's verwendet haben - für eine 6700(xt) mit tsmc 7nm+ und rdna2 wäre das in der "navi22" variante durchaus tragbar und je nach vram geschwindigkeit, könnte man zwischen der 3070 und 3080 wildern.

aber mit 256bit si auf einer "navi21" (big navi, oder sowas wie eine 6800(xt)) mit der kolportierten anzahl an CU/shadern wäre wahrscheinlich kein blumentopf zu gewinnen.
mit einem 384bit si könnte amd aber durchaus auf augenhöhe mit einer 3080 agieren - mit einem 512bit SI wäre man dann sicherlich ein gutes stück über der 3080; da speicherbandbreite eben nicht alles ist, bezweifle ich dass amd auch bei 1 TB/s bandbreite mit der 3090 konkurieren könnte - aber muss amd das überhaupt??

ich denke dass 16gb gddr6@16Gbps günstiger sind als 10gb gddr6x@19Gbps...
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus, NMA, karl_laschnikow und 4 andere
niti88 schrieb:
wenn sie mit einer 3080 mithalten kann dann wirds ne amd weil sie billiger sein wird
Kommt drauf an wie die raytracing performance sein wird und das gegenstück zu dlss. Gerade würde ich mir keine neue Karte mehr ohne holen.
 
VYPA schrieb:
Es ergibt einfach keinen Sinn, dass AMD warten sollte, wenn sie mithalten können.

Also dann musst auch wirklich fertig seinen mit deinen Karten um das so machen zu können.
Bei 5-6 Jahren Entwicklungszeit pro GPU ist es doch unwahrscheinlich dass beide Konkurrenten immer gleichzeitig fertig werden.
Davon ab, am Anfang kaufen die Enthusiasten, die sich gern ausnehmen lassen und die Influenza.
Viele werden dieses Mal wohl anfangs leer ausgehen.

Die grosse Masse kauft nicht am ersten Tag, die kaufen wenn sie ne Neue Karte brauchen.

Ausserdem überschätzt du gewaltig die Masse an Leuten die so ein Launch interessiert.
Das dürfte nicht mal 5% der Kunden sein.

Aber Geduld ist heutzutage leider bei vielen nur noch schwer zu finden.
 
  • Gefällt mir
Reaktionen: moRphh, Tanzmusikus und trommelmaschine
6 Slot Design und keine Backplate... ich weiß ja nicht so recht was ich davon halten soll ;)

Na warten wir es mal ab, eventuell bekommt der Lüfter noch paar RGB's und dann passt das schon fast!

@topic

is halt leider nur nen Bild... daraus Infos zu bekommen ist einfach quatsch... man wird weiter warten müssen.
 
Das ist ja mal eine staubige Kiste, hoffe mal das hier nicht die Entwicklungsrechner von AMD abglichtet wurden.
 
Was auch immer kommen wird, es wird sich auf jeden Fall preislich was im 3070er Leistungsegement tun. Ich gehe nicht davon aus, dass Lisa Su sich für hohle Worte ohne Leistung dahinter hergibt, das war zumindest bis jetzt der Fall - und zu wenig versprochen hat Sie bis jetzt auch nicht. Glaskugel an AMD wird dieses mal keinen Goliath an die Wand malen, wenn keiner da ist.

Für jeden der sich nicht durch GSync fest gebunden hat, ist warten auf jeden Fall eine Option.
Ich bin seit kurzem so ein GSync-Typ, mir persönlich fehlt aber das 3080er Segment mit mehr als 10GB. Das kommt sicher noch. Mir fehlt auch der Anreiz eine Upgrade auf meine 2080 zu kaufen, denn im Moment läuft alles was ich spiele auch auf 38“ super flüssig. Mal kucken, was Cyberpunk und Star Wars Squadron als Anforderung mit sich bringen.

Die Investition in ein Virpil-Joystick-Setup dagegen, um die geht kein Weg herum, Bestellung ist schon abgeschickt, die Rebellion ist geliefert.
 
  • Gefällt mir
Reaktionen: u.dot und Cruentatus
ThePlayer schrieb:
Also wenn es 16GB Ram sind als RX 6800 und damit dann das Gegenstück zu einer 3070 dann wäre das wenn die Leistung stimmt mein Favorit. [...]
Da wird soviel Müll geschrieben. Entweder nur dummes Fanboy gebashe [...]
Nach 1-2 Seiten an Kommentaren verliere ich deshalb auch die Lust noch weiter zu lesen.
Die Fanboy Thematik beginnt für mich immer damit, dass jemand seine Kaufentscheidung pro
Intel/AMD/NVIDA öffentlich macht, lange bevor das Produkt auf dem Markt und gereviewed ist.
 
  • Gefällt mir
Reaktionen: Casillas, .Sentinel., Larnak und eine weitere Person
modena.ch schrieb:
Also dann musst auch wirklich fertig seinen mit deinen Karten um das so machen zu können.
Bei 5-6 Jahren Entwicklungszeit pro GPU ist es doch unwahrscheinlich dass beide Konkurrenten immer gleichzeitig fertig werden.
Davon ab, am Anfang kaufen die Enthusiasten, die sich gern ausnehmen lassen und die Influenza.
Viele werden dieses Mal wohl anfangs leer ausgehen.

Die grosse Masse kauft nicht am ersten Tag, die kaufen wenn sie ne Neue Karte brauchen.

Ausserdem überschätzt du gewaltig die Masse an Leuten die so ein Launch interessiert.
Das dürfte nicht mal 5% der Kunden sein.

Aber Geduld ist heutzutage leider bei vielen nur noch schwer zu finden.

Stimme 100% zu, es wird gerne überschätzt, wie wichtig der Launch ist. Für uns "Enthusiasten" in Hardwareforen ist das total spannend, der Großteil der Käufer wird daran aber weniger Interesse haben.
 
  • Gefällt mir
Reaktionen: .Sentinel. und ThePlayer
Sieht mir mehr nach irgendeiner ollen Entwicklerkarte von annodazumal aus, auf die einfach paar Aufkleber gepappt wurden.
Schon allein die "Umgebung" dieser Karte macht stutzig. Kein Mitarbeiter von AMD würde eine solche Karte in einem völlig verdreckten Case mit nem billigen Thermaltake Netzteil laufen lassen.
 
  • Gefällt mir
Reaktionen: McFritte und bai0varii
Eorzorian schrieb:
Wünschenswert wäre das für alle von uns, aber eine 100%-ige lineare Skalierung wird doch nicht möglich sein?
Ich bin mir sicher, man wird auch eine RTX 3080 angreifen können und sogar RTX 3090 sehe ich in Reichweite, aber zu welchen Konditionen?

100% Skalierung sicher nicht nein. Aber 50-75% sind drin.
Und das wäre dann immer noch nur RDNA1. :D

Bin ziemlich sicher sie können zumindest die 3080 angreifen.
Auch wegen der überlegenen Fertigung und schon mit RDNA1
gleichwertigen IPC zu Turing muss das gehen.
 
Zuletzt bearbeitet:
Zurück
Oben