News Next-Gen-Radeon: Foto eines möglichen Prototyps der Radeon RX 6000

Finde den AMD Ansatz irgendwie eh mega schwierig. Da haut nVi nun einen raus, und die warten erstmal bis Ende Oktober um dann mal was zu bringen. Entweder hat man den totalen Hit, oder man hat einfach gar nichts und will jetzt nicht doof da stehen.

Ich habe irgendwie das Gefühl, das man Anfang Oktober wieder mit ner knaller CPU daher kommt und den 10 Kernern von Intel nun auch noch dezent angreift, dafür aber bei der GPU wieder "nur" sowas wie bei der 5700 XT hinlegt. Versteht mich nicht falsch, wenn sie irgendwo bei der 3070 landen und der Preis gut ist, wäre das für alle beteiligten super. Genau das ist eben das was ich erwarte.
Ich denke AMD is im GPU Sektor ein wenig vorsichtiger geworden seit man mit der Radeon VII so auf die Nase fiel :D

Ich bin jedenfalls mega gespannt was da kommt.
 
Lars_SHG schrieb:
....davon gehe ich aber mal aus, der Lüfter ist ja sogar auf dem offiziellen AMD-Teaser-Bild drauf - auch wenn nur gezeichnet!
Wurde ja schon lange offiziell bestätigt, dass AMD auf Axiallüfter setzt.
 
Nvidia 30XX Spekulations Threads werden von den Admins geschlossen.

Aber selbst einen Bericht bringen der jenseits von irgendwelchen Fakten ist...
 
  • Gefällt mir
Reaktionen: Crankson, Iotis, FreedomOfSpeech und eine weitere Person
In "Typical Samsung 16Gb" ist das b klein. Gut, es ist ein Sticker auf nem Engineering Sample, also kein Anspruch auf Korrektheit oder Freiheit von Typos, aber es scheint eher so, als würde damit nicht der Speicherausbau gemeint sein.
Denkbar könnte sein, dass damit 16GBit/s als Geschwindigkeit der Bausteine gemeint ist. Oder, was unwahrscheinlicher ist, dass es um 16GBit-Bausteine handelt, wie man sie in HBM2 kennt. Es gibt von Samsung inzwischen auch 16GBit-GDDR6-Bausteine, da die aber ebenfalls nur über einen 32bit-Bus angebunden werden, würde die Speicherbandbreite erst ab 16GB Gesamtspeicher überhaupt relevant sein - das könnte für den großen Chip sogar auf mehr als 16GB Speicher hindeuten.
Effektiv kann es fast alles heißen. Ich bleibe gespannt, ob AMD wieder oben mitspielt :)

@StaubThema: Ich weiß ja nicht, wie ihr so eure Test-Aufbauten pflegt, aber bei uns sind das Gehäuse, die einfach die meiste Zeit offen herumstehen und an die nur Hardware gesteckt wird, wenn sie gebraucht wird. Eine regelmäßige Reinigung ist nicht vorgesehen. Wenn jemand ein Foto davon macht und es leakt, wird er sich bestimmt nicht als "Leaker" verdächtig machen, indem er vorher das Gehäuse gründlichst schrubbt. Das ist ein geleaktes Foto, kein offizielles Werbematerial. Daraus würde ich also weder auf glaubwürdig noch auf unglaubwürdig schließen.
 
  • Gefällt mir
Reaktionen: Blueztrixx, .Sentinel., u.dot und 14 andere
k0ntr schrieb:
Genau solche News führen dazu, dass viele sich eine Nvidia kaufen werden, obwohl noch keine Fakten da sind. Hört bitte auf damit CB, vor allem mit der "Einschätzung vom Team". Das sind auch wieder nur Gerüchte. Wörter aus eurem Mund hat nunmal mehr Gewicht als einer aus dem Forum.

Was noch viel schlimmer ist. Man wird wieder unnötig über Sachen disskutieren die nicht Wahr sind. Zu viel Bullshit.

Die Seite lebt von page impressions, und gerade in so "aufgeheizten" Themengebieten bietet es sich halt an, Gerüchte zu "news" zu verwursten, da somit mehr klicks getracked werden was wiederum in €€€ umrechenbar ist.

Soll gar kein blaming sein, von wovon soll man sonst leben - für die Leserschaft und die folgenden Diskussionen ist das auf die Dauer destruktiv und vor allem oftmals sehr irreführend.

Dass in diesem Fall offensichtlich NVidia davon eher profitiert ( genau wie von der laxen Handhabung des Mining-Themas gestern ) - gut, macht den Beigeschmack halt noch bitterer.

Man kann halt nur hoffen, dass es nicht zu sehr Überhand nimmt von Seiten der Redaktion ( aka : weg von "Twitter-Leaks", hin zu mehr Handfestem ... was Twitter im Zweifelsfall wert ist sieht man nicht erst seit Trump würde ich sagen).
 
  • Gefällt mir
Reaktionen: Crankson und Casillas
Marc53844 schrieb:
Ich kaufe kein AMD mehr, wenn die Prototypenbilder von irgendwelchen angeblichen Leaks schon so voller Staub sind! Nein danke AMD! Mit mir nicht.
Jeder weiß, dass Oberflächlichkeit die wichtigste Eigenschaft von allem ist.

Und bitte CB, berichtet bittr gar nichts mehr. Mir geht momentan alles auf den Sack. Wenn ihr nichts berichtet... dann kauft auch keiner irgendwas!

Ihr steht in der Verantwortung die Welt zu retten!!!1111
War das Ironie?
Wenn du wüsstest was die ganzen Zusatzstoffe in den Sachen sind, die du isst.
Was hinten alles so drauf steht...
Dann müsstest du verhungern oder dich an Gras versuchen.

Egal wie da getestet wird.
Ist hier nicht aus der Entwicklungsabteilung von AMD!
Ist vielleicht ein echter leak.
Von irgendeinem Freak der mal eben nen bissel bastelt.

Oder bastelst du bei dir im Reinraum deinen Pc zusammen?

WTF

MfG
 
RNG_AGESA schrieb:
AMD sollte sich dringend eine putzfrau leisten.

Das habe ich auch gedacht, so dreckig war mein PC höchstens damals mal, als kleine und ultraschnell drehende 80er Lüfter noch ungehindert Dreck einsaugen konnten.
 
Darklordx schrieb:
Also bei dem Dreck halte ich das Bild für ein Fake. Ich glaube nicht, dass bei AMD in deren Testlaboren oder bei denen der Grafikkartenherstellern so ein Staub in der Luft liegt. So sieht ja nicht einmal mein PC aus, wenn ich das Saubermachen mal weglassen. 😱 😉
wer weiß welcher Typ da wie an die Karte ran gekommen ist
 
  • Gefällt mir
Reaktionen: teufelernie, Cruentatus, iceshield und eine weitere Person
Warum soll das Bild nicht authentisch sein?

Es haben doch ständig irgendwelche Chinesen Engineering Samples zu Hause in seltsamen Umgebungen mit seltsamen Systemen.
Warum geht man davon aus, dass jeder, der im Bereich IT arbeitet bzw. was drauf hat, auch immer die krasseste Hardware zu Hause haben muss?
Für manche Leute ist das halt einfach ihr Job und sie legen nicht so viel Wert auf sowas, weil sie evtl. (mittlerweile) andere Prioritäten haben.
 
  • Gefällt mir
Reaktionen: Tanzmusikus, II n II d II, Krautmaster und eine weitere Person
maxpayne80 schrieb:
Dass in diesem Fall offensichtlich NVidia davon eher profitiert ( genau wie von der laxen Handhabung des Mining-Themas gestern ) - gut, macht den Beigeschmack halt noch bitterer.
Wobei NVIDIA ungemein mehr vom Mining profitiert hat. Da wurden sogar Aktionäre mit falschen Zahlen vera*****. Wenn wir bei der Wahrheit bleiben wollen.


Vielleicht kommt alles ganz anders...
AMD liegt diesmal ja an der Quelle, mit beiden Konsolen und sämtlichen Spielen die Entwickelt werden.
Näher geht´s ja fast nicht.
NV hat vielleicht einen ober Hammer raus gebracht.
AMD will und kann das vielleicht gar nicht toppen.
Aber weil die "Hardware" die gleiche ist, werden die Spiele einfach gut laufen.

500FPS, längster Balken.. Wayne.

MfG
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus, Crankson, ThePlayer und eine weitere Person
Bei dem Kühler hätte nvidia sich mal was abschauen können statt so einen teuren Kühler auf der FE zu montieren.
 
  • Gefällt mir
Reaktionen: roecket
Jedoch macht es derzeit den Anschein, als würden sich viele bisherige Gerüchte gar nicht um Navi 21 drehen, sondern den nächstkleineren Chip Navi 22.
Ist das eigentlich so eine "Wir wissen mehr als wir sagen dürfen und tun deshalb so, als würden wir nur spekulieren" -Sache. Ich hoffe es für euch, denn wenn es doch nicht so ist, tun solche Spekulationen am Schluss der Glaubwürdigkeit nicht gut.
 
  • Gefällt mir
Reaktionen: Haldi, telejunky und Digibyte
BobaFett schrieb:
Ich verstehe gar nicht warum so viele Leute davon ausgehen, dass AMD mit der 3080 in Konkurrenz treten will/wird. Ich gehe eher davon aus, dass sie Leistung einer 3070 oder ggf. zwischen einer 3070 und einer 3080 bieten werden und dafür aber einen niedrigeren Preis. Was auch schon ziemlich gut wäre und ein riesiger Sprung von der bisherigen Leistung die AMD zur Verfügung stellen konnte! Eine Konkurrenz im Bereich der XX80 er Serie erwarte ich von AMD erst mit der nächsten oder übernächsten Generation.

Leistung zur Verfügung stellen"konnte" ist der falsche Satz. Zur Verfügung stellen "wollte" ist richtig.

Navi 10 (RDNA1) ist nur ein 250mm2 Chip und pisst einer 445mm2 2070/ 545mm2 2070 Super an den Karren.
Was wäre wohl los gewesen wenn AMD davon eine Karte mit doppelten Shadern und grösserem SI gebracht hätte? Und doppelte Shader der Mittelklasse gab es in der Vergangenheit öfters beim grossen Chip
Eine 2080 TI ist da nur 30-35% entfernt und dementsprechend auch die 3070 hinetwa.

Also anzunehmen ein RDNA 2 Big Chip, deren Architektur wie angekündigt eine höhere IPC hat,
sicher ein breiteres SI hat, sicher höher getaktet ist und mutmasslich die doppelte Menge an Shadern bringt, wäre nur 40% schneller ist etwas sehr tief gestapelt.
Für den grossen RDNA2 Chip ist die 3070 ziemlich sicher kein Gegner.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Tanzmusikus, Crankson, NMA und 2 andere
eine AMD 6000 Karte nahe der 3070 aber mit 16GB RAM und ich bin glücklich!!
 
  • Gefällt mir
Reaktionen: adaptedALPHA
@dohderbert aber wenn, dann 100€ günstiger, oder? :D
 
Ich zähle 6 Chips. Also eher 384bit. Bisherige Gerüchte gingen von 512bit für den großen Chip aus, also warum kann das auf dem Bild nicht der kleine Biggy sein mit 6 Chips, 12GB und 384bit?
 
BobaFett schrieb:
Ich verstehe gar nicht warum so viele Leute davon ausgehen, dass AMD mit der 3080 in Konkurrenz treten will/wird.
Wie würdest du sonst die gestrige Aussage von AMD interpretieren, wenn da von "Performance-Führung" die Rede ist?
 
  • Gefällt mir
Reaktionen: Haldi
k0ntr schrieb:
Genau solche News führen dazu, dass viele sich eine Nvidia kaufen werden, obwohl noch keine Fakten da sind. Hört bitte auf damit CB, vor allem mit der "Einschätzung vom Team". Das sind auch wieder nur Gerüchte. Wörter aus eurem Mund hat nunmal mehr Gewicht als einer aus dem Forum.
Was noch viel schlimmer ist. Man wird wieder unnötig über Sachen disskutieren die nicht Wahr sind. Zu viel Bullshit.
Das Statement supporte ich so voll und ganz.
@Wolfgang
 
  • Gefällt mir
Reaktionen: ThePlayer und Benji18
TigerNationDE schrieb:
Finde den AMD Ansatz irgendwie eh mega schwierig. Da haut nVi nun einen raus, und die warten erstmal bis Ende Oktober um dann mal was zu bringen. Entweder hat man den totalen Hit, oder man hat einfach gar nichts und will jetzt nicht doof da stehen.

Ich habe irgendwie das Gefühl, das man Anfang Oktober wieder mit ner knaller CPU daher kommt und den 10 Kernern von Intel nun auch noch dezent angreift, dafür aber bei der GPU wieder "nur" sowas wie bei der 5700 XT hinlegt. Versteht mich nicht falsch, wenn sie irgendwo bei der 3070 landen und der Preis gut ist, wäre das für alle beteiligten super. Genau das ist eben das was ich erwarte.
Ich denke AMD is im GPU Sektor ein wenig vorsichtiger geworden seit man mit der Radeon VII so auf die Nase fiel :D

Ich bin jedenfalls mega gespannt was da kommt.
Das ist das alte Katz und Mausspiel, wer zu erst raus kommt.
Wie Microsoft und Sony. Preise. Echte Leistung. ect. ect.
Wenn dich das aufregt... müsste dich ja alles aufregen.
Das liegt einfach in der Natur der Sache.

MfG
 
Zuletzt bearbeitet:
Bei welchen GK ab 1000er Reihe hat die Speicherbandbreite nicht ausgereicht ? Gibt es überhaupt einen Verfahren, mit dem man testen könnte ? Weil es ja stehts ein Argument ist, wie auch hier.
ps: oder sogar ab Kepler.
 
Zurück
Oben