News Erste Gerüchte zur AMD „Radeon R9 300“-Serie

Matzegr schrieb:
Mehr als Faktor 1,6 wird im Idealfall nicht dr

schon richtig,a ber wie gesagt, ich denke dass der alte GK110 die Fertigung auch längst nicht ausreizt, vergleich mal die Density der Hawaii mit dem GK110.

7,1/561mm² = 0,01265M/mm²
6,2/438mm² = 0,01415M/mm² also etwa 12% Differenz.

Gut, man muss aber auch sagen dass die GK110 B Revision um 28mm² geschrumpft ist, damit kommt man auf 0,0133.

Das SI dürfte sicher nicht um Faktor 2 wachsen. Andere Teile der GPU sicher auch nicht. Ich geb dir recht, 6144 klingt etwas massiv - die Zahl kursiert aber schon recht lange. Naja abwarten - davor dürfte definitiv das kleineres kommen.
 
Kasmopaya schrieb:
Man darf gespannt sein, die R9 300er müssten eine neue Architektur haben, mal schaun ob sie auch so zaubern wie Maxwell der in Sachen Effizienz schon mal gut vorgelegt hat.

Nicht wirklich, ist immer noch Graphics Core Next, zwar modifiziert, aber wirklich neu ist anders.

Btw. Ist es denke ich kein Kunststück sehr gute Effizienzwerte bei einer Low-End Karte zu erreichen, das müssen erstmal die High-End Brüder nachmachen. Denn nicht nur Der Chip selber verbraucht Strom, andere Komponenten auf der Karte ziehen auch Strom und bei High-End Karten kann man nicht mehr an allen Ecken und Enden Sparen.
 
Zuletzt bearbeitet:
Ich frag mich warum das XTX Kürzel wiederkommt. Gibt es dann auch wieder XT Ableger?
Gilt denn GDDR5 schon als sicher? Wenn man schon auf DX12 und 20nm umsteigt, ginge GDDR6 doch sicher locker mit, ich mein, wenn schon denn schon ;)

Apropo DX12. Dass muss ja dann tatsächlich schon ein paar Jahre in Entwicklung sein, oder die Hardwarefeatures würden sich nur hauchdünn von DX11 unterscheiten.

Schön dass man zumindest schonmal einen Termin hat, auf den man hin sparen kann. Wobei für mich 20nm jederzeit kommen hätte dürfen :rolleyes:.
 
Zuletzt bearbeitet:
Ja GDDR6 ist sehr gut möglich, so wie ich das gelesen habe soll GDDR6 auch 2014 verfügbar sein !

Ich hoffe AMD knallt bei der R9 390(X) 6 GB bzw. 8 GB Vram rein, als Standard. Je nach SI, sind ja nur Gerüchte.
Ergänzung ()

Achso was ich noch sagen wollte, in eurer Tabelle habt ihr einen Fehler drin, Die Radeon R9 280X hat 2048 Shader und nicht 2816 Shader.
 
Zuletzt bearbeitet:
@CB
Tahiti hat kein 512Bit SI.
 
Wie wäre es denn mal mit was neuem im Low Profile Bereich? Die R7er waren ja eine echte Enttäuschung :(
 
Btw. Ist es denke ich kein Kunststück sehr gute Effizienzwerte bei einer Low-End Karte zu erreichen,
Oder bei kastrierten verkappten mid Range Chips wie der GTX 680.(höchstwahrscheinlich auch die GTX 880) Wirklich beeindruckend war erst die Titan, 6GB Vram, GPGPU Power satt + brachiale Rohleistung, trotzdem Effizienz Rekorde. Ich ziehe meinen Hut sollte das NV nochmal hin bekommen. AMD beißt sich an einer effizienten GPGPU Karte schon mal die Zähne aus. Ob das die 300er Reihe ändern wird. Man darf gespannt sein.
 
Zuletzt bearbeitet:
Meine Güte lass doch mal das Geschwalle...ernsthaft. Wieiviel Kohle bekommt man eigentlich dafür?
 
beißt sich an einer effizienten GPGPU Karte schon mal die Zähne aus. Ob das die 300er Reihe ändern wird. Man darf gespannt sein.

Du hast aber schon die Rechenleistung der neuen 9100er FirePro Karten gesehen oder? Daran beißt sich dann höchstens nVidia kurzfristig gewaltig die Zähne aus und nicht umgekehrt ;)
 
[F]L4SH schrieb:
Du hast aber schon die Rechenleistung der neuen 9100er FirePro Karten gesehen oder? Daran beißt sich dann höchstens nVidia kurzfristig gewaltig die Zähne aus und nicht umgekehrt ;)
Eben ;)
Die W9100 bietet die mit Abstand größte Rechenleistung, da kann nur die Titan Z mithalten, aber auch nur weil da gleich zwei GK110 verbaut werden.
 
Du hast aber schon die Rechenleistung der neuen 9100er FirePro Karten gesehen oder? Daran beißt sich dann höchstens nVidia kurzfristig gewaltig die Zähne aus und nicht umgekehrt
Ich meinte eher die Kombi GPGPU Karte und Gamer Karte gleichzeitig wie die Titan eben. Von reinen GPGPU Karten war nicht die Rede, da macht AMD einen super Job stimmt, der Rush auf die AMD Karten wegen des Goldgräber Mining Booms ist ein klarer Beweis dafür. In dem Bereich sind sie teils vor NV.

Jetzt müssen sie "nur" noch den Spagat hin bekommen. Dieses Kunststück hat bis jetzt nur big Kepler geschafft. Ich hoffe das bleibt nicht so.

NV biss sich ja an der Kombi mit Thermi noch die Zähne aus, die haben ihre Lektion gelernt, nach der massiven Kritik der Spieler.
 
Zuletzt bearbeitet:
Die dritte Tabelle mit den Daten von R9 280X / R9 380X ist offensichtlich falsch. Bei der R9 280X stehen die Daten einer R9 290X.

Bitte korrigieren.
 
Könnte fett werden! Aber wenn nicht in 20nm, dann vollkommen uninteressant.
Hawaii hätte ja schon in 20nm kommen sollen, was da rausgekommen ist sieht man ja.

Übrigens FEHLER!!!!
Bei der R9 280X (= HD7970) steht immer noch 512Bit statt 384!!
 
@Kasmopaya:

Bedingt richtig, wenn big Kepler für dich so super toll effizient ist, dann ist es auch Hawaii XT. Denn im CB Test verbraucht das Komplettsystem mit der R9 290X und der GTX780 Ti fast das gleiche an Energie, die paar Prozent mehr Leistung bzw die Paar Watt mehr Verbrauch sind irrelevant, weil durch die Serienstreuung niemals im Leben alle Karten die selben Energiewerte aufweisen werden, daher ist es kleinlich sich an den geringen Unterschieden aufzuhängen.

Ja der Big Kepler ist ein klein wenig besser in sachen Effizienz als der Hawaii XT, aber deine enormen Lobhuldigungen werden dem nicht gerecht, weil es eben nur ein klein wenig besser ist.

Aber das kennt man ja von dir.....
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Oder bei kastrierten verkappten mid Range Chips wie der GTX 680.(höchstwahrscheinlich auch die GTX 880)
Im Gegenteil, gerade wenn du GK104 nur als aufgeblasenes Midrange siehst, ist es eine erstaunliche Leistung. Als normales Midrange wäre ein effizienter GK104 keine Überraschung gewesen. Aber als auf über 1000Mhz geprügelte GTX 680 sieht das ganz anders aus.

Whoozy schrieb:
Denn im CB Test verbraucht das Komplettsystem mit der R9 290X und der GTX780 Ti fast das gleiche an Energie, die paar Prozent mehr Leistung bzw die Paar Watt mehr Verbrauch sind irrelevant
Der Leistungsunterschied ist nach dem Test immerhin doppelt so groß, wie der zwischen 290 und 290X.
 
Zuletzt bearbeitet:
Das ist richtig, aber doppelt so viel von wenig ist auch nicht gerade berauschend oder ? Wenn es auf der R9 290X ruckelt wird es auch bei den Big Chips von Nvidia ruckeln. Die Unterschiede der High-End Karten von AMD und Nvidia im Bereich Leistung/Effizienz sind so gering, das es nicht der Rede wert ist. Große Lobhuldigungen für irgendwelche Karten kann man sich auch sparen. Wenn man Amd's FX Cpu's und Haswell Vergleicht, ja dann kann man die Haswell überschwänglich loben, das kann ich verstehen, da sind die Unterschiede wirklich markant.

EDIT:

Anscheinend ist es der Computerbase Redaktion scheissegal, das man in der Tabelle für die R9 280X falsche Angaben zur Spezifikation angegeben hat. Sonst hätte man diese längst korrigiert, nachdem eine Handvoll Leute darauf aufmerksam gemacht haben. Sehr seriös.....
 
Zuletzt bearbeitet:
Wenn man die DIE-Fläche betrachtet, dann holt AMD aus einer kleineren Fläche fast so viel Leistung heraus wie Nvidia mit ihrem Big-Chip.

Demnach wäre AMD effizienter, nicht Nvidia.

Das ist wie mit einen LKW und Auto-Luftfilter. Ersteres ist einfach zu realisieren aufgrund der größeren Fläche. Zweiteres ist wesentlich schwieriger zu konstruieren aufgrund der kleinen Fläche. Die Anforderungen an beide unterscheiden sich aber nicht gewaltig.
 
Zurück
Oben