News AMD verrät Termin für Radeon R9 290X BF4 Edition

RazzerZero schrieb:
Was bringt euch dieses Wortgefecht auf Basis irgendwelcher Benchmark-Leaks wo jeder ein völlig anderes Ergebnis liefert?

Das letzte große und erste echte Review aus China stimmt schon im Großen und Ganzen denk ich. Die haben in den letzten Jahren immer mal vorab was veröffentlicht und nicht daneben gehaun - die sind als Seite viel größer als so manche hier denken (da sind selbst wir als eine der großen deutschen Seiten ein kleines Licht) und können sich das einfach auch mal erlauben. Nötig haben sie Fakes im Gegensatz zu dem anderen KRam vorher auch nicht.

Klar wird es am Ende Abweichungen aufgrund von Spieleauswahl usw geben, der Drops ansich ist aber quasi schon gelutscht. Die Flames gehen dann demnächst weiter "In Spiel 1 ist ja die 290X viel schneller" vs. "in Spiel 2 stampft die Titan die 290X in Boden" usw usw. Das werden spaßige Wochen hier^^
 
Zuletzt bearbeitet:
Es war ja nicht nur ein Leak/Test RazzerZero, sondern mindestens 3 ausführliche Tests mit Benchmarks.
Leo aus dem 3dcenter hat darauf hin eine recht exakte Prognose ermitteln können:
http://www.3dcenter.org/news/dritte...nce-pendelt-sich-knapp-ueberhalb-der-geforce-
http://www.3dcenter.org/news/vorab-...-radeon-r9-290-290x-vor-geforce-gtx-780-titan

Das ist für die offiziellen Tester natürlich (wieder einmal) sehr ärgerlich.
An Stelle von Volker und seinen Kollegen würde ich persönlich darauf sehr verärgert reagieren.
Und trotzdem werde ich die offiziellen Tests gerne lesen, und freue mich natürlich auch auf den Test hier. ^^
 
Zuletzt bearbeitet von einem Moderator:
RazzerZero schrieb:
AMD hält Informationen mit Absicht zurück. In ein paar Tagen wird die R9 290X mit 30 % mehr Leistung als ne GTX Titan veröffentlichen. Alle sind sprachlos und kaufen.
Spaß beiseite.
Was soll daran Spaßig sein, wenn alleine +30% von einer HD 7970 Ghz (100%) eben nur so +4% eines R9 290X (130%) gegenüber einen Titan (125%) bedeuten würde.
Selbst von den +1% wären die +4% eben nur Erbsenzählerei, weshalb die +30% überhaupt nicht überraschen würden, sondern in Bereich der größeren Wahrscheinlichkeiten.

Was bringt euch dieses Wortgefecht auf Basis irgendwelcher Benchmark-Leaks wo jeder ein völlig anderes Ergebnis liefert?
Das liegt wohl vielleicht daran, dass manche mit +1% wieder die Nvidia Welt krampfhaft positiver sehen wollen, weil die Technischen Daten mit 4 Grafik-Engines (= +100%-Ratsterizer- & Tesselation-Performance) (sowie +100%-ROP-Performance) bei +37%-Shader-&-Co-Einheiten langfristig bei für 4 Grafik-Engines optomierte Treiber vielleicht doch etwas mehr Performance bringen könnten als +26% gegenüber dem HD 7970 Ghz.

Ob Hawaii schlussendlich +1% oder -1% schneller/langsamer sein wird, ist grundsätzlich egal.
Wesentlicher wird für AMD sein, dass sie in Kürze einerseits mit Hawaii auch noch im FirePro-Workstation & HPC-Markt deutlich konkurenzfähiger sein können, und andererseits sich in kürze voll auf den 20nm-Pirat Island konzentriern müssen, während Nvidia in dieser Hinsicht nocheinmal per GK110 nachlegen muss, um nicht zuviel Vorsprung/Terrain zu verlieren.
 
Zuletzt bearbeitet:
matty2580 schrieb:
Es war ja nicht nur ein Leak/Test RazzerZero, sondern mindestens 3 ausführliche Tests mit Benchmarks.

Ja, mit Tag zu Tag wurden die ja weniger optimistisch, bis am Ende PC Online da war. Und deren Test zeigte auch schon die Probs: Ein Spiel 290X 20 Prozent vor Titan, das nächte Titan 20 Prozent vor 290X. Wenn dein Testpark jetzt nur 2 Spiele mehr drin hat, die Titan besser liegen, schrein alle "von Nvidia gekauft". Hast es andersrum umd 2, 3 Spiele mehr drin die AMD liegen, heißt es "AMD hat auf Hawaii den Geldkoffer gleich mitgeschickt" oder so. Denn exakt diese 2, 3 Spiele bilden am Ende wie bei 3DCenter gemacht einen Mittelwert, der dann zu Gunsten des einen oder anderen ausschlägt. Das kann nur im Massaker enden nächste Woche^^
 
Volker, ich werde dich immer verteidigen.
Und wer hier schreibt das Du gekauft wurdest, hat den Knall nicht gehört. ^^
 
da bin ich mal gespannt wie titan beim welches spiel eine r9 290x in den boden stampfen wird :freaky::lol: Never !

also Volker du hast vorstellungen und gebst von dir so manche sachen...

habe das gefühl du träumst nach eine zweite hd2900xt release :stacheln:
 
Zuletzt bearbeitet:
Man muss immer unterscheiden zwischen einer persönlichen Meinung und einem Artikel/News.
Volker hat über die Jahre hinweg ein Fachwissen gesammelt, mit dem die meisten User hier nicht mithalten können. Es gehört zu einer erwachsenen Diskussion mit dazu, die Meinung des anderen zu akzeptieren.
Seine Anwesenheit hier bereichert die Diskussion, und macht sie nicht ärmer.
Auch wenn ich selbst manchmal völlig anderer Meinung bin. ^^
Trotzdem achte ich ihn als Mensch und Redakteur.
 
Volker schrieb:
Das letzte große und erste echte Review aus China stimmt schon im Großen und Ganzen denk ich.
....
Die Flames gehen dann demnächst weiter "In Spiel 1 ist ja die 290X viel schneller" vs. "in Spiel 2 stampft die Titan die 290X in Boden" usw usw. Das werden spaßige Wochen hier^^

Klingt so als ob ihr auf ähnliche Werte kommt wie PConline.com.cn

Also zur 280x +37%, zur GTX780 +11% und gleichauf mit Titan und im Vergleich zur 280X min. 15% effizienter.

Wenn das so stimmt gibt es eigentlich keinen Grund für Flames, weil alles den Erwartungen anhand der technischen Daten entspricht.

Titan ist 20% (=eigentlich 26% - den deaktiverten SMX-Block) größer, dass gleicht AMD mit 19% mehr Takt aus, daraus resultiert ungefährer Gleichstand, den man sich aufgrund des höheren Taktes mit höherer Leistungsaufnahme erkauft, dafür hat man geringere Produktionskosten.

Höherer Leistungsaufnahme gepaart mit kleinerer Fläche ergibt höhere Temperaturen und somit höhere Lautstärke.

Also im Prinzip kann niemand mehr nächste Woche überrascht werden.

Ich weiß NDA, trotzdem ne Frage: Bei SpinterCell gibt es ja auch nen 2560x1600 Diagramm wo die 290X dann nicht mehr 32% vor der 280X liegt, wie bei FullHD sondern satte 63%.

Denkst du auch, das stimmt so im Großen und Ganzen? Wenn ja, hat sich ja die Erhöhung der ROPs richtig gelohnt.
 
Ein NDA ist ein NDA ist ein NDA ist ein NDA. Ich interpretiere nur chinesische Tests^^
 
Volker schrieb:
Ich interpretiere nur chinesische Tests^^

Die Frage ist ja Bestandteil des chinesischen Tests :D

R9-290X-1600p.jpg


Wie kann man den diese Folie vom chinesischen Test bei Splinter Cell interpretieren (290X vs. 280X)? ;)

[A] realistisch
Sonnenwinde haben das Ergebnis verfälscht
[C] bei Beantwortung tritt dir ein AMD-Mitarbeiter persönlich in den Arsch
[D] NDA ist NDA ist NDA
 
Volker schrieb:
Es ist ja nicht so als wäre das meine einzige Informationsquelle ;)

na du bist aber mit deinem wissen im grauzonen bereich.
bestätigst ja doch schon mehr als sonst.

aber gut nda ist ja bald rum wen ich bedenke das wir seit paar weochen diskutieren ist der verbleibende zeitraum recht überschaubar.

zeedy schrieb:
Und jeder Hanswurst hält sich scheinbar für einen fähigeren Ingenieur als die gesamte AMD Forschungsabteilung :freak:


Weit zurück? Blödsinn! Nur die beiden Tahitis ziehen deutlich mehr Strom aus der Dose, alle anderen Chips darunter sind in etwa genauso effizient wie der jeweilige Nvidia Konkurrent.

ja sry aber den chip aufbohren kann jeder der ahnung hat.
das ist im großen und ganzen einfach eine simple hubraum erhöhung.

hust sry aber wo rüber geht das image einer karten generation? richtig dem high end modell :)
ist cool das du weißt das die 7870 effizient ist meine nachbaren wissen nur das die 7000 reihe viel strom braucht.


aylano schrieb:
https://www.computerbase.de/2013-05/nvidia-geforce-gtx-780-test/3/
Dein runterreden von AMD-Produkten nervt, was man immer an den vielen Reaktionen liest, wenn du deine Meinung schreibst.
Und wenn du schon mit Monaten kommst, warum wurde das nicht im Fazit von GTX 780 und Titan gemacht, wo z.B: GTX 780 ganze 17,5 Monate nach HD 7970 kam?


Vorallem, sagts du selber, dass es keine echten GCN 2.0 sind und AMD somit noch etwas Potetnial für später haben müsste.
Vorallem sieht es dann für Nvidia übel aus, wenn Hawaii als FirePro noch kommt, weil ein Hawaii gegen Thaiti dann 8 ACEs statt 2 haben wird und mit +37% mehr Einheiten dann ebenfalls deutlich in der Effizienz steigern könnte.

Für AMD sieht es sehr gut aus.
Schließlich braucht man jetzt nicht so tun, als ob es die Probleme der letzten Jahre nicht gegeben hätte und AMD sehr ruhig entwickeln konnte. Dass AMD GCN 2.0 konnte für Nvidia noch ziemlich übel werden, weil mit neuen Architekturen meist neue GPGPU-Funktionen eingeführt werden. Aber das werden wir erst zum APU-13 hören.

ganz einfach weil die konkurenz karte zur 7970 die 680 ist :)
und die 7970 GHZ ist mit der 770 gekontert worden.

die 780 und titan sind eine andre klasse. aber kepler architektur.

amd wirbt aber mit GCN 2.0 also erwarte ich eine deutlich verbesserte architektur.
ist genauso wie sie mit octacore geworben haben.
ist amd ihre schuld wen die pr abteilung aus geistig gestörten besteht.

jeder rauchende affe würde das besser machen. GCN1.0 V2 und ende ist oder 1.2.0 eine firma muss auch mit der zeit gehn.

glaube nicht das nVidia angst hat.
die haben vor rund 2 jahren ihre gk architektur releast da dürfte der nachfolger in 3-6 monaten markt reif sein :)
bzw warten die woll nur noch auf 20nm.


Volker das ist richtig.

allerdings ist genau das der pkt den ich von dir zb erwarte:
du hast erfahrung und gehirn kombiniert erwarte ich das die spiele von dir gut und überdacht gewählt sind.
ich mein 5 spiele durch ballern kann jeder, nur es richtig und sachlich machen ist ja das womit du dich absetzen willst von der masse.

genauso wie das jeder auf den konkurenz seiten versucht bzw macht.

Bis jetzt muss ich aber sagen hast du die anderen ausgestochen mit deinen Fazits.
andre seiten haben 6970 empfolen was im nachhinein nicht richtig war.
fahre mit den 580 besser mehr fps bei selbem setup vs 6970 von nem bekannten.
 
Ich denke Volkers Aussage bezog sich auf den gesamten chinesischen Test und nicht nur auf ein einzelnes Ergebnis. Alles andere wäre auch Blödsinn.
 
LundM schrieb:
ganz einfach weil die konkurenz karte zur 7970 die 680 ist :)
und die 7970 GHZ ist mit der 770 gekontert worden.

die 780 und titan sind eine andre klasse. aber kepler architektur.
An deiner Stelle würde ich zuerst die Texte genauer lesen, bevor ich drauf eingehe.
Und was passiert, wenn R9 290X schneller ist als GTX 780 & Titan?
Wird dann die Klasse anders definiert?

LundM schrieb:
amd wirbt aber mit GCN 2.0 also erwarte ich eine deutlich verbesserte architektur.
ist genauso wie sie mit octacore geworben haben.
Und das wäre?
"deutlich verbesserte Architektur" zu sagen ist ziemlich nichtsagend.

LundM schrieb:
ist amd ihre schuld wen die pr abteilung aus geistig gestörten besteht.
jeder rauchende affe würde das besser machen. GCN1.0 V2 und ende ist oder 1.2.0 eine firma muss auch mit der zeit gehn.
Man sollte halt wissen, dass GCN der Marketing-Name ist und die Nummer geben die Information des Entwicklungsstand mit den die Marketing-Abteilung nicht prahlt.

LundM schrieb:
glaube nicht das nVidia angst hat.
die haben vor rund 2 jahren ihre gk architektur releast da dürfte der nachfolger in 3-6 monaten markt reif sein :)
bzw warten die woll nur noch auf 20nm.
Schön, dass du uns deinen Glauben gibst.
Nvidia wird wohl nicht der einzige sein, der auf 20nm wartet. 3-6 Monate ist schon ziemlich optimistisch, wenn man bedenkt, dass TSMC noch nicht mal die Massenfertigung gestartet haben. Nicht mal für <100mm² und erst recht nicht für >500mm²-Dies.

Diesesmal kann AMD in gegensatz zu früher wegen R9 290X lockerer an die Sache (Fertigungs-Verkleinerung) gehen, weil sie je nach Bedarf (inkl. Fertigungs-Reife) dann in 9-12 Monaten schon mit Pirat-Island kommen können, während Nvidia da eigentlich noch einen GK110-Refresh bringen will/sollte, sowie ein GM104 erst einmal einen GK110-Refresh schlagen (Der Abstand zwischen Gx104 und Gx110 war noch nie so groß) muss, während der GM110 wiedermal Monate/Quartale später kommt.

Wie viel Angst Nvidia haben wird, wird sich primär nach APU-13 zeigen.
Schließilch kennen wir von GCN 2.0 (FirePro) & Mantle & HSA-Kaveri nicht viel, und schon garnichts von Details.
Nicht zu vergessen ist, dass wir noch auf eine Reaktion der ganzen Volcanic-Island-Familie warten und nicht nur auf Hawaii.
 
Zuletzt bearbeitet:
aylano schrieb:
An deiner Stelle würde ich zuerst die Texte genauer lesen, bevor ich drauf eingehe.
Und was passiert, wenn R9 290X schneller ist als GTX 780 & Titan?
Wird dann die Klasse anders definiert?

die leitstung klasse
aber konkurenz karte ist aktuell 780 oder titan.

Und das wäre?
"deutlich verbesserte Architektur" zu sagen ist ziemlich nichtsagend.

1 energiesparen. was seit langer zeit standart ist sogar wen ein refresh kommt ist energie technisch optimiert worden.
ist einfach logisch weil man in 2 jahren einfach möglichkeiten hat bessere fertigung weniger vcore, einfach ma an dem chip optimieren.
2 reine leistung steigern nicht nur aufbohren.



Man sollte halt wissen, dass GCN der Marketing-Name ist und die Nummer geben die Information des Entwicklungsstand mit den die Marketing-Abteilung nicht prahlt.

sry welcher name ist der wichtige ? marketing oder interne bezeichnungen?
also wen man marketing technisch mit einer 2.0 ankommt verdammt nochma ist es was neues nicht wie zb 1.1 das ist für mich eine optimierung bzw update.

und doch sie haben mit GCN 2.0 als neue bessere version geworben :)

Schön, dass du uns deinen Glauben gibst.
Nvidia wird wohl nicht der einzige sein, der auf 20nm wartet. 3-6 Monate ist schon ziemlich optimistisch, wenn man bedenkt, dass TSMC noch nicht mal die Massenfertigung gestartet haben. Nicht mal für <100mm² und erst recht nicht für >500mm²-Dies.

also in 3-6 monaten kann man ganz sicher damit rechnen das amd und nvidia ihre ersten fertigen teile liegen haben.
weil wens in 6 monaten nicht reicht funktions fähige ES teile zu bekommen um das fertige produkt zu testen
kaufst du vor 2015 keine 20nm karte

ausserdem hat tsmc nicht angekündigt noch dieses jahr die ersten chips zu liefern?


Diesesmal kann AMD in gegensatz zu früher wegen R9 290X lockerer an die Sache (Fertigungs-Verkleinerung) gehen, weil sie je nach Bedarf (inkl. Fertigungs-Reife) dann in 9-12 Monaten schon mit Pirat-Island kommen können, während Nvidia da eigentlich noch einen GK110-Refresh bringen will/sollte, sowie ein GM104 erst einmal einen GK110-Refresh schlagen (Der Abstand zwischen Gx104 und Gx110 war noch nie so groß) muss, während der GM110 wiedermal Monate/Quartale später kommt.

wollen und können sind 2 welten. ja und amd hat noch nie 2 jahre für einen refresh gebraucht und jetzt?
nvidia kann nichts für wen tsmc die chips nicht funktions fähig herstellen kann.
amd kann aber was dafür wen sie für nen aufgebohrten chip der definitif seit ca 1 jahr kosten effizient produzier bar ist in 28nm 2 jahre braucht.

amd hätte theoretisch kurz nach titan schon kontern müssen. da war auch eine 780 teurer jetzt liegt sie unter 500 was preislich druck auf amd ausübt.
jetzt hat nvidia woll schon ne karte liege mit der sie r9 290x kontern könnten.


Wie viel Angst Nvidia haben wird, wird sich primär nach APU-13 zeigen.
Schließilch kennen wir von GCN 2.0 (FirePro) & Mantle & HSA-Kaveri nicht viel, und schon garnichts von Details.
Nicht zu vergessen ist, dass wir noch auf eine Reaktion der ganzen Volcanic-Island-Familie warten und nicht nur auf Hawaii.

also im server bereich lacht sich nvidia woll eher grade tot wen die firepro auch so viel leistung je watt hat.
glaube nvidia hatte mehr angst am anfang als jetzt.

weil titan mit taktungen übr 1ghz auch nicht mehr so grün ist, und nugeld dann gut mit.
als gamer sind 60 watt nicht tötlich aber in nem groß rechner sind bei nur 1000 karten 60 watt schon viel energie.
1 geld fürn strom 2 geld für die kühlsysteme.
 
LundM schrieb:
ja sry aber den chip aufbohren kann jeder der ahnung hat.
das ist im großen und ganzen einfach eine simple hubraum erhöhung.

Alles andere als das. Eher in Richtung Gehirnchirurgie. ;)

Ernsthaft, da geht es um viel mehr, als einfach nur möglichst viele Funktionseinheiten auf möglichst wenig Raum zu quetschen und dann möglichst hoch zu takten.

Würde man bei aktuellen Strukturgrößen alle Transistoren in einem Bereich gleichzeitig schalten, würde das Die sofort schmelzen. Man muss die Funktionseinheiten also so anordnen und so intelligent nutzen/auslasten, dass immer benachbarte Bereiche temporär deaktiviert werden können.
Dabei muss man aber auch die Signalwege im Auge behalten. Es nützt nichts, wenn die Funktionseinheiten flott rechnen können, aber wegen langen Signalwegen nicht schnell genug mit Daten gefüttert werden können und/oder ihre Ergebnisse nicht schnell genug loswerden. Da kommen dann auch Speicherlatenzen ins Spiel, die seit Jahren stagnieren.
Würde man die Schaltfrequenzen aller Tranistoren einer GPU verdoppeln, aber an der internen Kommunikation nicht entsprechend optimieren, resultiert daraus nur 5% mehr Geschwindigkeit.

Damit wird auch klar, dass man nicht einfach nur auf kleinere Strukturgrößen setzen kann und so z.B. durch niedrigere Schaltspannungen höhere Frequenzen bei weniger Verbrauch erreicht. Wobei die Schaltströme eh nicht mehr der kritische Faktor beim Verbrauch sind, sondern Leckströme viel mehr ins Gewicht fallen und die werden bei kleineren Strukturen nur um so schlimmer.

Diejenigen, die glauben, das Geheimnis einer schnelleren GPU läge nur in mehr Funktionseinheiten und höheren Takt ("Hubraum und Drehzahl"), kratzen nicht mal an der Oberfläche der tatsächlichen Problematik.

Also ich ziehe voller Respekt meinen Hut vor den GPU-Entwicklern, die es schaffen, die Architekturen immer weiter so zu optimieren, dass trotzdem immer wieder nenneswerte Leistungs- und Effizienzverbesserungen drin sind.
 
Zuletzt bearbeitet:
Herdware, schön den Gustafson zitiert :D

Aber auf Kommentare wie die von LundM braucht man doch nicht einzugehen. Seine Ausdrucksweise und das lächerliche Halbwissen sagen wohl schon alles. ;)
 
Herdware schrieb:
Also ich ziehe voller Respekt meinen Hut vor den GPU-Entwicklern, die es schaffen, die Architekturen immer weiter so zu optimieren, dass trotzdem immer wieder nenneswerte Leistungs- und Effizienzverbesserungen drin sind.

Naja, allerdings beschränken sich zurzeit bzw. eigentlich schon seit längerem beide Hersteller eher auf die Optimierung. Das ist zwar erstmal in Ordnung, aber leider bleiben größere Evolutionssprünge irgendwie aus.
 
zeedy schrieb:
Aber auf Kommentare wie die von LundM braucht man doch nicht einzugehen. Seine Ausdrucksweise und das lächerliche Halbwissen sagen wohl schon alles. ;)

Mit deinen lächerlichen 53 Beiträgen solltest du dich mal nicht zu weit aus dem Fenster legen, denn was trägst du denn hier fundiertes zum Thema mit dazu ?
 
Higgs Boson schrieb:
Mit deinen lächerlichen 53 Beiträgen solltest du dich mal nicht zu weit aus dem Fenster legen, denn was trägst du denn hier fundiertes zum Thema mit dazu ?

Und was hat die Zahl meiner Beiträge damit zu tun? :freak: Quantität > Qualität? Im Gegensatz zu vielen anderen hier, und auch dir, stelle ich mein Halbwissen nicht als Fakten dar.
Vielleicht solltest du dich mit so unsinnigen Kommentaren nicht zu weit aus dem Fenster "legen" ;)
 
Zurück
Oben