News Finale Spezifikationen der AMD Radeon R9 290 und 290X

Dein technisches Wissen in allen Ehren, ich kanns nicht sagen ob das was du schreibst Sinn macht oder nicht aber sagen wir mal es passt und ev. kapier ichs nach 5x durchlesen dann doch.

Meine Frage wurde aber leider nicht beantwortet. Die Wafer produziert doch Amd selber oder? Gut dann könnten die, sollten sie mehr Wafer brauchen doch nochmals aufs Knöpfchen drücken und mehr davon produzieren. Ich verstehe nicht in welchem Bereich die Limitation liegt. Geld? Material? Ressourcen? Zeit?

Bitte schreib mal langsam, mann könnte dir wirklich leichter folgen wenn du etwas auf 3. / 4. Fall achten würdest!
 
@john carmack

Schon klar, für mich ist "selbst" bei nem Onlineshooter auch 30fps flüssig ;)
(klar merk ich nen Unterschied, aber der ist mMn irrelevant bzw. sorgt nicht für mehr Spaß, und darum gehts ^^)
Crysis 1 hab ich "damals" (hardwaregezwungen :evillol:) auch mit 10-30fps durchgespielt und ich fand es nicht schlimm - klar mehr sind besser, aber hat schon gepasst :D
30fps reichen mir eig. immer aus.

Mit meinem Beispiel "läuft nicht" meine ich 3fps (also Diashow) - einfach weil selbst die Rohleistung von 2x Titan für die "maximale"(!) Bildqualität halt einfach nicht ausreicht.
Ich wollte einfach nur "alles läuft mit solchen Karten flüssig bei höchsten Details" als falsch darstellen - nicht mehr und nicht weniger. Man hat so gut wie in jedem Grafikkracher(auch noch ein paar andere) dann halt ne Diashow, wenn man die Bilqualität anzieht.
 
Panerai schrieb:
Meine Frage wurde aber leider nicht beantwortet. Die Wafer produziert doch Amd selber oder?

Nein, Wafer "produziert" AMD schon lange nicht mehr. Die Fabs wurden erst nach GlobalFoundries ausgelagert und diese mittlerweile komplett verkauft, die Wafer der GPUs sowohl von AMD als auch NV kommen schon seit geraumer Zeit von TSMCs Fabs. Ich glaube nicht das die dort einen AMD Mitarbeiter auf die Knöpfe drücken lassen :-)
 
john carmack schrieb:
Nebenbei nähern wir uns so langsam der 10.000.000.000 Transistoren/GPU Marke an. Diese Marke wird mit Sicherheit mit dem 20nm Prozess geknackt.
So einen Prozesor kann man heutzutage nicht einfach mal so nebenbei produzieren... Das sollte jeder verstehen.

Prozessoren waren noch niemals einfach nebenbei zu entwickeln und zu produzieren. Es gibt wundervolle Geschichten darüber zu lesen (ich könnte da das eine oder andere sehr lesenswerte Buch empfehlen), wie z.B. Mitte der 70er der legendäre 6502 von MOS mit seinen stolzen 3510 Transistoren entwickelt und produziert wurde. Was für ein enormer Aufwand da rein gesteckt werden musste und was für extreme technische und organisatorische Schwierigkeiten überwunden. Es war zum großen Teil das individuelle Genie einzelner Personen (z.B. Bill Mensch) und auch eine gewisse Protion Glück nötig, um dieses Produkt überhaupt Realität werden zu lassen.

Seit dem sind die Prozessoren immer komplexer und größer geworden, aber eben auch die Entwicklungs- und Fertigungsprozesse im gleichen Maß weiterentwickelt worden. Vieles was früher Handarbeit (oder "Kopfarbeit") war, ist heutzutage automatisiert. Es gibt ausgefeilteste Simulationen und bewährte Prozesse, mit denen man auch komplexeste Produkte mit relativ wenig Risiko und guten Ausbeuten wirtschaftlich produzieren kann. In diesen Werkzeugen und Methoden steckt inzwischen mindestens so viel Genie drin, wie in den Produkten selbst.

Ich sehe deshalb keine harte Wand, gegen die irgendwann gerannt werden wird (jedenfalls nicht bevor wir die tatsächlichen physikalischen Grenzen für Strukturgrößen erreichen) oder die gar schon erreicht wurde. Die Grenzen werden immer weiter und weiter geschoben.

Nvidias Kepler-Generation ist für mich eigentlich eher ein Beispiel dafür, dass große Steigerungen eben doch weiterhin möglich sind. Der GK110 z.B. ist ein mehr als ordentlicher Fortschritt gegenüber seinem Vorgänger GF110 (fast doppelt so schnell bei vergleichbarem Verbrauch). Hätte Nvidia nicht die Gelegenheit genutzt, die für sie überraschend schwache Tahiti erstmal nur mit der kleinen (verglichen mit dem Vorgänger ebenfalls bärenstarken) Performance-GPU GK104 zu kontern, wäre die Kepler-Generation der größte Leistungssprung seit der G80 geworden.

Es mögen auch technische Gründe mit in Nvidias Entscheidung hinein gespielt haben, aber vor allem wirtschaftliche/strategische. Auch vor dem Hintergrund der allgemein nicht gerade boomenden Weltkonjunktur. Das ist man mit größeren Investitionen und Risiken halt lieber vorsichtig.
Aus dem selben Grund hat AMD Sea Islands wegfallen lassen und bei Volcanic Islands auch nur die Flagschiff-GPU neu entwickelt.

Und ja. Das ist nur eine Meinung, die ich mit diversen Argumenten und Fakten untermauere. Keine religiöse, unumstößliche Wahrheit, die alle dagegen sprechenden Argumente und Fakten als ketzerische und bösartige Lügen entlarvt, die man getrost ignorieren kann, so wie bei gewissen anderen Leuten. ;)
 
Zuletzt bearbeitet:
Artikel-Update: Am heutigen Tag klärt sich nun auch noch der letzte unbekannte Punkt, der die ROPs der Radeon R9 290X betrifft. Bei diesen wurde bisher von lediglich 44 ausgegangen, die neuen AMD-Folien sprechen jedoch von einer Verdoppelung gegenüber der Radeon HD 7970, die derer 32 besaß, sodass die „Hawaii“-GPU mit 64 ROPs an den Start gehen wird. Eine weitere Folie mit den Spezifikationen bestätigt darüber hinaus nochmals das, was bereits durch die Gerüchteküche bekannt gemacht wurde und seit gestern auch von AMD offiziell auf der Webseite geführt wird.
 
Schön dass die ROPs kein Flaschenhals sein werden. Damit steigt die Hoffnung, dass die zusätzlichen Shadereinheiten sich auch realtiv linear in der Leistung niederschlagen (oder sogar mehr als das, falls die ROPs bei Tahiti schon limitiert haben sollten). Dazu noch potentielle Zugewinne durch die neue Architektur und sonstige Optimierungen und es sollte eigentlich kein Problem für die 290X sein, sich (zumindest leicht) über der Titan zu platzieren.

Der von videocardz angenommene Startpreis von 650 Euro wäre natürlich schon ein ganz schöner Brocken. Das wäre um einiges höher, als von AMD ursprünglich angekündigt und würde sich mit dem Startpreis der GTX780 einen Rekordplatz als teuerste "reguläre" Single-GPU-Karte aller Zeiten (oder zumindest der jüngeren Geschichte) teilen.
Aber da sind wir wirklich erst nach dem Release schlauer. Die Preise der kleinen Modelle haben ja positiv überrascht und lagen deutlich unter den ursprünglichen AMD-Ankündigungen.

Was mich bei den Preisen auch etwas wundern würde, ist das gewaltige Loch zwischen den 250 Euro für die 280X und den 520 Euro für die 290. Da passt preislich gleich ne ganze Reihe weitere Karten zwischen und nicht wenige würden vielleicht lieber zu zwei 280X für weniger Geld greifen statt einer 290er.
 
Zuletzt bearbeitet:
650 Dollar wären mir eindeutig zu viel, leider. Für 550 Euro würde ich zuschlagen, das ist aber auch meine absolute Schmerzgrenze.
Mal schauen was die R9 290 so reissen wird. Falls die nur 5-10% hinter der 290x liegt wäre es zu überdenken, da die 290x doch mal eben 150 Dollar teurer ist und das wäre es mir den "Luxusaufschlag" nicht wert.
Aber mal abwarten wie teuer die Karten wirklich werden.
 
Ich freue mich schon richtig auf den kommenden Dienstag. Es gehen auch Preise von 370 für die 290 und 500 für die X durch die Gerüchteküche. Mir ist es egal, wenn die Leistung stimmt, die Kühlung gut und leise ist, zahle ich auch gerne mehr. Ich bin aber auch skeptisch, 649€ kann ich mir nicht vorstellen. Selbst 500€ für die 290 scheint mir zu hoch. Für das Geld bekommt man 2 280X, die als Gespann mit Sicherheit mehr leisten können.
 
Panerai schrieb:
Meine Frage wurde aber leider nicht beantwortet. Die Wafer produziert doch Amd selber oder?

Bitte schreib mal langsam, mann könnte dir wirklich leichter folgen wenn du etwas auf 3. / 4. Fall achten würdest!
Das Problem ist weniger die Schreibgeschwindigkeit, sondern der Informations-Inhalt selber, dass AMD von Globalfoundries und TSMC produzieren lässt. Genauergesagt bis vor kurzem noch die Big-CPUs/APUs bei Globalfoundries und Little-CPUs/APUs sowie GPUs bei TSMC, wobei das in Zukunft immer mehr verschwimmen kann.

Gut dann könnten die, sollten sie mehr Wafer brauchen doch nochmals aufs Knöpfchen drücken und mehr davon produzieren. Ich verstehe nicht in welchem Bereich die Limitation liegt. Geld? Material? Ressourcen? Zeit?
Entscheidend ist nicht das Knöpfchen drücken, sondern der Tool-Ramp bzw. Tool-Installations-Geschwindigkeit, die dann die Wafer produzieren können. In den letzten Regel/Jahren dauert so ein Tool-Ramp in einer Fabrik so 12 Monate. Und wie viele Wafer zu bestimmten Zeit ungefähr dann produziert werden können, kann man recht einfach mit Gesamt-Wafer-Anzahl einer Fabrik, durch 12 Monate rechnen. Und wenn man noch das Datum den Massen-Start kennt, dann kannst du dir die Wafer-Zahlen zum Datum recht einfach raussuchen.

http://www.xbitlabs.com/images/news/2012-10/tsmc_capacity.png
Hier kannst sehr schön TSMC @ Fab 15 sehen, wie kontenuierlich so ein Fabriks-Ramp (in diesem Fall) in min 3 Quartel stattfindet.

Das Problem bei TSMC ist, dass sie so 50-100 Desgin @ 20nm haben und alle möglichst früh versorgt werden können. Deshalb leiden viele Firmen eben an Anfang eines Fertigungs-Zyklus recht schnell an chronischer Lieferschwierigkeit.
Bei 28nm war man da etwas überrascht, weil da erstmals der Smarpthone & Tablet-Hype @ neuen Fertigungen zu spüren war. Natürlich wird man draus gelernt haben, aber die Lösung wird auch nur daran liegen, dass man bestimmte Produkte einfach später in 20nm bringt.

Und wie eben erwähnt, wird das Wafer-Kapazitätsproblem deutlich durch die Yields verstärkt, die ebenfalls kontenierlich verbessert werden.

Genau aus diese Gründen, war schon sehr deutlich sichtbar, dass GK100 vielleicht frühestens im 4Q 2012 in den Geforce-Markt (= Massenmarkt) kommt, obwohl alle noch an einem GK100 @ April 2012 träumten, weil alle Gerüchteküchen genauso kochten.

Genau aus diesem Gründen wird auch Hawaii sowie der Pirat-Island @ 20nm Konfiguriert und deshalb ist es z.b. sehr lächerlich, wenn man eine Grafikkarte dann nur anhand einer Zahl bewertet.

Hawaii & Nachfolger wird sehr konteniuerlich & Problemlos kommen, während ma bei Nvidia schon die Gerüchte hört, dass GM100 neu konfiguiert werden musste.
 
Zuletzt bearbeitet:
nurfbold schrieb:
650 Dollar wären mir eindeutig zu viel, leider. Für 550 Euro würde ich zuschlagen, das ist aber auch meine absolute Schmerzgrenze.
Mal schauen was die R9 290 so reissen wird. Falls die nur 5-10% hinter der 290x liegt wäre es zu überdenken, da die 290x doch mal eben 150 Dollar teurer ist und das wäre es mir den "Luxusaufschlag" nicht wert.
Aber mal abwarten wie teuer die Karten wirklich werden.

Beim aktuellen Dollarkurs wären es sogar weniger als EUR 500,-, rein theoretisch. Leider lassen die Hersteller die Europäer die niedrigen Preise in den USA subventionieren.
 
@computerbase107 --> totaler quatsch die USA Preise sind immer ohne Steuern..... wieso kappieren die Leute das nicht? Verstehe ich einfach nicht.
 
Eine R9 280X wär garantiert der passende Ersatz für meine HD 6870 :D
Ich warte noch aussagekräftige Tests ab und entscheide dann, ob es nicht doch eine R9 290 (ohne X) wird :D
 
Als Star Citizen und Natural Selection 2-Spieler will ich unbedingt True Audio.
D.h. es kommen nur 3 Grafikkarten überhaupt in Frage: 260X, 290 und 290X.

Meine bisherigen Upgrades (ungefähr jede 2. Generation) brachten mir bisher immer die doppelte Leistung und lagen so um die 150€ (bei 300€ ist für mich Schluss - mehr ist mir eine Grafikkarte, die in 12 Monaten obsolet ist, einfach nicht wert).
Da ich eine HD6870 habe, fällt die 260X flach, weil sie nicht wesentlich schneller ist. Ich bräuchte mindestens etwas auf dem Niveau einer HD7950+ oder 280.

Ich fürchte, dass sich der Mehrpreis einer 290 einfach nicht lohnt, wenn 280X/7970 bereits auf 250€ gefallen sind...

Bin gespannt auf nächsten Dienstag...
 
Zuletzt bearbeitet:
Ich bin auf den Preis der R9 290 w/o X gespannt. c:
 
computerbase107 schrieb:
Beim aktuellen Dollarkurs wären es sogar weniger als EUR 500,-, rein theoretisch. Leider lassen die Hersteller die Europäer die niedrigen Preise in den USA subventionieren.

Wie Scythe1988 richtig sagt, muss man natürlich die MwSt dazurechnen, wobei man dann bei 580 € landet. Natürlich wird der US-Preis 1:1 (oder fast) umgerechnet, aber der "Europäeraufschlag" liegt dann "nur" bei ca. 70 €.
 
Zurück
Oben