News Radeon R9 390: AMDs Fiji Pro von XFX abgelichtet

Novasun schrieb:
Besser kann mans ja eigentlich nicht erklären - aber einige raffen es trotzdem nicht...

Nur soviel zum Thema "raffen es nicht": High-End-Leistung ist nicht unbedingt gleich High-End-Hardware...
 
@ Novasun
Der Chip könnte 1000mm² groß sein, wenn er keine Leistung bringt - dann ist das bei euch high-End - ne is klar
...und was soll uns ein Argument sagen das keins ist?
Doch, der Mittelklasse-Chip GM204 hatte die Leistung um bei den seinerzeit aktuellen High-End AMD-Pendants mitzuspielen - deshalb wird doch nicht aus dem nVidia Chip der effizienter und etwas leistungsstärker war, aber als Mittelklasse ausgelegt - kein High-End Chip!
Wie gesagt, einfach schauen auf Chip-Design, Chip-Größe, Speicher-Schnittstelle und nicht zuletzt auch noch dem internen Namen!

Wenn Du so willst, kommt der aktuelle nVidia High-End Chip GM200 mit der Titan und dessen Ablegern!
Genauso wie es der GK110 und dessen Ablegern war!
Es hat alles seine logische Ordnung......nur eben nicht an der Kasse, da wird dann auch mal der Mittelklasse Chip zu High-End-Preisen vertickt - also ~600 €.
Die Titan(-x) hat ja darüber hinaus noch mehr Speicher zu bieten, was man sich fürstlich bezahlen lässt (natürlich ohne es gut zu heißen)!
 
Novasun schrieb:
Besser kann mans ja eigentlich nicht erklären - aber einige raffen es trotzdem nicht...
P.S.: Die Chipgröße - echt das bringt Ihr als Argument.... Der Chip könnte 1000mm² groß sein, wenn er keine Leistung bringt - dann ist das bei euch high-End - ne is klar... Denkt mal drüber nach...

Was High-End ist, bestimmt aber der Zeitpunkt des Markteintrittes und dessen Performance - im Vergleich zur Konkurenz auf dem jeweiligen Einsatzgebiet...

Nur so und nicht anders könnt Ihr High-End definieren. Zum Eintrittszeitpunkt war die 980GTX High-End von Nvidia bezüglich SingleGPU Leistung in Spielen. Sie ist es in meinen Augen auch heute noch immer, auch wenn NV mit Titan X ein "besseres" Produkt released hat.

Bloss doof, das Firmen nicht ohne Grund die Produkte in unterschiedliche Klassen einteilen siehe (CPU, SSD, Autos, etc)!
Nur das Marketing und interne Klassifizierung sich unterscheiden bei der 900 Serie von NV.

NV hat einfach nur frecherweise die Chance genutzt die Mittelklasse teurer zu verkaufen als Sie intern eingestuft worden ist :)
Das wurde schon paar Mal plausibel aufgelistet, wie AMD und NV Ihre Karten einsortieren.
Überspitzt ausgedrückt: Wenn AMD seine kommende R9 360 als Highend verkauft, nur weil Sie potenter als die Titan X ist, dann würdest du das auch nicht als lustig empfinden :D
 
Lars_SHG schrieb:
Wenn Du so willst, kommt der aktuelle nVidia High-End Chip GM200 mit der Titan und dessen Ablegern!
Genauso wie es der GK110 und dessen Ablegern war!
Es hat alles seine logische Ordnung......nur eben nicht an der Kasse, da wird dann auch mal der Mittelklasse Chip zu High-End-Preisen vertickt - also ~600 €.
!

GM200 ist aber im Vergleich zu GK110 auch nur eine reine Gaming GPU, da eben DP-Einheiten nicht vorhanden sind, weil NV offensichtlich an der Grenze des Möglichen angekommen ist.

Das einzige was die ganzen Chips verbindet ist die Architektur, aber das war es schon.
Nehmen wir das Beispiel GK104 vs GK110. Wäre GK104 die 680 GTX bzw 770 GTX günstiger gewesen, als die GK110 780 GTX TI, wäre die 780 GTX TI gleich zu beginn gekommen ?
Das glaube ich kaum, da eben besagter Chip sogar die "zweite" Revision war, weil der GK110 kaum verfübar war, eben aufgrund der Fertigung.
NV hat die DP_einheiten doch aus dem GK104 entfernt, weil der Chip dann kleiner wäre und zu diesem Zeitpunkt auch eine größere Ausbeute erlaubt, als der GM100 mit DP-Einheiten.

Somit bleibe ich dabei, zu dem Zeitpunkt war GK104 als Gamer das wirtschaftlich machbare und somit "High-End"

AMD macht es eben genau anders. Die machen den größtmöglichsten Chip mit halbwegs hoher Ausbeute aber immer mit aktivierten DP-Einheiten. Das war bei Tahiti der Fall, bei Hawaii und jetzt bei Fijii.
Man stelle sich vor, Fijii wäre zur Zeit von Tahiti oder Hawaii gekommen. Wäre einer der anderen GPUs dann "billiger". Das glaube ich kaum, denn der Preis ist eben von den Herstellungskosten abhängig und dann indirekt von der Konkurrenz. Umso mehr ein Monopol vorhanden, desto mehr ist der Preis von der einem Markt-Teilnehmer bestimmbar.

Ändern wird sich die ganze Situation, sobald GPGPU und auch doppelte Genauigkeit für Games wichtiger werden. Denn dann könnte NV ihre Strategie wieder überdenken und sich wieder mehr Richtung AMD orientieren. Einen Chip auf den Markt bringen, der nicht zu groß ist, aber DP-Einheiten integriert hat.
 
Zuletzt bearbeitet:
@pipipi

Warum ist AMD eigentlich diesen Weg gegangen? Das ging doch alles nur auf die Energieeffizienz und in Spielen findet sowas bis heute keine wirkliche Anwendung. Die hätten ab der HD 7970 ihre Chips auch rein auf Spiele auslegen sollen. Hat man sich da verspekuliert?
 
da eben DP-Einheiten nicht vorhanden sind
hat für die Einschätzung im Bereich gaming keine Relevanz und die GTX Karten sind von nVidia nur für Gaming vorgesehen! Was der Grund war um diese bei Titan 1 zu belassen ist unbekannt und von nachgeordneter Bedeutung!

GTX TI gleich zu beginn gekommen ?
warum nicht mal den wahrscheinlichsten Grund (bei GK110) annehmen? Nämlich der, dass zu Beginn einer jeden Fertigung einfach weniger Einheiten ohne Fehler zur Verfügung stehen?
Alternativ könnte man auch kaufmännische Gründe annehmen, beide sind höchst wahrscheinlich und ordnen alles andere unter!

GM204 war nie teildeaktiviert (abgesehen von dem Spaß bei der 970) - auch hier wieder der klare Unterschied zu den High-End Produkten der Vorjahre!

zu dem Zeitpunkt war GK104 als Gamer das wirtschaftlich machbare und somit "High-End"
Definitionsfehler - es wird nicht High-End durch fehlende Optionen!

Beispiel - wenn auch derzeit unrealistitsch - aber es verdeutlicht das Problem!
Angenommen in 10 Jahren würde es AMD nicht mehr geben, nVidia bringt die Generationen nur noch alle 4 Jahre raus.
Eine Mittelklassenkarte für 150 € nach 4 Jahren schlägt dann die High-End-Variante von vor 4 Jahren, die möglicherweise 1.000 € gekostet hat.
Weshalb sollte jetzt die neue Mittelklassenkarte für low Budget Gaming die neue High End Karte sein? Nur weil sie nach 4 Jahren Evolution schneller ist und vor dem release der neuen High-End Karte heraus kommt?
 
Lars_SHG

Fehlende Optionen. Das heißt, einen Chip nicht fertigen zu können.
Das bedeutet der aktuelle GM200 ist auch nicht "High-End" weil der ursprünglich mit DP-Einheiten geplant war, aber der Chip am Ende schlicht und einfach zu groß war.

Da eine fehlende Option eine aktuelle Option nicht zu High-End machen kann, dürfte laut deiner Definition die TitanX keine High-End karte sein, weil es ja ein Vollausbau nach NV doch ein GM200 mit DP-Einheiten wäre.
 
Zuletzt bearbeitet:
pipip schrieb:
Nehmen wir das Beispiel GK104 vs GK110. Wäre GK104 die 680 GTX bzw 770 GTX günstiger gewesen, als die GK110 780 GTX TI, wäre die 780 GTX TI gleich zu beginn gekommen ?
Das glaube ich kaum, da eben besagter Chip sogar die "zweite" Revision war, weil der GK110 kaum verfübar war, eben aufgrund der Fertigung.

Überlegungsfehler: Zum Release der ersten Generation von Kepler Chips war nVidia wegen der 7970 von AMD unter Zugzwang. Zum Glück für nVidia war aber die 7970 von AMD schwach genug, dass nVidia den GK104 kurzerhand als GTX-680 auf den Markt werfen konnte. Klar, die Verfügbarkeit des GK110 war vermutlich nicht gewaltig, aber für einen Paperlaunch hätte es wohl gereicht. Auch wäre es für AMD wohl knüppeldick gekommen, wenn nVidia ihren GK104 plötzlich als GTX-670 oder gar GTX-660 zu entsprechenden Preisen vertickt hätte. Aber nVidia ist ja nicht dumm und weiss, dass man ja noch den GK110 in der Hinterhand hat und macht das einzig richtige aus ihrer Sicht: schnell den GK104 als GTX-680 verkaufen und den GK110 zu einer 1000€ Enthusiasten-GPU umbenennen. Bingo.
 
Überlegungsfehler: Zum Release der ersten Generation von Kepler Chips war nVidia wegen der 7970 von AMD unter Zugzwang. Zum Glück für nVidia war aber die 7970 von AMD schwach genug, dass nVidia den GK104 kurzerhand als GTX-680 auf den Markt werfen konnte.

Okay, wäre Hawaii statt Tahiti auf den Markt kommen oder sagen wir Tahiti größer und schneller gewesen, was wäre denn dann aus NV Option auf den Markt gekommen ?
Gk110 ?
Das glaubst du doch selbst nicht. NV hätte maximal einen etwas größeren GK104 auf den Markt bringen können aber bei GK100 hat NV schon mit Stückzahlen gekämpft.

Das alles ist doch nur zusammengereimt, dass NV Mittelklasse liefert weil "AMD" ja nicht mithalten kann.
Das ganze wird sich erst richtig zeigen, wenn eben GPGPU und auch doppelte Genauigkeit mehr und mehr an Wert gewinnt und die NV-Karten dann eventuell einbrechen, zumindestens, wenn sie nicht GK110 GPUs sind.

Wenn ich mich sogar recht erinnere, war Tahiti damals ein Paperlunch und es hatte gedauert, bis überhaupt genug Stückzahlen da waren und selbst GK104 hatte seine Zeit gebraucht. Ich glaube eher, NV hatte damals sich nur zu einem entschlossen. GK104 die DP-Einheiten zu kürzen und dafür mehr Shader zu integrieren um eben mit Tahiti konkurrieren zu können, weil man wusste, GK100 wird es kaum Vergügbar geben und bis zum Zeitpunkt wo es dann GK100 geben könnte, wäre AMD mit Hawaii am Markt.

Klar im Vergleich war die Tahiti zur Gk100 zu schwach, aber GK100 wäre eben keine Gefahr, wenn man sie kaum kaufen kann oder der Preis extrem hoch war. Nur so würde eine Verschiebung der GK104 Sinn ergeben, um eben dessen Performance zu pushen. Und um wirtschaftlich und in großen Stücken produzieren zu können, mussten eben damals die DP-Einheiten dran glauben.

Klar, die Verfügbarkeit des GK110 war vermutlich nicht gewaltig, aber für einen Paperlaunch hätte es wohl gereicht

Aja Paperlunch. Und wozu hätte das gereicht ? Um bei Benchmarks oben zu sein ?
GK110 ist übrigens eine Revision. GK100 hat es nie in den Consumer-Markt geschafft, weil er eben so "bescheiden" war und in nur wenigen HPC-Produkte vertickt wurde.

NV hat damals nur eines gesagt, sie hätten sich "mehr" von der Konkurrenz erwartet. Das ist das selbe wie, Konsolen bringen kein Geld, aber Shield dürfte ja ein voller Erfolg sein.
Aber auf genau solche Aussagen, werden dann immer Konstrukte aufgebaut, die NV "glänzen" lassen.


Das einzige was sich geändert hat, sind die Strategien die die Firmen verfolgen. AMD pflegt bei allen GPUs DP-Einheiten zu integrieren und NV pflegt es, nur dem größten Chip zu integrieren. Wieso ja jetzt Maxwell für den HPC Markt für DP-Aufgaben wertlos geworden ist.
 
Zuletzt bearbeitet:
Wenn AMD die Entwicklung weiterhin so Schnecken lahm bei den Grafikkarten verlangsamt, kann ich in 500 Jahren immer noch nicht TM2C mit 120Hz bei vollen Details und 4K Auflösung spielen. :mad:
 
Wurstpeller schrieb:
Wenn AMD die Entwicklung weiterhin so Schnecken lahm bei den Grafikkarten verlangsamt, kann ich in 500 Jahren immer noch nicht TM2C mit 120Hz bei vollen Details und 4K Auflösung spielen. :mad:

Und das ist AMDs - und nicht Intels oder Nvidias Schuld - weil ..... ?
Außerdem traue ich mich zu wetten, Kompatibilität und ein entsprechendes CF Profil vorausgesetzt, dass 3x 390X jedes Spiel auf 4K@120FPS darstellen könnte.

Und welchen Monitor-Hersteller verfluchst du nun, weils das noch nicht gibt ....... ? :D
http://www.tweaktown.com/news/38112...ith-120hz-are-still-1-2-years-away/index.html

mfg,
Max
 
Zuletzt bearbeitet:
Ich denke er möchte 4K VSR / DSR auf einem 1080p Monitor machen.
Mit der GTX970 habe ich Trackmania mit 4x DSR und 60Hz V-Sync gespielt...lief gut und war sehr flüssig. Aber 120Hz mit 4K DSR könnten durchaus schwierig werden. Aber die R9 hat ja mehr Power :D

So viele Gerüchte, will endlich offizielles.
Ich hätte nicht gedacht, dass GTA 5 vor der R9 390 raus kommt. Scheint aber nun doch so zu sein :rolleyes:

Und am Ende wird es doch die R9 380X weil die 390 mit über 500€ jeglicher Vernunft widerspricht.
 
pipip schrieb:
AMD pflegt bei allen GPUs DP-Einheiten zu integrieren

Bloß nebenbei, GraphicsCoreNext hat keine extra DP-Einheiten. Mehrere Recheneinheiten übernehmen bei GCN zusammen die Berechnung für DP :)
 
Ich will!
 
Grundsolide schrieb:
Wahrsager oder so? Beim ersten Teil blendest du Gerüchte/angeblich geleakte Benchmarks aus, die es anders prophezeien und dann in Sachen Rebranding nimmst du Gerüchte aber für bare Münze. Entscheide dich. ;)

Ich denke mir halt das Nvidia sicherlich weiß was da auf sie zu kommen wird ( gemeint die R9 390er). Als Ass im Ärmel wird wohl die GTX 980Ti noch zurückgehalten um zu sehen wie "nahe" die R9er wirklich an die Titan X kommen wird/kann.

Um sich nicht selber ins Knie zu schiessen wird die 980Ti aber ebenfalls nicht an die Titan X ganz ran kommen ( daher auch der sinnlose Preis ) alles andere wäre nur dumm und es gibt zwar viele dumme Menschen aber das wird nicht passieren und ist auch damals nicht passiert. Ebenfalls wird Nvidia aber nicht ne 980Ti "nach" der R9er rausbringen die deutlich schwächer sein wird als AMD´s Spitzenmodell.
Es ist bisher immer so gewesen und denke nicht das man hier trotz HBM Speicher Wunder erwarten kann und darf. Ich denke Sie reiht sich wie bereits von mehreren erwartet zwischen der GTX980 und der Titan X einpendeln. Wobei mal der und dann wieder der Bench anders ausfallen wird.

Aber stimmt schon orakeln bringt nichts, abwarten ! ;)
 
pipip schrieb:
BlauX

Lol, wenn man das Bild vergrößert und echt scharf auf die 9 schaut, dann könnte das echt eher eine 8 sein :D

Genau, wenn man sich das Bild links, seitlich anschaut erkennt man die R8 380 und keine R9.
 
-jerico- schrieb:
Ich denke mir halt das Nvidia sicherlich weiß was da auf sie zu kommen wird ;)

Ich denke mir das NV die Titan schnell noch raus brachte bevor die 390X rauskommt und sie wissen das die schneller ist und auch Double Precision kann und da nicht kastriert ist wie die neue Titan. Da kann man die paar grünen pseudo Enthusiasten noch gut abzocken. ;)
 
Zuletzt bearbeitet:
psYcho-edgE schrieb:
Bloß nebenbei, GraphicsCoreNext hat keine extra DP-Einheiten. Mehrere Recheneinheiten übernehmen bei GCN zusammen die Berechnung für DP :)

Und warum kann das Nvidia bei der Titan X (GM200) nicht bzw. so extrem schlecht?
 
Sorry, ich weiß worauf hier eineig NV Jungs anspielen wollen.

Doch euer Denkfehler ist, nur weil NV in der Vergangenheit zwei "Chipdesigns" gefahren ist, heißt das

a) nicht das der eine Chip "nur" Mid-range war/ist
b) das vor allem in der Zukunft so bleiben wird.

Und so lange ein Vollausbau zwar geplant ist, dieser aber nicht produziert wird (meist weil es sich wirtschaftlich noch nicht lohnt - oder weil der Chip einfach noch nicht fertig ist - hier tun ja manche so als wenn bei NV die weiteren Ausbaustufen schon längst fertig wären... Beweise? für diese Annahme?) ist euer "NV" MidRange Chip High-End sofern er die Leistung bringt...

P.S.: Auch der Begriff High-End-Hardware ändert nichts daran... Hier würdest du High-End im zweifel nur anders definieren...
Da wäre für diech evt. ein Chip der heute zwar Leistungstechnisch nur ein Low-End ist aber in 16nm produziert wird High-End-Hardware... Dann wird aber AMD jetzt bald führen, denn der 28nm Prozess bei GloBo erlaubt höhere Packungsdichte... das ist zumindest fertigungstechnisch fortschrittlicher...

Nach eurer Argumentation war der Lamborghini Miura nie ein High-End Sportwagen, denn Lamborghini hatte schon immer vor weitere, bessere Fahrzeuge zu konstruieren und zu bauen...

Ich kann nur hoffen das NV bald aus technischer Sicht seine jetzige Strategie aufgeben muss und Ihr in Zukunft dann seht... das die Unterscheidung high-End aufgrund interner Chipnummern so keinen Sinn macht.
Bzw. AMD baut laut euch nur Midrange chips... die haben es nicht nötig große Vollausbauten zu bringen... die halten NV GPU`s auch so in schach... :D
 
Mal ne Frage was will Otto Normal Verbraucher mit Double-Precision ? Für Spiele und Grafikanwendungen wird es so gut wie nicht verwendet, da sie in der Regel wesentlich mehr Zeit beanspruchen und einfache Genauigkeit genügt. Weiß ja nicht ob sich hier viele mit dem Thema CAD usw. täglich rumschlagen wo dies eventuell nützlich ist.Diese steigen wohl eher auf AMD Fire oder Nvidia Quadro etc. Daher eher zweitrangig ! Aber wie gesagt abwarten und Bier trinken...

Und ja ich bin von GTX980 auf die Titan X gesprungen, weil ich komplett auf eine höhere Auflösung ( Triple Monitor ) umgestiegen bin. Bereuen tue ich nicht wirklich, sicherlich ist das viel Geld aber wirklich noch mal ne Stufe höher und aktuell das Maximum im Single Bereich und auch teilweise über der R9 295x2. Preis ist Mist keine Frage , alternative mit großem Speicher ? Negativ ! Gerade jetzt wo so langsam die Auflösungen über Full HD steigen, wird die Speichermenge sehr wichtig.

Allein als kleines Beispiel, mit voller Detailstufe usw. Far Cry 4 in Full HD gespielt und nebenbei geschaut wie die Speicherauslastung war. Satte 3,3-3,8 Gb. Morgen werde ich testen wie viel bei den nächsten Auflösungen der Speicher ausgelastet wird ( 2580x1140 usw.) Da wird es wirklich eng, selbst mit 4GB "wenn" die Detailstufe nicht schwinden soll.
 
Zuletzt bearbeitet:
Zurück
Oben