Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Fiji einzig neue GPU der Radeon-R9-300-Serie
- Ersteller Wolfgang
- Erstellt am
- Zur News: Fiji einzig neue GPU der Radeon-R9-300-Serie
L
Laggy.NET
Gast
Ich glaube nicht, dass irgend jemand davon ausgegangen ist, dass R9 380 und 380X schneller werden, als R9 290 und 290X und dann NOCHMAL darüber eine R9 390 und 390X kommen. Oder doch?
Das hätte fast zwangsweise den größten Leistungssprung der letzten 10 Jahre bedeutet. 4 Karten, die alle schneller sind, als die schnellste Karte der Vorgängergeneration? Das ist doch völlig unrealistisch.
Hätte zwar erwartet, dass die R9 290(X) durch was kostengünstigeres und effizienteres ersetzt werden, aber wenn sie nur umgelabelt werden, entspricht das auch nur der Vorgehensweise der letzten Jahre.
Mal sehen, was letztendlich bei der R9 390X rauskommt. Ich erwarte die R9 390 für 400-500€ als Konkurrenz zur GTX980 (max. 5% Vorsprung) und die R9 390X für ~600€ mit 20% Vorsprung zur GTX980. Das würde gut zu den prognostizierten +50% zur R9 290X passen.
Das hätte fast zwangsweise den größten Leistungssprung der letzten 10 Jahre bedeutet. 4 Karten, die alle schneller sind, als die schnellste Karte der Vorgängergeneration? Das ist doch völlig unrealistisch.
Hätte zwar erwartet, dass die R9 290(X) durch was kostengünstigeres und effizienteres ersetzt werden, aber wenn sie nur umgelabelt werden, entspricht das auch nur der Vorgehensweise der letzten Jahre.
Mal sehen, was letztendlich bei der R9 390X rauskommt. Ich erwarte die R9 390 für 400-500€ als Konkurrenz zur GTX980 (max. 5% Vorsprung) und die R9 390X für ~600€ mit 20% Vorsprung zur GTX980. Das würde gut zu den prognostizierten +50% zur R9 290X passen.
Diablokiller999
Captain
- Registriert
- Jan. 2007
- Beiträge
- 3.400
Böser SeitenhiebherliTz_234 schrieb:Ich hoffe das Marketing und Entwicklung miteinander reden!
Denke es wird die 300er Serie mit Fiji, Hawaii und Tonga XT geben ( HighEnd - Midrange ), warum auch nicht. Hawaii kann in einigen Szenarien noch der GTX 980 gefährlich werden, verbraucht nur etwas viel Platz aber dennoch n top Chip. Sollten sie die Kühlung nicht versauen, sehe ich da kein Problem...
D
Don Kamillentee
Gast
DeathShark schrieb:Diesbezüglich bin ich wirklich gespannt, was der Sprung auf 14nm FinFET so bewegen wird, nach ewigen 28nm-Zeiten könnte hier ein ziemlich sprunghafter Leistungsanstieg lauern.
Wer es glaubt, wird ... !
Sollte wirklich ein Leistungssprung größerer Gattung möglich sein, würde dieser sicher NICHT sofort an den Kunden weitergereicht, sondern scheibchenweise in Neuauflagen dem Kunden im Halbjahrestakt vorgelegt.
Deshalb kommen doch auch immer erst Enthusiast Karten 980/970 bzw. 290/290x und erst im Anschluss die "billigeren" Karten. Später die Refreshs.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.299
hm, es gibt diverse Leaks die vielleicht alle denselben Ursprung (User im Chiphell Forum) haben:
http://www.chiphell.com/thread-1182382-1-1.html
Ergo ~200W Verbrauch bei der angeblich "kleinen" Fiji was in 20nm durchaus hinkommt und für Luft Only Kühlung spricht.
Parallel wird ja von Bermuda mit der Wasser / Hybrid Kühlung berichtet:
http://wccftech.com/nvidia-gm200-titan-2-amd-fiji-380x-bermuda-390x-benchmarked/
(original http://www.chiphell.com/thread-1196441-1-1.html)
Die Werte passen ganz gut zueinander (im ersten Leak ~197W für Fiji XT, im 2. 220W). Fiji mit etwa 220W Verbrauch und Luft, zu Bermuda ist nichts angegeben, wohl aber zum beschnittenen GM200 der etwa auf dasselbe rausläuft, vielleicht in 28nm oder 20nm TSMC (ohne HBM).
Darüber auf Basis selbem Chips Bermuda XT, hochgezüchtet mit Hybrid Wasser um den GM200 um Vollausbau zu schlagen - wobei der Verbrauch ähnlich dem GM200 sein könnte aber man aus der Hawaii Referenz Kühlung gelernt hat.
http://www.chiphell.com/thread-1182382-1-1.html
Ergo ~200W Verbrauch bei der angeblich "kleinen" Fiji was in 20nm durchaus hinkommt und für Luft Only Kühlung spricht.
Parallel wird ja von Bermuda mit der Wasser / Hybrid Kühlung berichtet:
http://wccftech.com/nvidia-gm200-titan-2-amd-fiji-380x-bermuda-390x-benchmarked/
(original http://www.chiphell.com/thread-1196441-1-1.html)
Die Werte passen ganz gut zueinander (im ersten Leak ~197W für Fiji XT, im 2. 220W). Fiji mit etwa 220W Verbrauch und Luft, zu Bermuda ist nichts angegeben, wohl aber zum beschnittenen GM200 der etwa auf dasselbe rausläuft, vielleicht in 28nm oder 20nm TSMC (ohne HBM).
Darüber auf Basis selbem Chips Bermuda XT, hochgezüchtet mit Hybrid Wasser um den GM200 um Vollausbau zu schlagen - wobei der Verbrauch ähnlich dem GM200 sein könnte aber man aus der Hawaii Referenz Kühlung gelernt hat.
Zuletzt bearbeitet:
smilefaker
Banned
- Registriert
- Feb. 2014
- Beiträge
- 1.161
Das ist doch scheiße!
Im Bereich von 7870 bzw. 270(x) kommt also schon wieder nichts ordentliches.
Ich will meine 7870 endlich durch was richtig ordentliches ersetzen. Nagelneu, hocheffizient und mit den aktuellsten Features ausgestattet. Aber es gibt immer nur Aufgüsse.
Tonga liefert das aktuelle Featureset und wird der Nachfolger der 270x.
Und neue Featuresets kann man mit einer verbesserten Fertigung auch theoretisch auf Pitcairn loslassen
Laggy.NET schrieb:Mal sehen, was letztendlich bei der R9 390X rauskommt. Ich erwarte die R9 390 für 400-500€ als Konkurrenz zur GTX980 (max. 5% Vorsprung) und die R9 390X für ~600€ mit 20% Vorsprung zur GTX980. Das würde gut zu den prognostizierten +50% zur R9 290X passen.
Die GTX 980 ist also 30% vor der r9 290x?
Zuletzt bearbeitet:
News schrieb:Eine potenzielle Radeon R9 285X mit dem Vollausbau der Tonga-GPU gibt es nicht.
Das stimmt so aber nicht. CB hat hier über den Vollausbau im iMac berichtet:Cris-Cros schrieb:Tonga (R9 285) ist ja derzeit nur in einer Karte verbaut und stellt den neuesten Chip dar.
https://www.computerbase.de/2014-10/apple-imac-erhaelt-5k-display/
Da Grenada dem Hawaii nachfolgt, kann man davon ausgehen, dass es zumindest einige Feature-Upgrades gibt und es nicht einfach nur umbenannte GPUs sind. Die Codenamen sind schließlich keine Marketingnamen für die Öffentlichkeit die man umbenennen muss.
Cris-Cros
Commodore
- Registriert
- Jan. 2010
- Beiträge
- 4.150
kisser schrieb:Wenn es nur nach der Leistung ginge ja.
Der Chip ist aber zu groß und damit in der fertigung zu teuer, als das man im billigeren Mittelklasse-Segment damit noch Geld verdienen könnte. Die 7970 hat als Highend mal rund 500€ gekostet, die kann man nicht 3 Jahre später für 150€ als Mittelklasse anbieten.
Dafür fehlt mir leider das Insider Wissen. Ich kann mir aber vorstellen, dass die Yield Rate mittlerweile sehr hoch ist und so die Kosten pro Chip minimiert werden können. Habe ja auch in meinem Post geschrieben, dass die Anlauf Kosten für das neue Design nicht gerade niedrig sein werden, dazu noch die Entwicklungskosten...
Tonga im Vollausbau in der Mittelklasse würde mir gefallen. Erfahrung konnte man bereits in der aktuellen Serie gewinnen. Andererseits könnte man auch Hawaii einfach so weiterlaufen lassen, denn gegen die GTX970 fährt die Serie noch sehr gut, darunter hat man dann ja schon Tonga. Mit Hawaii wird man leider nicht so viel Gewinn pro Karte machen...
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.412
Ich vermute, dass es doch einen neuen Chip geben könnte, der "neu" ist. Nämlich einen Chip der den alten MARS bei den Notebooks absetzten würden.
Tonga wird nämlich Pitcairn ersetzten, der die höheren AMD Notebook Modelle ersetztet. Bei Apple gibt es ja schon den ersten. Ich würde es zu mindestens als nachvollziehbar sehen, würde man den kleineren Chip für die kleinere Modelle auch modernisieren. Mal sehen ob da was kommt.
Tonga wird nämlich Pitcairn ersetzten, der die höheren AMD Notebook Modelle ersetztet. Bei Apple gibt es ja schon den ersten. Ich würde es zu mindestens als nachvollziehbar sehen, würde man den kleineren Chip für die kleinere Modelle auch modernisieren. Mal sehen ob da was kommt.
smilefaker
Banned
- Registriert
- Feb. 2014
- Beiträge
- 1.161
kisser schrieb:Wenn es nur nach der Leistung ginge ja.
Der Chip ist aber zu groß und damit in der fertigung zu teuer, als das man im billigeren Mittelklasse-Segment damit noch Geld verdienen könnte. Die 7970 hat als Highend mal rund 500€ gekostet, die kann man nicht 3 Jahre später für 150€ als Mittelklasse anbieten.
Tonga ist 358mm² groß und wird in die Fußstapfen einer r9 290 treten, eventuell sogar bisschen schneller sein.
Und selbst Tahiti müsste man nicht für 150 Euro anbieten, schau dir mal eine GTX 960 an, die wird für 190 verkauft und ist deutlich langsamer.
kingphiltheill
Lieutenant
- Registriert
- Dez. 2010
- Beiträge
- 580
Und ich hatte Anfangs noch hoffnung, dass ein effizientes Design in einer kleinen Karte ala Asus 970 Mini kommen würde. Demnach kann ich das vergessen und bin bis auf weiteres an NV gebunden.
smilefaker
Banned
- Registriert
- Feb. 2014
- Beiträge
- 1.161
Wieso soll das nicht kommen? Ein Tonga XT könnte ich mir schon vorstellen, mit 180 Watt TDP, der etwa an die Leistung einer GTX 970 herankommt.
Prinzenrolle_
Lt. Commander
- Registriert
- Sep. 2007
- Beiträge
- 1.969
Ich find es schade, dass ich sehr zufrieden mit 3D Vision bin, denn somit bin ich von Nvidia abhaengig. Mag eigentlich die freie Wahl und AMD hat meiner Meinung immer wieder sehr interessante Karten. Da meine erste Karte eine ATI war, bin ich sowieso bei AMD ein wenig nostalgisch. Naja, ich bin gespannt was AMD uns da hinzaubert. Momentan laeuft ja mein GTX 680 SLI gespann noch gut.
W
Wolfsrabe
Gast
DeathShark schrieb:[...] Diesbezüglich bin ich wirklich gespannt, was der Sprung auf 14nm FinFET so bewegen wird, nach ewigen 28nm-Zeiten könnte hier ein ziemlich sprunghafter Leistungsanstieg lauern.
Obwohl ein Leistungsanstieg nie abzulehnen ist, würde mich ein sprunghafter Effizienzanstieg doch viel mehr freuen.
Ich bin froh, dass AMD nicht solch einen Murks wie die 970 fabriziert hat und alles sauber angebunden ist intern. Ich mag das Rätselraten nicht um die tatsächlichen Eigenschaften einer Hardware und kauf mir lieber etwas wo ich weiss was drin steckt. Basierend auf technischen Fakten und nicht auf dem Marketing-Schwachsinn, den man derzeit von Nvidia überall lesen kann. VRAM-Definitionen, GSync-Blufferei, OC-Deaktivierung nach dem Kauf von Notebooks, Gameworks-Gängelei, DX 11-Feature-Level-Schönrederei etc. Mir ist kein Unternehmen in der Branche bekannt das auch nur eine ähnlich lange Liste an "Missverständnissen" vorzeigen kann.kingphiltheill schrieb:Und ich hatte Anfangs noch hoffnung, dass ein effizientes Design in einer kleinen Karte ala Asus 970 Mini kommen würde. Demnach kann ich das vergessen und bin bis auf weiteres an NV gebunden.
Cris-Cros schrieb:Ich kann mir aber vorstellen, dass die Yield Rate mittlerweile sehr hoch ist und so die Kosten pro Chip minimiert werden können.
Der yield ist nicht das Problem. Man bekommt aber deutlich weniger Chips aus einem Wafer, je größer der Chip ist. Dazu kommt dann noch das größere PCB, der dickere Kühler und die größer dimensionierte Spannungsversorgung.
Vergleiche doch mal eine GTX960-Karte (z.B http://www.evga.com/products/images/gallery/02G-P4-2962-KR_XL_1.jpg) mit einer R280-Karte (liegen von der Performance auf gleichem Niveau). Da wirst du sehen, dass die 960 wesentlich günstiger zu fertigen ist.
Wenn es nur nach Performance ginge, dann könnte man ja eine 7970 oder GTX 680 auch in 5 Jahren noch im 50€ lowcost Segment anbieten. Das wäre aber ein immenses Verlustgeschäft für Chip- und Kartenhersteller.
Flowerpower77
Banned
- Registriert
- Juli 2012
- Beiträge
- 570
So wie befürchtet. Klasse, AMD!
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
Wolfsrabe schrieb:Obwohl ein Leistungsanstieg nie abzulehnen ist, würde mich ein sprunghafter Effizienzanstieg doch viel mehr freuen.
Läuft ja letztlich aufs selbe hinaus.
Höhere Effizienz bedeutet, dass man bei gleichem Verbrauch mehr Leistung hinbekommen kann.
Das absolute High-End-Modell sollte dabei sinnvollerweise den 300W-Rahmen möglichst gut ausreizen und dabei dann so viel Leistung bieten, wie möglich. Der Sinn so einer Karte liegt schließlich nicht im Stromsparen. Es wäre bescheuert, sich beim Spitzenmodell auf z.B. 200W zu beschränken, nur weil die neue GPU-Architektur oder das Fertigungsverfahren so schön effizient ist. Dann macht man die GPU halt entsprechend größer und/oder taktet sie höher usw.
Ich sehe definitiv nicht, dass wir beim High-End auf absehbare Zeit an einem Punkt ankommen, an dem man sagen könnte, dass die Leistung "gut genug für alle" ist. 4K und mehr, Supersampling,>60FPS, Virtual-Reality usw. werden auch die nächsten GPU-Generationen locker mehr als auslasten.
Bei den kleineren Modellen und besonders den Mobil-Varianten kann man dann umgekehrt heran gehen und versuchen einen bestimmten Leistungs-Punkt (z.B. FullHD-Gaming) bei möglichst niedrigem Verbrauch zu erreichen.
Aber wie gesagt, letztlich ist es ein und die selbe Schraube (Grafikleistung/Watt), an der man dabei dreht.
Ähnliche Themen
- Antworten
- 105
- Aufrufe
- 24.818
- Antworten
- 30
- Aufrufe
- 2.996