News Grafikkarten mit 28-nm-GPUs erst Ende 2011?

tm0975 schrieb:
damin ändert sich SEHR viel.

Unabhängig daß mein Kommentar bezüglich des "Updates der News" geschrieben wurde, d.h. also mögliche Testshrinks schon im Frühjahr statt Herbst; zu deinen Punkten:

1. Ob es mehr Wettbewerb gibt wird sich zeigen, ich persönlich glaube nicht daß ATI so unglücklich über die Preise ist. Bis auf die High-End Karten ist doch alles wunderbar lieferbar, und da liegt das Hauptgeschäft. Das den Konsumer das nicht passt ist mir schon klar, hätte die 5870er auch gern zum 4870er Preis gehabt.

2. erstmal kommt der 6er ungeshrinkt. Dieses halbe Jahr das man jetzt gewinnt führt höchstens zum 6er shrink statt gleich dem 7er in 28nm.
Ich sehs also eher negativ, da es den 7er verzögern könnte. Schließlich wäre sonst die Produktlebensdauer sowohl des 6ers ungeshrinkt als auch des 6ers geshrinkt jeweils nur 6 Monate.
 
NI ist kein einfacher Shrink von SI.
SI wird ja die neue HD6K ab Oktober und ich gehe mal stark davon aus, dass NI die HD7K wird.
(ausser AMD möchte NI und SI in der HD6K-Generation vermischen, z.B. HD6700 = SI und HD6800 = NI, aber davon gehe ich nicht aus)
 
TNM schrieb:
1. Ob es mehr Wettbewerb gibt wird sich zeigen, ich persönlich glaube nicht daß ATI so unglücklich über die Preise ist. Bis auf die High-End Karten ist doch alles wunderbar lieferbar, und da liegt das Hauptgeschäft. Das den Konsumer das nicht passt ist mir schon klar, hätte die 5870er auch gern zum 4870er Preis gehabt.
AMD hatte damals mit 4870er mehr Gewinn gemacht (3Q 2008) als heute mit 5870. Somit ist der 5870-Preis niedrig gesetzt. Der höhere Preis entstand eben durch die schlechte 40nm-Yield aufgrund der schlechten 40nm-Fertigung.

IMO wird AMD solange die Preise der zukünftigen Grafikkarten niedrig halten, bis PhysX & Cuda gestorben/irrelevant sind.

TNM schrieb:
2. erstmal kommt der 6er ungeshrinkt. Dieses halbe Jahr das man jetzt gewinnt führt höchstens zum 6er shrink statt gleich dem 7er in 28nm.
Ich sehs also eher negativ, da es den 7er verzögern könnte. Schließlich wäre sonst die Produktlebensdauer sowohl des 6ers ungeshrinkt als auch des 6ers geshrinkt jeweils nur 6 Monate.
Ich bezweifel, dass die 7000er eine Verzögerung bekommt.
Schließlich kommt NI-28nm ja wahrscheinlich sofort, nachdem die 28nm-Fertigung fertig ist. Wo du da eine Verzögerung siehst ist mir unklar, wenn sie sofort kommt.

Man darf nicht vergessen. Das ganze Jahr 2010 hat AMD Zeit um South-Island & North-Island einzuführen.

Früher gabs offizielle Meldungen, dass AMD bei 28nm nicht der erste sein wird.
Immerhin soll es dann doch gleichzeitig werden.

Swissjustme schrieb:
NI ist kein einfacher Shrink von SI.
SI wird ja die neue HD6K ab Oktober und ich gehe mal stark davon aus, dass NI die HD7K wird.
(ausser AMD möchte NI und SI in der HD6K-Generation vermischen, z.B. HD6700 = SI und HD6800 = NI, aber davon gehe ich nicht aus)
Ein einfacher Shrink nicht, aber es könnte die Norht-Island-Architektur und Evergrren-Fertigung (= zusammen Hybrid) mit geänderten Shader & Co sein.

Evergreen ist aufgrund der 40nm auch kleiner geworden als ursprünglich geplant, da noch einige Einheiten rausgegeben wurden um die TDP einhalten zu können.
Somit hat AMD eine sehr große Flexibilität um bei Fertigungsproblemen (32nm wurde gecancelt, wo North-Island hätte kommen sollen) mit Design-Änderungen reagieren zu können.

Na ja, SI = NI-Architektur + Evergreen-Fertigung sind noch Spekulationen.
Mal sehen, was kommt.
Aber wie man sonst einen Hybriden machen kann, muss man mal auch erklären können. Denn 2 unterschiedliche Architekturen zu mischen ist ja auch nicht so einfach.
 
Zuletzt bearbeitet:
Na ja, SI = NI-Architektur + Evergreen-Fertigung sind noch Spekulationen.

Bisher habe ich eigentlich nur das als Gerücht gehört: N.I. sollte ne neue Architektur werden und in 32nm gefertig werden.

32nm wurde gecancelt, ATI hätte entweder 2 Jahre auf Evergreen hocken können und auf 28nm warten oder noch ne Generation zwischenschieben. Letzteres machen sie. S.I. Bekommt den N.I. uncore, verwendet aber die alten Shader weiter (vielleicht 20% mehr). N.I. wird ein Shrink von S.I. mit neuen Shadern.
 
Was hat das mit GPGPU zu tun?
Die Shader eher weniger.
Eher der unnötige Cache.
 
Zuletzt bearbeitet:
Keine Ahnung. Mehr GPGPU-Fähigkeiten würden einen teureren, stromhungrigeren Chip bedeuten. Gaming-Leistung pro Chipfläche ginge wohl runter.
 
Killermuecke schrieb:
Bisher habe ich eigentlich nur das als Gerücht gehört: N.I. sollte ne neue Architektur werden und in 32nm gefertig werden.
Das ist ja nicht nur Gerücht, sondern sowas stand auf Roadmaps

Killermuecke schrieb:
32nm wurde gecancelt, ATI hätte entweder 2 Jahre auf Evergreen hocken können und auf 28nm warten oder noch ne Generation zwischenschieben. Letzteres machen sie. S.I. Bekommt den N.I. uncore, verwendet aber die alten Shader weiter (vielleicht 20% mehr). N.I. wird ein Shrink von S.I. mit neuen Shadern.
Daran hat man lange geglaubt und wird wahrscheinlch jetzt noch am meisten geglaubt.
Aber erst vor kurzem, als andere Gerüchte/Spekulation kamen, fragte ich mich gleichzeitig, warum sollte nur das Uncore kommen ? Warum nicht auch die Shader & Co
Denn, wenn eine Architektur fertig ist, dann die ganze und nicht nur teile.

Dazu hätte North-Island ja sowieso Mitte 2010 (in 32nm) kommen sollen. Was nicht funktionierte, war die 32nm-Fertigung und nicht die Architektur.
Also, war/wäre die ganze Architektur eh schon fertig. Warum sollte man dann die halbe und nicht ganze Architektur mit etwas weniger Einheiten in 40nm nutzen?!!
 
Zur Zeit bin ich mir ja noch unsicher wo AMD hin will, sie haben jetzt ja schon ihre APU für die sie ihre Programme extra(teuer) programmiert haben wollen. Könnte durchaus sein das HD 7000 wieder so einen Sprung macht wie von HD 4000 auf HD 5000 in der Effizienz und GPGPU wieder zum Großteil ignoriert wird.(immerhin will AMD lukrative CPUs verkaufen und sich eher das Geschäft mit den CPUs erhalten). Könnte aber auch so werden wie bei Fermi. 50/50 Chance.

Edit:
Warum sollte man dann die halbe und nicht ganze Architektur mit etwas weniger Einheiten in 40nm nutzen?!!
NI sollte ja mit 32nm kommen und das wahrscheinlich aus gutem Grund um die TDP einzuhalten. Das deutet ja schon drauf hin das die Shader einiges mehr an Strom fressen, also nein es ist wahrscheinlich wegen dem Stromverbrauch nicht möglich einfach NI Shader in 40nm raus zu hauen.
 
Zuletzt bearbeitet:
Das Nvidia bei Globalfoundires fertigen lässt will ich sehen.

AMD gehören noch knapp 30% an Global foundries, hieße das AMD Geld mit Nvidia Grafikkarten machen würde :lol:

Andersrum ist es sehr wahrscheinlich das AMD auch 100% der Fertigungskapazitäten bei GF bekommen könnte, immerhin gehören denen ja die 30%....
 
Wattebaellchen schrieb:
Das Nvidia bei Globalfoundires fertigen lässt will ich sehen.

AMD gehören noch knapp 30% an Global foundries, hieße das AMD Geld mit Nvidia Grafikkarten machen würde :lol:

Genau das gleiche sagt ja auch Nvidia, aber dass sie auf einem hohen Ross sitzen wissen wir ja spätestens seit Fermi.

Aber:
1. Nur mit einem Anbieter zu verhandeln könnte nicht so lukrativ sein, als den Konkurrenzkampf zwischen 2 zu puschen.
2. Sollte TSMC mal Probleme haben oder deutlich niedrigere Yield Raten haben, dann sollte man sich überlegen, ob es Sinn macht auf seinem hohen Ross zu sitzen.

Denn, sie mögen vielleicht AMD damit ein bisschen Geld geben, aber Nvidia kann es sich absolut nicht leisten nicht Konkurrenzfähig zu AMD zu sein, den Grafikkarten ist fast ihr einzigere Sektor....
 
cadaver112 schrieb:
Kann garnicht verstehen wie viele momentan von GTX 260/280/285
auf die jetztige Serie umsteigen..

Also ich lass meine GTX 285 erst mal drin.
Die 10-25% mehr im Vergleich zur 5870 bzw. 20-50% mehr im Vergleich zur GTX 480
lohnen sich noch nicht.
So lange BC2 flüssig läuft, seh ich eh keinen Grund aufzurüsten.
Eigentlich dachte ich an die GTX 480, aber bei der Mehrleistung und der
Zusatzheizung ? Nö!
Ich hab auch keine Lust deswegen extra ein neues wieder sau teures größeres Netzteil zu kaufen.

Ich denke die GTX 480 mit 512 Einheiten als Refresh mit der 28nm Fertigung sollte
genau das sein auf das ich warte.... (GTX 485?)

Was ich aber noch perverser finde ist, dass WIR heutzutage für eine (schnelle) Grafikkarte mehr ausgeben als die PS3 kostet! Und das incl. Blu-Ray laufwerk ! :stock:
 
1 0000443 64MB Asus V8200 Deluxe, AGP, RTL 1 - 837,90 DM

GeForce 3 Bestellung bei MF 29.09.2001 ;) soviel zu "heutzutage"... das war früher auch schon so :D
 
mastermc51 schrieb:
Also ich lass meine GTX 285 erst mal drin.
Die 10-25% mehr im Vergleich zur 5870 bzw. 20-50% mehr im Vergleich zur GTX 480
lohnen sich noch nicht.

Was man sich nicht alles einreden kann. Wenn du dir alle Performanceratings von CB ansiehst, wird dir klar werden, dass die 5870 je nach Einstellung um 18-31% vor der 285 liegt. Nie weniger!

Jocotty schrieb:
1. Nur mit einem Anbieter zu verhandeln könnte nicht so lukrativ sein, als den Konkurrenzkampf zwischen 2 zu puschen.

So sehe ich das auch. Endlich gibt es auch beim Hersteller der GPUs selbst einen Konkurrenzkampf. Die Situation, dass TSMC weltweit der einzige Halbleiterproduzent war, der solche Grafikchips fertigen konnte war ein Horror für die Preisgestaltung. Alle waren blind abhängig, egal wie die Yiel-Rates und die Preise aussehen.

@ Schranzmaster und mastermc51
Und die 8800 Ultra hatte auch eine UVP von 699€ und die 7800 GTX 512 kostete mind. 630€ auf dem Markt (März 2006 - war vorher sogar noch mehr)! Die Erinnerung kann ganz schön trüben! Die 5870 kostet nie mehr als 390€ (teilweise sogar unter 330) und das ne lange Zeit ohne jegliche Konkurrenz von NV. Das finde ich fair in Vergleich zu dem grünen Lager!
;)
 
Zuletzt bearbeitet:
@ Lübke

Davon rede ich ja und des wegen auch "weltweit einzige Halbleiterproduzent ....der solche Grafikchips fertigen konnte"....
 
Eine HD6000 Karte mit dem 28nm Prozess im März oder April 2011 wäre tatsächlich eine tolle Sache. Wie sie dann heißen könnte, ist eine andere Frage. Damals war es die HD4770, die ich gekauft hatte. Nun aber heißt die Mainstreamkarte HD5770. Deren Nachfolger wird vermutlich HD6770 heißen. Da wäre dann eigentlich nur noch Platz für HD6750 oder HD6670.

Wobei die Riege der HD4670 und HD5670 Karten bisher eigentlich für gehobenes Lowend mit exzellentem Stromverbrauch stand. Kompliziert ist das, mit dieser Namensgebung.
 
@DvP: bei deinen preisvergleichen solltest du aber auch bedenken, als nvidia 699 € für die 8800ultra wollte, kostete atis 1900xtx auch ihre 550 € (mein kumpel hat sich die geholt, da überzeugter ati-fan). wenn ich da aufs preis leistungverhältnis schaue... die 850xt pe hat meinen kumpel auch 550,- € gekostet, und da hatte nvidia bereits die 7800gtx draußen. also ati preise von heute mit nvidia preisen von damals zu vergleichen, bringts nicht wirklich, oder? ;)
seit der hd4k hat amd ganz massiv an der preisschraube gedreht. die 3870 kostete noch etwa das gleiche wie die 8800gt.
und wenn man jetzt seinen horizont noch etwas erweitert und die preise des core i7-top models mit dem deutlich größeren und teurer zu fertigenden gf100 vergleicht, kann man wohl kaum im grafiksegment von überzogenen preisen sprechen ;)
 
@ Lübke

Irgenwie willst du mich heute wohl nicht richtig verstehen. :(
Meine Aussage war auf folgendes bezogen:

mastermc51 schrieb:
Was ich aber noch perverser finde ist, dass WIR heutzutage für eine (schnelle) Grafikkarte mehr ausgeben als die PS3 kostet! Und das incl. Blu-Ray laufwerk ! :stock:

Und du sagst selbst, dass AMD/ATI massiv an der Preisschraube gedreht und seine Machtposition im letzten Jahr (10 Monate) nicht so ausgenutzt hat. Nicht mehr und nicht weniger wollte ich dazu sagen....
 
Zurück
Oben