News ATis Cypress-GPU will nicht erhältlich werden

MountWalker schrieb:
Blablabla - dann hätte ja ATI auch gleich in 32nm bestellen können, weil damit noch mehr Leistungszuwachs möglich wäre....

Jau und ich bestelle mir morgen einen Phenom III X8 mit 4Ghz.
Ach nee, warte. Ich habe ja noch gar kein AM3-Mainboard. -,-
 
ja ne ist eh klar. die treiberentwicklung hinkt der hardware hinterher und verzögert den fermi um monate. das blanke marketing-blabla.
 
MountWalker schrieb:
Blablabla - dann hätte ja ATI auch gleich in 32nm bestellen können, weil damit noch mehr Leistungszuwachs möglich wäre....

Keinen Unsinn... und so...
32nm = Intel exklusiv zzt, und die machen zum einen keine Auftragsbestellungen afaik, zum anderen werden sie ihren Larabee zuerst... etc. whatever. Ausserdem wurde der Fertigungsprozess erst vor einigen Wochen fertig.
40nm ist zzt. für den Chip wohl das beste was man atm kriegt.

Complication schrieb:
Aber wie heute ja bekannt wurde hat z.B. Nvidia gar kein Problem mit der 40nm Fertigung, sondern die Verzögerung hat einen anderen Grund
Hm... wäre gut möglich, aber ich denke die Zeit die die für die Treiber brauchen ist exakt die Zeit die es braucht bis der Fermini produzierbar ist... die werden sich doch sicher nicht von ATI den Rang ablaufen lassen indem sie dem Markt die Karten vorenthalten die ATI den Kopf kosten würden, da sie anscheinend besser sind als die von ATI? ;)
Ich meine Treiber sind wichtig, aber bis dort Probleme bekannt werden sind die meisten Karten verkauft, da sich die Verkaufsraten mehr von Benchmark-Charts beeinflussen lassen als wenn bei dem ein oder anderen Spiel nicht gut laufen ;)
Insbesondere wenn Software mit nem großen Team recht schnell geschrieben ist, und der Chip ohnehin schon fest ist^^
 
Zuletzt bearbeitet:
Ich bin heute nen Kompromiss eingegangen. Bei meinem local Dealer gabs heute in der Happy Hour die XFX 5850 BE im Sonderangebot für 275,- zum sofort mitnehmen. Hab eigentlich ne 5870 anvisiert, aber was solls. Jetzt noch nen aquagratix drauf und gut is.

Allgemein sind aktuell aber einige 5870 wieder lieferbar geworden allerdings zu preisen... pffff.
 
Thion schrieb:
Keinen Unsinn... und so...
32nm = Intel exklusiv zzt, und die machen zum einen keine Auftragsbestellungen afaik, zum anderen werden sie ihren Larabee zuerst... etc. whatever. ...
Mal ein kleiner Tipp: Wer meine Beiträge zusammenhängend betrachtet, entdeckt vielleicht die rhetorische Bedeutung meines Verweises auf 32nm. :p
 
Ich blätter keine 32 Seiten durch, also artikuliere dich bitte klar
und erkläre uns deine Absichten. ;)
 
Thion schrieb:
Geringere Strukturbreite garantiert mehr Transistoren und weniger Verlustleistung, ergo größere Geschwindigkeit und weniger Stromverbrauch... genau das womit der Cypress punktet^^

Ich stelle mal in den Raum dass der Cypress aus eben diesen Gründen nicht mit 55nm realisierbar gewesen wäre, weils einfach keinen Sinn machen würde.

Der Grund für immer kleinere Strukturen liegen einfach nur in dem Vorteil das man mehr Dies pro Wafer bekommt und somit sich die Hardware billiger herstellen läßt. Das optimiert die Gewinne und macht Druck auf die Konkurrenz.
Das man dadurch natürlich auch mehr Leistung realisieren kann ist nur ein schöner Nebeneffekt für den Endverbraucher und läßt sich immer gut mitverkaufen. ;)

Glaubt man nicht ?
Dann sollte man sich fragen warum es nächstes Jahr schon 6-Kerner CPUs geben wird und bald darauf schon 8-Kerner oder noch mehr.
Eine vorhandene Architektur einfach zu verkleinern und sie mittels Multicore zu vervielfältigen ist in der Entwicklung nur Bruchteile so teuer als wenn man eine komplett neue Architektur erschaffen muss die man noch höher takten muss.
Ein 8-Kerne wäre nur schlecht in 90nm zu bewerkstelligen und extrem teuer in der Herstellung. Also wird die Struktur verkleinert und schon ist es möglich.
Natürlich ist die Sache zweischneidig wie man an TSMC sehen kann.

Schlussendlich zählen nur die Herstellungskosten ob ein Produkt auf den Markt kommt und in welcher Form.
 
Zuletzt bearbeitet:
Pickebuh schrieb:
Glaubt man nicht ?
Dann sollte man sich fragen warum es nächstes Jahr schon 6-Kerner CPUs geben wird und bald darauf schon 8-Kerner oder noch mehr.
Eine vorhandene Architektur einfach zu verkleinern und sie mittels Multicore zu vervielfältigen ist in der Entwicklung nur Bruchteile so teuer als wenn man eine komplett neue Architektur erschaffen muss die man noch höher takten muss.
Hast du mal die CPU-Architektur eines Phenom mit einem Bulldozer verglichen?
Da ist keine Bauteil geblieben wie es vorher war - also von einem einfachen Shrink kann gar keine Rede sein. Damit ist hier kein Geld gespart mit der verwendung von bewährter Architektur.

Auch hat es wohl noch nie einen so grossen GPU-Die gegeben wie mit dem Fermi - und damit so wenig GPU/Wafer -> Also kann auch da nicht von weniger Kosten pro GPU gesprochen werden.
 
Seltsam ist nur das beim Bulldozer in Benchmarks genauso skaliert als wenn man einen 4-Kernen mit einem 2-Kerner paart.

Und was den Fermi angeht...
Stell dir mal vor die müssten den Fermi noch in 55nm herstellen. :freaky:
 
rumpel01 schrieb:
GT200 65nm war ganze 576mm² groß, da dürfte es auch Fermi schwer haben, da heran zu kommen ... ;)

Since we know that GT200 had a massive size of 576 square millimeters we can tell you that Fermi is slightly smaller. This was confirmed by Nvidia but we could not get the exact size of the chip. We just learned that the chip has 3.1 billion transistors and that is the only number they wanted to give away.
"slightly smaller..." bei 38% verkleinerter Strukturbreite...^^
Es geht nicht nur um die Die-Grösse, sondern auch um die Transistoren / Die... soviel Transistoren sind afaik noch nie auf nen Chip gepackt worden wie jetzt, nichtmal CPUs haben soviel^^
 
nichtmal CPUs haben soviel^^

CPUs kommen schon seit einiger Zeit nicht mehr an die Highend GPUs heran, was die Transistoranzahl betrifft ;) .
 
rumpel01 schrieb:
GT200 65nm war ganze 576mm² groß, da dürfte es auch Fermi schwer haben, da heran zu kommen ... ;)
Stimmt da hab ich mich wohl von der Transistorzahl blenden lassen ;)
 
@ Weltenspinner

https://www.computerbase.de/forum/t...rhaeltlich-werden.666126/page-31#post-7135558 (schau mal auf Datum+Urzeit des Erstellens)

Meine sarkastische Bemerkung, dass ATI ja dann auch gleich für 32nm hätte entwerfen können, bezog sich eben auf das allgemeine Argument, dass 40nm jetzt nötig gewesen sei, weil man eben die Strukturbreite immer weiter verkleinern muss um mehr Leistung zu bekommen - in 32nm gäbs noch mehr Leistung und in 25nm oä. noch viel viel mehr, ob ich etwas fertige muss eben davon abhängen, on diese Fertigung in Serie problemlos möglich ist und nicht, ob ich sie gern hätte.

P.S.
Will mich jetzt vielleicht jemand auffordern ihm zu sagen, wer denn in der Welt in 25nm fertigen kann? :D
 
Zuletzt bearbeitet:
HD5870 war nur in 40nm oder kleiner realisierbar. Punkt.

TMSC (Dreht euch die Buchstaben selbst zurecht!) bietet höchstens 40nm an. Punkt.

Es werden erfolgreich HD5800-GPUs in 40nm gefertigt. Punkt.

Nur eben nicht genug für die Nachfrage des Marktes. Punkt.
 
@MountWalker

Man kann nicht einfach von 55nm auf 28nm oder kleiner springen, da in diesen Strukturgrößen nicht oder sehr schwer vorhersehbare Quanteneffekte auftreten können, die die Entwicklung sehr in die Länge ziehen können, was nach dem satz "Zeit ist Geld" nicht allzu erfreulich wöre für einen Hersteller. Da macht das schrittweise herantasten schon mehr Sinn.
 
Weltenspinner schrieb:
HD5870 war nur in 40nm oder kleiner realisierbar. Punkt...
Um die jetzt erreichte Leistung zu erreichen, habe ich das nicht bezweifelt, aber man hätte mit einem 50nm oder 45nm Prozess auch ordentliche Leistungssteigerungen ggü. der in 55nm gefertigten Vorgängergeneration erreichen können, stattdessen hat man sich darauf festgenagelt von 55nm auf 40nm zu wechseln.
 
Zuletzt bearbeitet:
Seit wann gibt es einen 50nm Prozess? oO
45nm gibt es nur für CPUs.
 
Zurück
Oben