Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Weil das Produktionsvolumen an Highendkarten weniger gross ist und somit die noch grössere Strukkturbreite nicht so sehr ins Gewicht fällt. Bei den Mainstreamkarten werden aber viel mehr Exemplare gefertigt. Insofern macht es durchaus Sinn die kleinere Fertigung erst im Mainstream zu benutzen.
Sorry, aber dieses Foto zeigt nur, dass der Ersteller dringend eine (bessere) Brille braucht. Was dort als 9. Spalte von Shaderkernen markiert ist, unterscheidet sich selbst bei der schlechten Auflösung wesentlich von den 8 Nachbarn und ist IMHO kein zusätzliches ALU-Paket.
Genau. Die neunte "Spalte" an Recheneinheiten passt nicht zu den anderen acht. Bei den ersten acht Spalten kann man ein sich wiederholendes Muster erkennen, das zwei Spalten breit ist. Bei der neunten Spalte sind die Recheneinheiten aber teilweise größer vom Platzverbrauch.
Eigentlich müsstn das dann 1000 sein, von der Breite her würds passen wenn die einfach auf den halben Platzbedarf die 4 untergebracht hätten - aber ist wohl zu schön
@Sturm91
OMG, danke für diese Nachricht - scheinbar bist mit deinem Tunnelblick nur auf Nvidia gelandet, aber ich bin mal so nett und erklärs dir: fast JEDES Unternehmen auf der Börse = nahezu die ganze Börse hat immense Verluste gemacht, sogar MC Donalds bei dir um die Ecke hats, also laber mal nicht soviel Nonsense...
Ich finds sehr gut, was AMD/ATI zur zeit macht. die scheinen wirklich eine ordentliche Strategie zu haben und immer noch etwas, womit sie nVidia ärgern können :-)
BTW: sind die HD 48xx so günstig, weil halt (ich sage mal) alle Chips verwendet werden können, weil ATI schon gegen defekte ALUs vorgesorgt hat und desshalb keine Chips wegschmeißen muss?
Ich weis ja nich, wieviele Chips so unbrauchbar sind, aber irgendwas muss ja die enormen preisunterschiede rechtfertigen.
wenn ati die möglichkeit und die absicht tatsächlich hätte, hätten sie vermutlich schon eine version mit mehr freigeschalteten shadern gegen die gtx280 gebracht
ich vermute eher, das ist einer der gründe, warum ati höhere yieldraten bei ihren wavern haben als nv mit dem 55nm prozess. schließlich lassen ja beide bei tsmc fertigen... vermutlich gibt es kaum chips, bei denen sämtliche 900 einheiten zu gebrauchen sind. das tolle daran, bei ausgereifteren fertigungsprozessen wird der verlust immer geringer, so dass ati von ganz allein über kurz oder lang ihren "rv775" erhalten dann darf man sich durchaus nochmal auf eine neue, leistungstärkere hd4k freuen und zwar unabhängig davon, was nv macht^^
wünsche euch allen und ins besondere dem cb-team einen guten rutsch ins neue jahr
Hmm könnte man als gute Idee betrachten die ersten Karten mit "Ersatzalus" bauen um halt schonmal den Produktinsprozess zu verfeinern und dann 900 Rausziehen um sowas wie ne 4870XT auf den markt zu werfen
Wobei mir ne 4870PRO 40nm lieber währe^^
Dann macht das OC mit 1KW NT auch sinn *fg*
Es wäre schon fast fahrlässig, wenn sich ATI auf den mühsam erarbeiteten Lorbeeren ausruhen würde.
Ich frage mich nur, wie sie diese brachiale Hitzeentwicklung, nicht nur die des Chips an sich, sondern
der gesamten Platine, künftig in den Griff bekommen wollen. Auf der Referenz HD4870 sind, abgesehen von der GPU, nicht gerade die hochwertigsten Bauteile drauf.
was ist denn jetzt sind das zusätzliche 100 shader oder doch was anderes? denn es sieht nicht wirklich so aus als ob die alle gleich wären...
btw der grund warum ati die karten so billig verkaufen kann ist auch die größe des chips
der gt200 ist wesentlich größer und deshalb kann man aus einem waver weniger gt200 chips herstellen als rv770 der größenunterschied liegt unteranderem an dem besseren produktionstechnik (obwohl nvidea ja auch jetzt auf 55nm umgestellt hat)
Ati-Karten sind durch günstigere Bauteile auf den Platinen eben günstiger, den Unterschied bzw den Aufwand kann man gut erkennen bei beiden Standartvarianten NV vs. ATI.
Ich denke nicht, dass die Reihe links normale Shader sind, dazu sehen die viel zu anders aus als die Blöcke, ist denke ich irgendwas anderes.
Frohes Neues.
Das mit dem Powerplay ist so eine Sache. Seit catalyst 8-12 scheint es auf meiner 4870 irgendwie zu funktionieren. Zumindest ist es laut GPUZ mittlerweile egal, ob die GPU bei 300 oder 800MHZ getaktet wird, die Stromaufnahme ist nahezu immer gleich (im Idle). Leider wirkt es sich nicht auf den Speicher aus, je höher der Takt desto hoher die Stromaufnahme, was nicht ganz unlogisch ist.