News Alle Details zu ATis Radeon 5000er Serie

Enorm, wie diese News vom Hundertstel, in's Tausendstel abgeglitten ist.
Ich bin mir aber sicher, daß Nvidia eine passende Antwort auf Ati's "Wunderchip" geben wird.
 
-=Streicher=- schrieb:
Sowas in der art habe ich auch schon gelesen

und wenn man aus 4 Wafern (417 chips) nur 1.7% (7 chips) brauchbare Chips hat dan hat man ein großes problem.

Ich persönlich bin jetzt nicht so der nvidia fan aber das finde ich auch schon schlimm dan ist die 5870 so teuer :(
aber gekauft wird die dennoch

Hab erst letztens gelesen das Nvidia etwas weniger als 2% rausholt... (war das nicht die Yield-Rate?)

http://www.semiaccurate.com/2009/09/15/nvidia-gt300-yeilds-under-2/

könnte man fast gleich zu den 1,7% von ATI setzen...
 
das ist doch die gleiche Quelle, auf die sich die anderen Infos darüber berufen. Ich persönlich denke, dass es noch ein paar Tage länger dauert, bis wir den GT300 erblicken...
 
Das die ausbeute so niedrig ist liegt bestimmt an den riesen 500m² chip ^^
 
Dieselben unbelegten Tests wie bereits Vorgestern. Wartet doch einfach ab bis hier was brauchbares steht.
Vielleicht hat ATI ja wirklich seit langer Zeit mal wieder was kaufbares im Portfolio und bekommt auch von mir eine kleine Finanzspritze. Sollte dem nicht so sein haben wir alle mal wieder herzlich gelacht und es ist auch gut :D .
 
Zuletzt bearbeitet:
feldwebel-Chief schrieb:
Das die ausbeute so niedrig ist liegt bestimmt an den riesen 500m² chip ^^

Naja währe er in 55nm, dann währe er vielleicht schon fertig. Hätte, währe, wenn, hilft aber nix. Eigentlich schade, Intel hat 45nm schon 2007/2008 in Massenfertigung geschickt und haut grad 34nm/32nm Produkte raus. Und TSMC versagt am 40nm Prozess. :mad:
 
naja ich denke du kannst da cpu's und gpu's nicht einfach so ohne weiteres vergleichen... denn selbst zwischen den architekturen von ATI und Nvidia scheints ja schon große Unterschiede für TSMC beim Fertigungsprozess zu geben und das sind trotzdem beides GPUs... da sollte der Unterschied zu CPUs nochma viel gewaltiger sein
 
Ich denke wenn ein Problem echt vorliegen sollte, dann sicherlich weil es für TSMC auch "Neuland" ist in dem Sinne, da Nvidia nicht nur Shrinkt sondern auch gleich eine komplett neue Architektur mit einbringt. Man weiß ja nicht wie lange die schon in 40nm getestet wird, dauert halt seine Zeit bis alles läuft.

Edit: Was sing eigentlich die Vorteile im GPU Bereich von Mimd zu Simd ?
 
ohja den G300 in 55nm.....den hätt ich gern gesehen. :lol:

wenn der schon in 40nm 500mm² oder grösser ist.....wie gross wäre der dann in 55nm. :freak:
 
ca. 688mm² ;)
gibt es denn für die schlechten yields eine quelle, die nicht auf charly zurückzuführen ist?
falls das stimmen sollte, wird die neue g300-generation ziemlich teuer werden und damit wird auch der preis der hd5800 sehr weit oben bleiben mangels konkurrenzdruck. für uns verbraucher wären solch magere yields wirklich ein nachteil, egal ob ati oder nvidia kunde.
 
Ja und? Larrabee geht auch in die Vollen. Chipkosten ist nicht alles, schon gar nicht bei einer Grafikkarte!

werden und damit wird auch der preis der hd5800 sehr weit oben bleiben mangels konkurrenzdruck. für uns verbraucher wären solch magere yields wirklich ein nachteil, egal ob ati oder nvidia kunde.
Du sagst es, alles suboptimal :rolleyes:
 
Falls schon mal gepostet einfach sagen dann lösch ich wieder:

Crysis Average:
perf2.jpg


HAWX 1920x1080 4AA:
perf12.jpg


Vantage Extreme:
perf13.jpg


Diverse Benches:
perf4.jpg


Diverse Benches:
perf5.jpg


Diverse Benches:
perf6.jpg


3D Mark Vantage Overall Score:
perf7.jpg


Diverse Benches in vielen verschiedenen Reso/Details:
perf8.jpg


Diverse Benches in vielen verschiedenen Reso/Details:
perf9.jpg


Diverse Benches in vielen verschiedenen Reso/Details:
perf10.jpg


Diverse Benches in vielen verschiedenen Reso/Details:
perf11.jpg


Temps:
From Tweakers.net:
Idle, fan at 20%: 40°C
Idle, fan at 50%: 32°C
Idle, fan at 100%: 31°C
Load, fan at 20%: 91°C
Load, fan at 30%: 75°C
Load, fan at 50%: 58°C
Load, fan at 100%: 53°C

Idle with 20%, 50%, and 100% fan speeds:
idleat20.jpg

idleat50.jpg

idleat100.jpg


Load with 20%, 30%, 100% fan speeds:
loadat20.jpg

loadat30.jpg

loadat100.jpg
 
Kasmopaya schrieb:
Intel hat 45nm schon 2007/2008 in Massenfertigung geschickt und haut grad 34nm/32nm Produkte raus. Und TSMC versagt am 40nm Prozess. :mad:

Man muss ja auch bedenken das es schon ein großer Schritt ist von 45nm auf 40nm.
Der Aufwand steigt pro Nanometer in diesen Bereichen eben gewaltig an.
Zudem ist so eine GPU eben in ihrer Struktur deutlich komplexer als ein Dual- oder QuadCore.
Der größte Teil einer CPU macht sein einfach aufgebauter Cachespeicher aus während eine GPU mit komplizierten Clusters daherkommt.
Die Größe des Dies spielt natürlich auch eine Rolle.
ATI hat ein deutlich kleineres Die und somit eine bessere Ausbeute.

Und außerdem muss Intel ersteinmal die 32nm Fertigung in Serie hinbekommen.
Das sind doch bis jetzt auch nur alles Ankündigungen.

[grueni] schrieb:
da Nvidia nicht nur Shrinkt sondern auch gleich eine komplett neue Architektur mit einbringt.

Ich lese hier ständig über neue Architekturen seitens ATI oder Nvidias.
Bis jetzt habe ich aber keine Beweise dafür gesehen das sie auch eine andere Architektur verwenden.
Die Daten sprechen bei beiden Konkurrenten eher auf eine Verdopplung der Recheneinheiten hin und fertig !
Auch die ersten inoffiziellen Benchmarks sprechen dafür.

Die ATI HD5870 soll maximal 50% schneller sein als eine GTX285 wobei die HD4890 ca. 20 % langsamer war.
Nimmt man da noch die schlechte Skalierung ATIs mit ihren Shadern ein dann kommt man schnell zudem Schluß das eben keine neue Architektur eingesetzt wird sondern einfach in 40nm Produziert wird mit verdoppelten Recheneinheiten. Ein neue Architektur währe erst gegeben wenn man mit der gleichen Anzahl der Shaders ect. diese Werte erreichen würde.

Die große Architekturänderung setzt womöglich erst zum nächsten Launch ein oder ATI verdoppelt wieder die Recheneinheiten. 3200 Shaders ... :freaky:

Kasmopaya schrieb:
Aber bei ATI gibts ja auch Probleme damit. 4770 nicht in ausreichenden Stückzahlen lieferbar und wahrscheinlich hätte man auch die HD 5000 ein paar Monate vorher schon starten können...

Ich glaube eher das es sich hierbei einfach um die Weigerung seitens der Händlerlobby gehandelt hat die hoch moderne in 40nm produzierte HD4770 anzubieten während die alten Produkte im Regal verstauben müssen.

Jüngstes Beispiel war erst neulich als ich in meinen altbekannten Computerladen war und dort in den Regalen die HD4770 entdeckte obwohl sie per Internet nicht lieferbar war.
Jetzt wo die neue Serie vor der Tür steht kräht kein Hahn mehr nach der HD4770.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Jap nennt sich GPGPU, es geht hald nicht immer ums spielen. Mal schaun ob die HD 5870X2 auch das Quad-Block stabil läuft bzw. die Kühlung ausreicht. Wie hier zb: https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110

Ich hab dich aber explizit nach Spielen gefragt, für GPGPU gibts ja auch die FirePro Karten ;)

Aber interessantes Statement von dir:

Kasmopaya schrieb:
Zur Zeit überlegt er ob er weiter aufrüsten soll, also weitere GTX 295 kaufen, oder auf GT300 warten soll. Meiner Schätzung nach hat der GT300 ca. 3-4GFlops und eine bei weitem bessere Watt/Performance darum wird er auch darauf warten... :rolleyes:

:lol:

Und das:

Kasmopaya schrieb:
Warum falten NV Grafikkarten so viel schneller als ATI Karten:

* Why are the ATI x86 FLOP numbers half of the ATI native FLOP numbers?
Due to a difference in the implementation (in part due to hardware differences), the ATI code must do two force
calculations where the x86, Cell, and NVIDIA hardware need only do one. This increases the overall native FLOP count
for ATI hardware, but since these are not useful FLOPS in a sense, we did not include them in the x86 count.

Ist ja wohl der größte BS, den ich je gelesen habe. Ein FLOP ist ein FLOP ist ein FLOP, wo gibts bitte nutzlose FLOP/s? :rolleyes:

Davon abgesehen, selbst wenn man die Shader der ATIs nur 1-fach Skalar laufen lässt, hat der GT200 auch nur 50% mehr Shader als der RV870, wo soll da 2xfache Performance her kommen?

Wenn die Programmierer nicht zu blöd oder zu faul wären, ordentlich auf die ATIs zu programmieren, sähe die Sache ganz anders aus. :rolleyes:

Kasmopaya schrieb:
Naja währe er in 55nm, dann währe er vielleicht schon fertig.

Und noch größer als der GT200(ohne b). Und der war schon am absoluten Limit.
 
Zuletzt bearbeitet:
terraconz schrieb:
Falls schon mal gepostet einfach sagen dann lösch ich wieder:

Ja schon ungefähr 10mal.
Aber du kannst es ruhig stehenlassen.
Ist eine nette Übersicht für diejenigen die keine 800 Posts durchwühlen wollen. ;)
 

Ähnliche Themen

Zurück
Oben