News Bleibt Nvidia weiterhin bei großen GPU-Kernen?

@incurable
Naja naja... nvidia hat 1,4 Milliarden Transistoren, ATi ist bei ~965 Millionen Transistoren, das auf dem Wafer also eine bessere Ausbeute bei ATi ist sollte wohl klar sein.
Und das ein Chip der nochmal pi mal Daumen 500 Millionen Transistoren hat, eine nicht so hohe Ausbeute, gerade durch die Baugröße und zusätzlich noch durch defekte Chips, hat sollte auch klar sein.

Nvidia verdient deutlich weniger pro verkauften Chip als ATi, das sollte offensichtlich sein.
 
Es ist schade, dass die Chip-Designer nicht mehr mit den Fortschritten in der Fertigung Schritt halten können. Früher haben die Designer nach mehr Transistoren auf dem Chip gelechzt und mit jedem zusätzlichen Transistor einen Leistungszuwachs zum Nulltarif hinbekommen. Jetzt ist die Fertigung dem Design soweit weggelaufen, dass den Designern nur einfällt mehrere CPUs auf ein Chip zu backen. Leistung gibt es nun nur gegen heftige Investition in Parallelisierung der Software.
 
@Killermuecke

Da jagen so Gerüchte durchs Netz, dass AMD Ende 2009 seinen ersten 32nm Dual-GPU Chip auf dem Markt bringt (2 GPUs auf einem Die) -> in Dresden gefertigt.

Das würde auch zu meinen anderen Informationen passen (also aus zwei unterschiedlichen Quellen), dass das arabische J.V. in Dresden versucht, erste 32nm Chips in Q3/2009 zu fertigen!
 
Sicher hat der RV770 eine höhere Ausbeute bei 100% Funktionalität als der G200, alles andere würde auf Prozessprobleme bei TSCM weisen, dass allein reicht aber nicht, um ihre jeweilige Rendite zu beurteilen. Was mich an der Klarheit von AMDs Vorteil Zweifeln lässt, sind die Preise der jeweiligen Karten:

- Karten mit kaputten RV770 gibt's aktuell ab 90 Euro, voll funktionstüchtige RV770 gehen bei 115 Euro los.

- Beim G200 sind's immerhin 215 Euro für die kaputten, und 330 Euro für die voll funktionstüchtigen Versionen. (bei [fast/-] doppeltem Speicherausbau)

Aber im Prinzip sind diese Spekulationen müssig, denn um echte Aussagen treffen zu können, müsste man theoretisch in der Buchhaltung von AMD und nVidia arbeiten. (am besten gleichzeitig!)

-

@YoWoo

Aktuelle GPUs haben, überträgt man die CPU-Nomenklatur, schon 10 Kerne auf einem die, "Doppelkerne" findet man höchstens noch im Bereich der Motherboardgrafik.
 
Zuletzt bearbeitet:
Es geht immer nur ums eine nämlich ums Geldverdiehnen. Da hat ATI eindeutig den besseren Weg eingeschlagen. Diese ist deutlich einfacher und vor allem kostengünstiger herzustellen. Somit spricht man auch den größten Kundenbereich an. Die Grafikkartenhersteller wenden sich nicht umsonst von NVIDIA ab, denn mit der GTX 260 und GTX 280 ist kaum noch Geld zu verdiehnen. Dies wird sich aber bestimmt in den Quartalszahlen wiederspielgeln.
 
Für den Endverbraucher ist ein großer GPU momentan auf alle fälle die bessere Wähl. Da aber die Ausbeute immer schlechter wird, werden die Hersteller gezwungen darüber nachzudenken welche alternativen es gibt. AMD hat das getan. Solange allerdings die beschriebenen Probleme bestehen werden viele Kunden lieber zu einer Singel-GPU Karte greifen.
 
Ist sicher auch preisgünstiger wenn man mehrere kleine Chips nutzt als einen großen. Denn wenn ein großer Fehlerhaft ist fliegt gleich der ganze große Chip in den Müll.
 
Lübke schrieb:
bei hohen yieldraten sind aber singel-gpu-lösungen definitiv die bessere wahl.

Stimmt auch nicht ganz. Die Die-Fläche wirkt sich auch auf den Verschnitt aus.

@topic
Wie bereits gesagt wurde, halte ich dies ebenfalls einfach als Folge dessen, dass die Kerne schon Jahre zuvor geplant und entwickelt werden. nVidia muss jetzt so oder so seine nächsten Kerne wie geplant auf den Markt bringen. Früher oder später werden sie aber wohl auch auf diesen Zug aufspringen. Hoffentlich werden dann die Spiele von Haus aus deutlich besser auf Multi-GPU optimiert.
 
@Crimson II

Dazu hätte ich gerne mal eine logische(!) Begründung warum ein großer GPU Chip für den Endverbraucher besser sein soll. Welche Vorteile hat er denn dadurch?
 
Theoretisch ist AMD im Vorteil, aber praktisch kann man nicht davon ausgehen, dass ein RV770-Wafer genauso viel kostet wie einer vom G200, oder dass beide die gleichen yield- und bin-Raten produzieren.

Die Wafer mögen gleich teuer sein, aber es passen bedeutend mehr kleine RV770 auf einen als die Monsterchips. Der grössere Chip hat ausserdem die geringere Yield-Rate; die Kosten gehen eher quadratisch mit der Grösse. Zum Launch beider Karten (allerdings 55nm-ATI vs. 65nm-NV) geisterten mal Gerüchte durchs Netz nach denen ein ATI-Chip 35$ in der Herstellung kostet während der 200er-Chip die angepeilten 100$ wegen zu geringer Ausbeute weit verfehlt haben soll. Etwas mehr Erfahrung und 55nm werden nv geholfen haben, trotzdem werden die immer noch bedeutend teuer in der Herstellung sein.

YoWoo schrieb:
Da jagen so Gerüchte durchs Netz, dass AMD Ende 2009 seinen ersten 32nm Dual-GPU Chip auf dem Markt bringt (2 GPUs auf einem Die) -> in Dresden gefertigt.

Das würde auch zu meinen anderen Informationen passen (also aus zwei unterschiedlichen Quellen), dass das arabische J.V. in Dresden versucht, erste 32nm Chips in Q3/2009 zu fertigen!

Schön zu hören, wobei ich das das erste Mal höre. Bis zum Analyst Day bin ich davon ausgegangen, dass Fusion Ende 09 kommt, aber der ist da nirgends aufgetaucht und von 32nm-Chips war erst mit Bulldozer 2011 die Rede. Deneb ist ja ein schöner Chip für 2009, aber für 2010 hat AMD hoffentlich auch noch was in Vorbereitung (nicht nur Grafik).
 
Zuletzt bearbeitet:
Ja, das Offensichtliche wird von den Wesentlichen Leuten erst sehr Spät erkannt ...
Da man die Mikroruckeler nicht in den Griff kriegt, was man schon nach der Ersten hätte merken dürfen, ist es Schwachsinn weiter in den Bereich rein zu Proschen, lieber nebenbei Entwickeln.

Solange Platz auf dem PCB ist, sollen sie das auch Nutzen, soll die GPU doch 5x15cm werden, wen interessierts, die Theorie dahinter muss stimmen, viel Fläche um abwärme zu Transportieren ... problematisch natürlich wenn man Liniar mit der Größe weiterhin Heizbrummer baut ...


Naja, ich sachet immer wieder, macht die dinger größer solange noch Platz da ist, und packt mehr rein ... gleiches mit CPU etc. ...


PS: YoWoo, schön wärs, klingt aber nicht unbedingt alles so plausibel, z.B. 512Bit mit GDDR5 , da müsste ja ein Gigantischer Leistungssprung kommen um das überhaupt Sinnvoll zu machen, andererseits die X2 dennoch nur mit 256 anbinden? Fraglich was das gemische bringen sollte.
Aba ich lass mich überaschen ;)
 
Zuletzt bearbeitet:
Falk01 schrieb:
Ist sicher auch preisgünstiger wenn man mehrere kleine Chips nutzt als einen großen. Denn wenn ein großer Fehlerhaft ist fliegt gleich der ganze große Chip in den Müll.
Wenn ein G200 (im gegebenen Rahmen) fehlerhaft ist, verbaut man ihn halt in einer GTX 260. Anand hat ja in seinem RV770-Artikel schön erklärt, dass solche Auffangprodukte für teilweise defekte ICs durchaus zum Geschäftsmodell gehören.

Turbostaat schrieb:
Dazu hätte ich gerne mal eine logische(!) Begründung warum ein großer GPU Chip für den Endverbraucher besser sein soll. Welche Vorteile hat er denn dadurch?
Im Vergleich zu einem kleineren Chip, erhält man mehr Leistung. Im Vergleich zu mehreren kleinen Chips mit vergleichbarer Leistung erhält man die Leistung auch außerhalb der optimierten Spiele, kann den verbauten Arbeitsspeicher auch tatsächlich nutzen und muss auch keine Mikroruckler ertragen.

Natürlich sind das nur Allgemeinplätze, die so grundsätzlich auch nur bei Chips aus der gleichen Architekturfamilie zutreffen würden.
 
Ich lasse mich gerne überraschen, allerdings habe ich momentan keine Ahnung, was zwei GPUs auf einem Die bringen sollen. Zwei kleine GPUs verbessern die Ausbeute gegenüber einer grossen; den Vorteil macht man sich mit zwei GPUs auf einem Die wieder kaputt, man holt sich aber die (meiner Meinung nach überbewerteten) Multi-GPU-Probleme zurück ins Boot. Dafür wären die Midrange-Modelle etwas einfacher zu entwickeln...
Naja, wenn es stimmt lasse ich mich gerne überraschen. AMD hat sowohl bei den CPUs als auch jetzt bei den GPUs bedeutend mehr Weitblick bewiesen als die Konkurrenten und die meissten Foren-User, ich drücke die Daumen.

P.S.: Das würde zumindest erlären, warum die Hälfte der Gerüchte 1000 Shader hat und die andere Hälfte das Doppelte ;)
 
So, ich werde es mal wieder entfernen, wer es gelesen hat schön, die anderen lassen sich überraschen XD

Was anderes, passt nicht hierher, aber Gigabyte hat gerade die beiden Phenoms (Deneb) mit folgenden Eigenschaften bestätigt (C2 Stepping):

AMD Phenom II X4 940 3000Mhz 512KBx4 6MB Deneb 45nm C2 125W
AMD Phenom II X4 920 2800Mhz 512KBx4 6MB Deneb 45nm C2 125W
 
Zuletzt bearbeitet:
incurable schrieb:
.....

Im Vergleich zu einem kleineren Chip, erhält man mehr Leistung. Im Vergleich zu mehreren kleinen Chips mit vergleichbarer Leistung erhält man die Leistung auch außerhalb der optimierten Spiele, kann den verbauten Arbeitsspeicher auch tatsächlich nutzen und muss auch keine Mikroruckler ertragen.

Natürlich sind das nur Allgemeinplätze, die so grundsätzlich auch nur bei Chips aus der gleichen Architekturfamilie zutreffen würden.

Die Größe eines Chips hat nichts mit der Leistung zu tun. Das wäre genauso zu sagen das die Mhz/Ghz Angaben etwas über die Leistung aussagen.
 
Die Größe eines Chips hat nichts mit der Leistung zu tun. Das wäre genauso zu sagen das die Mhz/Ghz Angaben etwas über die Leistung aussagen.
Sagen sie aber. Nur die unterschiedlichen Architekturen darf man halt nicht miteinander vermischen.
 
Sorry, YoWoo, ich glaube, da hat Dir jemand einen Streich gespielt. Mal ein paar Punkte, die mich beim Lesen direkt anspringen.

YoWoo schrieb:
Die HD5890 ist die erste DualGPU Karte der Welt, wo sich also zwei Kerne auf einem Die befinden!
Wie schon oben geschrieben, befinden sich aktuell auf jeder 70-Euro-Karte deutlich mehr als zwei "Kerne" auf einem die.

YoWoo schrieb:
Der Chip für die HD5890 wird in 32nm gefertigt. Die Fertigung soll dabei in Dresden stattfinden und das Ende des 3.Quartals 2009. Innerhalb von nur 7 Monaten wird der 32nm Prozess somit eingeführt. Die anderen Chips werden weiterhin von TSMC im neuen 40nm Verfahren produziert.
Wenn ein 32nm Prozess verfügbar wäre, warum würde man dann ausgerechnet die hochvolumigen mid-range Produkte unnötig groß woanders produziert?

YoWoo schrieb:
DIe HD5850 und HD5870 werde beide über ein 512bit breites Speicherinterface verfügen. [...] Die "Die" Fläche wird bei 205mm² liegen.
512 bit Speicherbus und 205 mm² diesize passen nicht zusammen.

-

Für mich klingt der RV870Pro und XT zumindest teilweise realistisch und nachvollziehbar (was man halt so schreiben würde, wenn man die Linie durch RV670 und RV770 verlängert), die "5890" allerdings nach einem Wunschtraum einer Person, die nicht weiß, wovon sie redet, und mit Technologiebegriffen Bullshitbingo spielt.
 
Ich finde es gut dass wenigstens nVidia noch bei den grossen Kernen bleibt. Multi GPU-Karten haben bis jetzt für den Konsumenten fast nur Nachteile. Da sie auf auf SLI/Crossfire basieren haben sie höheren Outputlag, unregelmässige Framewiedergabe (Mikroruckler) und es funktioniert nicht mit allen Spielen. Für mehrere GPUs auf einer karte müsste man erst eine andere Technologie finden um die Rechenleistung zu kombinieren. SLI/Crossfire taugt nicht!
 
@Turbostaat

Ich setzte schon voraus, dass man meinen Beitrag bis zum Ende liest.
 
SLI/Crossfire taugt nicht!

Sehr pauschal. Mein Meinung: die nächste Generation von GraKas wird so schnell sein, dass die schon fertigen nicht-CF-fähigen Spiele auch so schnell genug laufen. Gleichzeitig werden zukünftige Spiele auf SLI/CF optimiert werden müssen, dann ist auch da alles fein.
 
Zurück
Oben