ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
bensen schrieb:
Das hätte man ja ändern können. Dann gibts eben 12 ROPs pro Partition. Ob 4x12 oder 6x8 macht wohl keinen großen Unterschied.

Ja könnte man, aber die Architektur von nVidia ist lange nicht so flexible wie die Terascale 2. ATi kann das Verhältnis der Einheiten ja fast beliebig ändern, nV muss das früher planen und das hat man nicht getan/für nicht wichtig erachtet. Außerdem ist dann ja noch Luft nach oben, obwohl Speicherbandbreite zz ja eh für die Katz ist.

@Jokener

Dass man Marktanteile erkämpfen muss ist schon richtig, aber auf Gewinn zu verzichten ist riskant. Man siehe Sony mit der PS3, der Verlust wird lange nicht mehr reinkommen. Und das nur weil man zu früh ein BD Drive reingebaut hat und den Verlust gemacht hat um Anteile zu behalten. IdR kommen Marktanteile mit guten Produkten und gehen (mit Verzögerung) bei schlechten Sachen. Siehe AMD, die nach dem Athlon 64 ja ziemlich verkackt haben, sich mit der Phenom Reihe aber wieder aufgerappelt haben und wieder da sind.
 
die juristischen personen habe ich bewusst erwähnt, weil einige hier scheinbar denken dass ati und nvidia ein rotes und ein grünes männchen sind, die sich hassen und bis aufs messer bekämpfen... sie personifizieren die unternehmen und interpretieren gefühle in ihre handlungsweisen. begriffe wie einstandspreis haben hier einige noch nie gehört...
 
GreatEvil schrieb:
Gibt sogar eine Firma, die das betrifft, die du vielleicht kennt. Schon mal was von Microsoft gehoert??? :rolleyes:

Was du vergleichst, passt nichtmal zu Äpfel und Birnen. Microsoft hat mit 90% Prozent Marktanteil und nem Polster von 100 Milliarden im Rücken. Dann kann man sowas auch den Aktionären, Investoren, Aufsichtsrat ect. pp. verkaufen, dass man zum Start mal alles etwas günstiger verkauft, man es ja letztendlich über die Stückzahl wieder reinholt. Das alles kannst du bei AMD aber vergessen.

AMD hat Milliarden Schulden in den letzten Jahren angehäuft, so dass sie sich sogar haben von Intel für ne Milliarde kaufen lassen, da die Gefahr bestand, in x Jahren nach einem Gerichtsurteil nicht mehr am Leben zu sein. Klar hätte es da viel mehr Geld geben können, aber "hätte, wäre, wenn" sichert nicht das, was jetzt da ist. Und nur das zählt aktuell, denn sie kämpfen sich von einem Kredit, den man zurückzahlen kann, zum nächsten - jeder Cent fließt da in die Schuldentilgung. Wenn da nur ein Gläubiger, Investor oder sonst wie Beteiligter glaubt, dass die hätte höhere Gewinne machen können, dann haben sie ein echtes Problem.

Als ob die Produktion bei TSMC überhaupt soviel abwerfen würde, dass man dumpen könnte...
Und rate mal warum sie bei CPUs alle Karten auf die Sechs-Kerner setzen und die Quads quasi liegen lassen: Richtig, weil die teurer werden und Gewinn einfahren können! Aber vielleicht dumpt man da ja auch einfach Intel aus dem Markt, die nur 80 bis 90% halten... und jedes Quartal Milliarden Gewinne machen.
 
die Preise werden sich wohl kaum großartig nach unten bewegen.

die Produktionskapazität bei TSCM sieht dieses jahr beim 40nm Prozess einfach zu schlecht aus.
derzeit 40.000wafer/Monat ende des jahres 80.000Wafer/Monat.
dem gegenüber stehen zigfach höhere Produktionskapazitäten im 55nm Prozess.
es gibt also schlicht zu wenig karten als das die Hersteller Preisdumping betreiben müssten.
und das wird sich dieses Jahr auch nicht ändern.

Da in einem Jahr schon der 28nm prozess kommen soll, macht es für TSCM wohl keinen sinn 100erte Millionen in den Ausbau des Problembehafteten 40nm Prozess zu stecken.
 
weil sie selber gesagt haben das sie die Produktion bis zum ende des Jahres auf 80.000Wafer/Monat verdoppeln wollen.
80.000 ist nun nicht so der bringer.
egal was Nvidia da raus bringt, dieses Jahr werden wir keine günstigen Highend Karten sehen.
 
florian. schrieb:
weil sie selber gesagt haben das sie die Produktion bis zum ende des Jahres auf 80.000Wafer/Monat verdoppeln wollen.
80.000 ist nun nicht so der bringer.
egal was Nvidia da raus bringt, dieses Jahr werden wir keine günstigen Highend Karten sehen.

Es sind aktuell 80.000 im Quartal! Das macht also nicht mal 27.000 im Monat http://www.eetimes.com/showArticle.jhtml?articleID=223100614 Und davon soll sich Nvidia größere Kapazitäten gesichert haben.
Bis Jahresende sollen es 160.000 im Quartal sein, also knapp üner 50.000 im Monat. Doch dann haben wir das Portfolio von beiden Herstellern quasi komplett - ich seh da auch keine fallenden Preise.
 
The Company’s managed capacity in 2009 totaled 9.96 million (8-inch equivalent) wafers
mal ein paar Kleine Zahlenspiele, das macht pro Quartal 2,5millionen Wafer,
160.000 Wafer bedeutet also das gerade mal 6% bis zum ende des jahres auf 40nm Ausgebaut werden.
(klar, TSMC macht noch einiges mehr als "nur" Grafikchips nichts desto trotz dürften 160.000 recht wenig sein)

Daher hat Nvidia auch kein Problem einen sehr Teuren Chip zu entwickeln.
Lasst die HD5870 in der Produktion 150€ kosten,
die GTX470 mal angenommen stolze 300€

wenn Ati nun einen Preiskampf machen würde, und ihre Karte für 200€ anbieten würden, dann sähe Nvidia alt aus.
das kann ATI aber nicht machen da sie dann die Nachfrage nicht decken könnten.

also verkauft ATI ihre Karten für 350€, macht 200€ gewinn.
und Nvidia verkauft ihre Karte für 350€ und macht 50€ gewinn.
alle machen Gewinn, alle sind Glücklich ;)
 
hier noch mal wieder eine etwas positivere spekulation zu den neuen fermis:
The GeForce GTX 480 is reported to have 480 Shader Processors running at 1401 MHz, a 700 MHz core, 1.536 GB of memory running at 1848MHz on a 384-bit memory bus. It is expected to consume about 250W TDP and cost US$499.

The GeForce GTX 470 is reported to have 448 Shader Processors running at 1215 MHz, a 607 MHz core, 1.280 GB of memory running at 1674MHz on a 320-bit memory bus. It is expected to consume about 225W TDP and cost US$349.
http://www.vizworld.com/2010/03/xfx-geforce-gtx-480-470-images/
xfx_05.jpg
 
Weniger positiv an diesen Spekulationen sind die 480 Shader, und damit 15 SMs, und die trotz dessen sehr hohe TDP von 250W, einer tatsächlichen 275W + TDP eines nicht kastrierten GF100, und - sollten die bisherigen Benchmark Leaks stimmen, und auf einer 512 Shader GF100 basieren - nur schwer konkurenzfähigen Geschwindigkeit bezüglich geschätzten Stromverbrauch, und angeblichen Produktionskosten.
Da sind die knappen Fertigungskapazitäten für Nvidia Fluch und Segen zugleich.
 
Volker schrieb:
Was du vergleichst, passt nichtmal zu Äpfel und Birnen. Microsoft hat mit 90% Prozent Marktanteil und nem Polster von 100 Milliarden im Rücken. Dann kann man sowas auch den Aktionären, Investoren, Aufsichtsrat ect. pp. verkaufen, dass man zum Start mal alles etwas günstiger verkauft, man es ja letztendlich über die Stückzahl wieder reinholt.

Klar, MS hat den eigenen Browser guenstiger verkauft. Fuer genau 0,0 um die Konkurenz zu killen. Der Anteil am Browsermarkt lag zu diesem Zeitpunkt nix mit 90% fuer MS sondern deutlich fuer Netscape.
Und MS hat zu keinem Zeitpunkt ihres Bestehens 100 Mrd oder einen annaehernd hohen Betrag an Ruecklagen gehabt.


Volker schrieb:
AMD hat Milliarden Schulden in den letzten Jahren angehäuft, so dass sie sich sogar haben von Intel für ne Milliarde kaufen lassen, da die Gefahr bestand, in x Jahren nach einem Gerichtsurteil nicht mehr am Leben zu sein.

Der selbe Unsinn stand schon in euren Meldungen ueber die Zahlen von AMD.
Durch den Kauf von ATi konnte AMD allein 5 Mrd US-$ an Verlust ausweisen (durch Abschreibungen) ohne das auch nur ein einziger Cent zahlungswirksam wird.
Dazu kommen die "Bilanzerleichterungen" die die US Regierung letztes Jahr beschlossen hat um die Boerse zu stuetzen. Mit denen die US Konzerne Lasten aus ihren Bilanzen "streichen"koennen. Waehrend AMD dies auch so genutzt hat, hat Nvidia diesen Spielraum genutz, um einen (hoeheren) Gewinn auszuweisen.
 
Es sind dennoch Äpfel und Birnen. AMD hat nichts davon sich einen bestimmten Marktanteil am Grafikkartenmarkt zu erkaufen. Es bietet keinen strategischen Vorteil. Man kann es sich auch nicht leisten nur auf den Marktanteil zu schielen, denn dazu fehlt der finanzielle Hintergrund (Microsoft hatte Rücklagen von bis zu 64 Milliarden Dollar, mehr als der Umsatz). Und es geht schon gar nicht irgendwie darum Nvidia "Schmerzen" hinzuzufügen.

Ja, AMD geht insbesondere bei den CPUs auf den Preis (auch wenn man nicht wirklich unter Herstellungspreis verkauft). Das allerdings, weil man die CPUs derzeit nicht anders los wird, nicht um des Marktanteils willens. Hätte man den schlagende Argumente würde man die Preise ähnlich der goldenen Athlon/P4-Zeiten gestalten. Im Grafikkartenbereich ist man derzeit aber sehr gut aufgestellt, also stellt man sich nicht selber ein Bein und betreibt Dumping.

Und sicherlich würde man an den Preisen drehen, wenn man dadurch z.b. ein Bein bei den IGPs in die Tür bekommen würde. Aber alles das hat was mit Strategie zu tun und nicht wie behauptet mit Schmerz. Microsoft hat den Browser nicht nur verschenkt, nein man hat ihn mit dem Betriebssystem verteilt, man hat ganz gezielt versucht den Browser als elementarer Bestandteil des Betriebssystems auszugeben, man hat auch PC-Hersteller zum Bundeln gezwungen, eigene Web-Standards geschaffen wo es nur ging usw. Der Browser-Krieg ging um die Vorherrschaft beim Netzzugang, auch um die Vorherrschaft bei der Grundlage für Applikationen (Google beabsichtigt das ebenfalls), nicht um bloße Marktanteile. Zumal die Entwicklung und Pflege eines Browsers einen im Vergleich geringeren Aufwand benötigt und die Verbreitung von Software mengenmäßig kein Problem ist. Der Browser-Krieg ist vielleicht das klassische Beispiel, wie erstens ein Monopolist einen Markt an sich reißen kann und wie schädlich das ist. Es auf Dumping und Quersubventionierung zu reduzieren und es als vergleichbare Option im Grafikkartenmarkt darzustellen ist einfach Quatsch.

Denn womit sollte AMD die ATI Produkte subventionieren? Woher die Kapazitäten nehmen, woher die Kunden, wo doch der Hauptanteil am Grafikkartenmarkt IGPs sind? Ist AMD auch nur annähernd in der Position, einen derartigen Aufwand treiben zu können? Gewinn wird, wenn es gut läuft, mit dieser Generation gemacht und selbst da muss man sagen, dass wir eher von Peanuts reden, der Anteil der 5xxx Generation ist ja einfach auch nicht so groß. Wie soll AMD den Investoren erklären, dass sie ihr Top-Produkt ohne tieferen Sinn verschleudern. Dazu müsste man ja einen Marktzugang ähnlich Intel oder Microsoft haben um das überhaupt zu bewerkstelligen. Dazu kommt, dass die Entwicklung einerseits sehr lange dauert und andererseits aber schnell wieder überholt sein kann und man im schlechtesten Fall nur sehr verzögert darauf reagieren kann. Larabee zeigt genau das. Da müsste man schon Milliarden verbrennen oder eine absolut geniale Idee haben.

Es ist auch Tatsache, dass AMD Verluste schreibt und auch 2009 geschrieben hätte. Selbst wenn man die Abschreibungen ausnimmt, die natürlich nicht direkt zahlbar sind (aber letztendlich verlorene Werte weitere Kredite verhindern können), so hat AMD einen Bedarf an liquiden Mitteln. Deswegen der Verkauf von Globalfoundries, deswegen eben auch zum Teil der Vergleich mit Intel.
 
Zuletzt bearbeitet:
Ich finde es ja zu amüsant, wie ihr euch an einem einzigen Wort von mir hochzieht.
Und besonders lustig sind die Leute, die BWL studiert haben oder eine betriebswirtschaftliche Ausbildung gemacht haben.
Wie kommt man darauf, dass man damit die Prozesse verstehen oder vorhersagen kann?

Grüße vom:
Jokener
 
Wurde im 3dCenter gepostet. Und bevor es Streit gibt: Ich glaube, dass FC2, Unigene und Dirt2 die Paradebenchmarks des Fermi sind. Ich denke in den meisten anderen wird sich Fermi in Form der GTX470 wie erwartet einpendeln: Knapp unter 5870, in höheren Auflösungen mit mehr Vorteilen.

14xp3qh.png
 
50 Prozent mehr? Sry aber ich glaub nicht an den Weihnachtsmann^^
 
Felixxz21 schrieb:
Ja könnte man, aber die Architektur von nVidia ist lange nicht so flexible wie die Terascale 2. ATi kann das Verhältnis der Einheiten ja fast beliebig ändern, nV muss das früher planen und das hat man nicht getan/für nicht wichtig erachtet.
Natürlich ist die flexibel. Die haben von GT200 nach Fermi die ROPs pro Partition doch eh schon verändert. Von 4 auf 8.

silent-efficiency schrieb:
Ja, hätte man ändern können, allerdings müsste man so was schon viel früher in der Entwicklungsphase ändern....
s.o. Hätte man ja gleich noch mehr erhöhen können, wenn die Bandbreite eines 384bit Speicherinterface als unnötig erachtet würde.
Die gesamt-ROP-Anzahl wurde für 512 SPs optimiert. Nun werden Shadercluster deaktiviert, die ROP-Partitionsanzahl passt man dementsprechend an...
Was willst du damit sagen? Geplant war 512 SP und 48 ROPs. Jetzt sinds 480 SP und 48 ROPs. Inwiefern hat man da was angepasst?
 
Volker schrieb:
50 Prozent mehr? ... glaub nicht an den Weihnachtsmann^^
Na dann liegt es an euch ihn zu entlarven ;) - oder zu identifizieren, wieso Fermis in einzelnen Spielen große Sprünge machen und sonst eher durchwachsen sind.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben