News Bleibt Nvidia weiterhin bei großen GPU-Kernen?

also ich hoffe das die high end grafiekarten 2 grafieschibs haben werden

1: low für 2d anwendung wie filme ectra (sehr wenig strom verbrauch)

2: einen high end chip der zwar mehr strom braucht aber mehr leistung hat

Am besten were es für mich wenn mann es selber switchen kann oder eben nen automatik bei 3d anwendung

also wenn die sowas auf den markt bringent werden die ne menge davon verkaufen denn nen ati 9600 chip mit auf einen gtc 300 chip mit drauf zu packen sollte net so teuer sein ist ja sehr altes verfahren und hat weniger transistoren
 
nVidia hat mittelfristig kaum eine andere Wahl, ein Strategiewechsel jetzt wird/würde sich erst in 2-3 Jahren auswirken - solange ist dann doch die "Time-to-Market". Auf erprobte Fertigungstechnologie setzend, kann man schon größere Chipdesigns realisieren. Wenn man als Performance-König die entsprechenden High-End-Produkte auch hochpreisig los wird, um so besser. Nur doof, wenn die Konkurrenz mit kompakteren Chips mit der besseren Fertigung daherkommt und zumindest halbwegs mithalten kann. nVidia's Phobie vor neuesten Technologien seit dem 130nm-GDDR2-FX5800-Fiasko, auch bekannt unter dem Stichwort "Fön", ist vielleicht zu stark ausgeprägt...

Hinweis am Rande: zu groß sind alle GPUs. Für den Performance-Massenmarkt tauglich gelten Designs um 100 mm². Deutlich darüber sollte man mit guten Yields (>90%) zwingend rechnen, die man halt zur Not mit interner Redundanz und entsprechend abschaltbaren, defekten Sektionen sicherstellt.
 
Total sinnloser Artikel. ATI hat doch auch nur eine Multi-GPU Karte im Angebot. Und wäre die 4870 nicht ein gutes Stück hinter der GTX 280 hätte man vielleicht keine Dual-Karte auf den Markt werfen "müssen". Genauso wie Nvidia jetzt wieder gezwungener Maßen darauf reagiert und eine eigene Dualkarte entwickelt um die Leistungskrone zurück zu gewinnen. Außerdem ist es nicht die erste DualGPU-Karte von NVIDIA.
 
Und diese Produktpolitik macht daraus einen sinnlosen Artikel? :freak:

Ich könnte mir durchaus vorstellen, dass die GPUs zukünftig modularer aufgebaut sein werden, um den Anforderungen besser nachkommen zu können. Die x2 Karten und auch CPUs gibt es ja schon etwas länger. Und dass sie etwas bringen ist ja bekannt. Die Mikroruckler gilt es aber noch zu beseitigen.
 
Also ich finde es (zur Zeit noch) gut, dass Nvidia an großen Chips fest hält.
Seit meinen 2x 3870 @CF weiß ich, wie μRuckler aussehen. Zum Glück kann ich in den betroffenen spielen eine davon abschalten, und mit einer 3870 alleine weiterspielen- ohne μRuckler.

Die Multi-GPU-Probleme sind für mich zur Zeit einfach zu groß, auch diese CF-Profile usw. sind nicht gut gelöst. Zudem ist man immer auf die optimierung angewiesen, sonst läuft das Spiel z.T. sogar schlechter als mit einer GPU alleine.

Zur Zeit finde ich, ist eine Single-GPU noch am besten, für mich jedenfalls.

Aber was bringt die Zukunft ?
Intels Larabee soll ja auf sehr viele Kerne (Multicore !), nicht Multi-GPU !, setzten.
Also wie bei den CPUs auf mehrere Kerne anstatt mehrere GPUs zu setzen.

Das andere ist dieser Hydra-Chip. Da könnten sich wieder die kleinen Chips durchsetzten, und man verbaut einfach 2 bis 4 Grafikkarten mit kleineren Chips für High-End zusammen, sodass dank der eigenen Implementierung, die nicht auf AFR setzt, die μRuckler nicht mehr auftreten.

Die dritte Möglichkeit wäre ein Mix aus erstem und zweitem: sehr kleine Chips mit wenig Kernen für Low-End, mehrere Kerne für Midrange, viele Kerne für High-End und die verwendung von mehreren Grafikkarten in verbindung mit dem Hydra-Chip für Enthusiast.

Eins steht hoffentlich fest: Crossfire und SLI werden aussterben- und AFR und die μRuckler mit. Hersteller- und Generationenübergreifende Grafiklösungen (z.B. mit Hydra) wäre perfekt - wenn es funktioniert, wie es versprochen wird.

Fragt sich, was sich durchsetzen wird ;)
 
Zuletzt bearbeitet:
Wozu GT300? Es kommen eh nur noch Konsolenports raus.
 
Formulieren wir es mal so: es war mal ein 3D-Chiphersteller, irgendwas mit "3D" und "Fx", der hat ein skalierbares Chipdesign entworfen. Karten mit 1, 2 und 4 Chips. 4 waren zu viel und der Hersteller ward nicht mehr gesehen. Ich gehe eher von kleineren Chip- und Kartendesigns aus, von denen man sich im Notfall halt mehr als eine in den Rechner packt - Stichworte aber eher GPGPU und Physik als SLi/CF...
 
@incurable

Wie schon gesagt, ich habe die Informationen so wiedergegeben, wie ich Sie damals bekommen habe. Mehr kann ich dazu nicht sagen, in 10 Monaten wissen wir es!

Ich kann nur sagen, ausgedacht habe ich Sie mir nicht, und andere Dinge, die ich aus der Quelle habe, sind wirklich aufgegangen.

Ich kann ja mal das Orakel fragen, ob es neue News hat.
 
Da eigentlich Grafikkarten so wie ich das auffasse eh massiv parallel arbeiten (Shaderunits) würde ich mal ganz blöd behaupten, es geht eher darum, ob ich als Hersteller die Performancekrone eher mit einem monolithischen Monsterchip günstig erreichen kann, oder aber mit Multi-GPU-Karten. Wenn Entwicklungskosten zu hoch und Yieldraten zu niedrig werden, lohnt sich ein Singlechipdesign kaum noch, sollte man das im Rahmen halten können spricht vorläufig nichts gegen einen Monsterchip.

Andererseits könnten Mikroruckler und Skalierungsprobleme bei Multi-GPU-Karten auch irgendwann Geschichte sein. In dem Fall wäre Multi-GPU für die Hersteller wohl endgültig die bessere Lösung für die Königsklasse.

Aktuell würde ich aber bei den Enthusiastenkarten eher eine Singlechiplösung bevorzugen, wenn ich mir sowas denn kaufen würde.
 
LeChris schrieb:
.... es war mal ein 3D-Chiphersteller, irgendwas mit "3D" und "Fx", der hat ein skalierbares Chipdesign entworfen. Karten mit 1, 2 und 4 Chips. 4 waren zu viel und der Hersteller ward nicht mehr gesehen. .....

Naja der Tod von 3Dfx / 3dfx hatte noch mehr Gründe als nur die Multi GPU Lösung. Sie haben sich einfach übernommen, wollten gleichzeitig Entwickler und Fertiger zugleich sein, haben eine Produktionsfirma gekauft und den bisherigen Partnern die Verträge gekündigt. 3dfx konnte dann nicht mehr genügend Prdoukte liefern, nvidia hat mit dem Riva TNT und TNT2 ordentlich Features vermarktet und einen konkurrenzfähigen Chip auf den markt gebracht. DirectX kam immer mehr auf, Glide wurde immer mehr außer Acht gelassen, 3dfx hatte irgendwann kein Geld mehr und schon wurden sie aufgekauft.
 
Also ich hab lieber keine Mikroruckler und trotzdem ordentliche Performance, bin da viel zu empfindlich für! Habe nix gegen nen großen Chip auf der Platine, soviel mehr Strom wie ne HD4870 zieht die GTX280 auch net, sieht man ja bei CB. Und die Temperaturen gehen voll i.O. Habe mit Furmark maximal 84° Core bei meiner GTX280 (Stockcooling, OC). Diesen Wert erreich ich beim Zocken nie. Also von mir aus kanns een großer Chip sein, auch wenn der vielleicht mehr kostet im Endeffekt.
 
Naja also ich bin von dem kleinen Chip der 4870 nicht so recht begeistert. Der Chip ist extrem heiß unter Last und Idle, mit dem Referenzdesign. Zusätzlich scheint keine Stromsparfunktion machbar zu sein. Gut die Herstellungskosten sind wesentlich günstiger, aber NV kann es sich anscheinend leisten. Die haben ja immer noch ordentliche Gewinne im letzten Quartal eingefahren. Also von dem her bin ich mit meinem fetten Chip ala G80-GTX sehr zufrieden und die GTX 260 überzeugt seit Anfang an sogar bei der Effizienz, weniger beim Preis. Aber das ist ja nur eine Frage der Konkurenz wie man sieht...

Also von mir aus kann NV vorerst bei den großen Chips bleiben, zwar ein Nachteil für NV aber ein Vorteil für den Kunden...;)

MfG Kasmo
 
Ich habe nichts gegen die weitere Entwicklung großer, komplexer GPUs. Die Rohpower ist sehr gut und man ist nicht zwangsläufig uaf SLI/CF angewiesen, um im ultra-highend-Bereich zocken zu können.
Aber es ist schon fraglich, ob nvidia langfristig damit gute Margen einfährt. Sieht man ja schon an der GTX260/280. Bei der 8800GTX war es noch nicht das Problem, da die Karte recht teuer verkauft werden konnte mangels Konkurrenz. Wenn nvidia allerdings in Zukunft den gleichen Preisverhau mitgehen muss wie momentan, wird es schwierig werden, anständige Gewinne einzufahren, denn komplexer Chip = geringe yield-Rate+hohe Fertigungskosten.
Hier wäre ATI dann, v.a. wenn sich im Bereich MR und Skalierungsproblematik noch was tun sollte, deutlich im Vorteil.

mfg
 
Ja 61,7 Millionen sind eine ganze Menge obwohl noch die Last der Reklamationen der kaputten Notebookchips in dem Quartal auf ihnen gelegen hat. Wenn sie im diesem Quartal Gewinn machen trotz Finanzkrise weist du wie gut es ihnen geht. AMD wird bestimmt wieder Verlust machen.

Außerdem ist es uns als Kunden wurst wieviel ein Unternehmen Gewinn macht, Hauptsache Gewinn!
 
Zuletzt bearbeitet:
Au, da fühlt sich einer auf den Schlips getreten ;)

Für den Kunden ist es nicht egal; je weniger Gewinn desto besser: ohne AMD würde nv die gtx260 immer noch für 400€+ verkaufen.

Für einen Vergleich mit AMD müsste man wissen, wie deren Grafiksparte allein darsteht. Zahlen kenne ich da nicht, aber der Marktanteil wächst. Mit einer verkauften 4870 dürften sie auch mehr verdienen als nv mit einer verkauften 260er.

Die Finanzkrise schlägt erst nächstes Jahr richtig durch, das wird für beide ungemütlich. Im Zweifelsfall hat der mit den geringeren Produktionskosten die besseren Karten auf dem Markt. Das ist AMD; die haben dafür einen Schuldenberg an der Backe. Ich dürcke beiden die Daumen.
 
hm ... spätestens wenn amd seine verlustleistung der chips unter kontrolle bekommt, geht das multi gpu on die an dem nvidia konzept, leistungstechnisch vorbei.

Guckts euch bei den cpus an ... "quad iss in und cool" ^^ ... bis auf GTAIV [sorry imho ein schlechtes spiel der reihe] sind die meisten games grakalimitiert ...

egal ... amiland ist "abgebrannt" nvidia muss bald aufpassen nicht von intel geschluckt zu werden so wie sie es mit 3dfx gemacht haben.

mfg
 
quad? schon mal nachgezählt wieviele stream-prozessoren auf einem g200 sitzen? :D
quad is ja sowas von lahm und billig ;)

leute das sind gpus! die haben schon massig prozessoren. es geht nur darum, bestimmte teile, die nur einmal gebraucht werden mehrfach zu verbauen, um die streamprozessoren voneinander unabhängig zu machen, um so aus vielen lahmen gpu einen verbund zu bilden, der dann einer schnellen gpu entspricht. der witz dabei ist nicht die leistung, denn die streamprozessoren werden dadurch nicht mehr gegenüber größeren gpus, sondern nur um gesenkte fertigungskosten. aber 4 gpu mit je 32 streamprozessoren sind langsamer als zwei mit 64 streamprozessoren und die sind langsamer als eine mit 128 streamprozessoren. der mehrfache verwaltungsaufwand und das stückeln und wieder zusammensetzen der berechnungen kosten rechenleistung und strom.
für den gpu-hersteller lässt sich aber eine menge in der fertigung sparen durch höhere yieldraten und weniger verschnitt bei den wavern. das ist der einzige vorteil von multi-gpu...
 
Fände ich gut... Gibt doch ein sehr harmonisches Bild, wenn nVidia fortan immer die schnellste Einchipkarte, AMD aber die insgesamt schnellste GraKa anbieten würde *träum*
 
Zurück
Oben