News GeForce GF100 Fermi in „Volume Production“

Status
Für weitere Antworten geschlossen.
Zeig mir wo ALLE Daten die der Fermi hat gesammelt sind und nicht die die bisher so ein bisschen vermutet werden (Tabelle auf Lübkes Thread z.B. auchnochnicht voll)

Und zeig mir wo Benches sind.

Dann und nur dann glaube ich dem Artikel
 
Er meint die Daten, die die Ingenieure von Thermaltake bzw. Cooler Master besitzen.
Die 300 Watt kommen nicht von ungefähr ...
 
Mal Back zur Fermi...

was ich mir erhoffe ist, dass die Leisung für CUDA Optimierte Programme drastisch steigt. Da wäre es auch in Ordnung wenn die 300W unter Vollast fressen Würde - sofern sie mit Ihrer Aufgabe 20 Mal schneller fertig ist (und das wird Sie, denn das schafft meine GTX280 schon annähernd) als eine CPU die um die 90W verballert - da stimmt dann alles. Der Idle Verbrauch sollte allerding bei 58xx Niveau oder darunter leigen - aber auch da würde ich evtl. durch Undervolting nachhelfen.

Ich hatte nach meiner 88GTX eine 4850 und eine 4870 die mir mehr Kopfzerbrechen machten als Spass - dann habe ich, als GTA IV Rauskam auf eine GTX280 gewechselt - und schwupps war für mich die Welt in Ordnung (und der Idle verbrauch war auf einmal Top) - ausserdem habe ich ausserhalb des Gameings einfach mehr Programme die auf Cuda setzen als auf Stream oder wie das hiesst. In Zukunft wird das dank Win7 hoffentlich auf Open CL gehen - dann hat man wieder die Qual der Wahl ;).

So lang einfach abwarten - wie viele das hier richtig sehen, kann die verschwiegenheit für zwei Fälle stehen.

Fall eins: die Katrte rockt wie sau und die lassen dann kurz vorher dioe Bombe Platzen wenn die Regale auch befüllt werden können.

Fall zwei: sie haben es total verbockt und das Ding ist gerade mal genau so fix beim Gameing und frisst in dem Bereich mehr.

Ich würde vllt noch Fall drei dazuziehen: NV verbockt den Gameing Part aber haut AMD/ATI ungespitzt bis zum Erdkern in den Boden was die Open CL und CUDA Performance anbelangt ;).

Slebst derzeit leifert mir persönlich eine GTX2xx Karte mehr Vorteile als eine 58xx die eigentlich nur zum Zoggen geeignet ist und selbst da gibt es gerade mal Dirt 2 Battleforge und Stalker bei denen es wirklich sinnvoll wäre. NV hat die Zeit bis AVP und co draussen sind - und wenn es dann soweit ist kann man sich nochmal das Maul zereissen :evillol:.
 
3D! 3D! 3D! wie mir das schon auf die Nerven geht ... ab dem Zeitpunkt wo man eine Brille tragen muss um ein Spiel zu spielen, können die Entwickler mich mal!
3D-Grafik auf einem 2D-Display is mehr als ausreichend!
Vor allem werden 3D-Spiele wahrscheinlich eh verboten oder indiziert.
"Indizierungsgrund: 3D"
Schliesslich ist man (zumindest bei Ego-Shootern a.k.a. "Killerspielen" und hochgradig suchterregenden Spielen wie WoW) dann "direkt im Geschehen", was die Psyche noch stärker beeinflusst.
Is jez nicht meine Meinung, aber so wird es sicher passieren. ^^
Spätestens nach dem nächsten Amoklauf (egal in welchem Land) eines verrückten Jugendlichen.
 
Wenn ich mir das Bild von "derMutant" so ansehe, entdecke ich nur 2x 6 Pin Anschlüsse. Eventuell die kleine oder was ist da los?
 
Achtung @ Nvidia Fanboys, dies ist eine Frage in Bezug auf Jen Hsun Huang

SOLLTE die Nvidia tatsächlich so schnell werden wie eine HD5870 und sogar mehr Strom fressen, was meint ihr wird Jen Hsun Huang machen:
a) Wird er jemanden anderen vorschicken um die Wahrheit zu sagen?
b) Wird er die Wahrheit sagen? (am unwahrscheinlichsten würde ich sagen^^)
c) Wird er die Wahrheit in rosarotes Bonbon Papier einwickeln?

Sollte es c sein, welche Argumente würde er vorbringen?^^


Ich kann mir Jen Hsun Huang ganz ehrlich nicht dabei vorstellen, wie er Fehler eingesteht...
 
@SAM_THE_FISH: mal im kino einen gut umgesetzten 3d-film gesehn? der effekt ist der hammer. dagegen können aa, af, physx etc einpacken. wenn die umsetzung auf dem pc ähnlich sein sollte, werde ich gar nicht mehr ohne 3d-brille zocken^^
egal ob rennsimulation, shooter oder 3d-strategiespiel, das ist einfach ein föllig anderes gefühl mit plastischen figuren und objekten.
ob die umsetzung allerdings so gut gelingt, steht auf einem ganz anderen blatt

@JokerGermany: er wird gar nicht erst öffentlich einen vergleich anstellen, bei dem er schlecht wegkommt ;) wäre auch schön blöd, sich selbst schlecht zu machen^^
 
a: hoffe nicht :P
b: lügen bring in diesem Fall nichts
c: falls die Karte mehr frisst dann zieht höchstwahrscheinlich das GPGPU Argument, denn da sieht es mit Leistung/Watt im Vergleich zur CPU und höchstwahrscheinlich auch im Vergleich zu 58xx besser aus.

Edit: hmm es wurden die Fanboys angesprochen - naja so würde ich mich nicht bezeichnen, bei mir halten sich die eingesetzten Nvidia- und ATI-Karten die Waage (Desktop wie Mobil) und geholt wird immer die, von der ich mir den größten Mehrwert für meine Moneten verspreche ;)
 
Zuletzt bearbeitet:
Die 300W Stromverbrauch, sollten sie stimmen (was ich mir in diesem Fall gut vorstellen kann), sind nicht akzeptabel. Ich mein ne 5970 zieht ja schon 300W und die wird auf jeden Fall schneller. Hier zeigt sich der Vorteil der 5D Shader: Sie sind stromsparender.
Könnte in der Tat sowas wie FX Reloaded werden und das nach den wirklich gelungenen G80 und GT200. Schade eigentlich.

Aber das gilt natürlich nur für den Fall, dass der GF100 auch mal rauskommt. Wenn die noch länger warten haben dann schon alle ATi gekauft. Selbst die GT200 sind ja zz. fast keine Alternative, weil entweder zu teuer oder nicht verfügbar.
 
@Felixxz21

ah das würde mich interessieren - diese 5D Shader, wer Profitiert davon, mal abgesehen von den Werten auf Papier. Die Shaderanzahl die ATI Raushaut ist ja immer gewaltig, das die meisten aber nur auf 1D Shader Programmieren und daher die effektive Anzahl der ATI Shader dann um das Fünffache sinkt hört man selten. Solange es nichts für den Heimanwender brauchbares gibt finde ich das leicht unfair damit Werbung zu machen und diese einzusetzen wenn es eher nachteilig ist.

Kann mir Jemand sagen, was denn 5D Shader wirklich nutzt und was in Zukunft dafür vorgesehen ist?
 
Ich finde es lustig warum soviele die Fermi mit der 5870 vergleichen. Man kann sicher sein, dass zum Release bereits min. ein kl. Update zur Verfügung stehen wird (aka 5890 oder 59xx?)

Wunder darf man nicht erwarten, aber 5-10% mehr Takt kann die Differenz etwas verkleinern.
ATI hat im Prinzip 3 Monate Zeit um diese speziellen Chips aus der Produktion zu separieren und dann auf den Markt zu werfen.

Man kann in Hinblick auf das Marktgefüge nur hoffen, dass Nvidia noch genügend Reserven für den Fermi Flop hat und wieder mit dem Fermi-Nachfolger Boden gut machen kann.
Weil wie hier schon geschrieben wurde:

Wo verdient man als Chiphersteller richtig Geld? (Marge über 30%):
Es sind die obere Mittelklasse und Highendchips und da ist ATI einfach besser aufgestellt
 
Sehr amüsante Beiträge sind hier wieder gesammelt worden. Teilweise wirklich nur noch für das tiefergelegte Hirn. Der Übergang zum Niveau des Aquarium ist damit nun auch offiziell "fließend". :evillol:

In der News geht es alleine daraum, dass nunmehr die Aussage gemacht wurde, dass GF100 in der Massenfertigung ist. Ist doch eine tolle Nachricht! Aber mehr eben auch nicht. Es ist zwar enttäuschend, dass es keine neuen Daten zur Fermi gibt, aber deshalb hier so ein Fass auszumachen ist lächerlich. Wartet es einfach mal ab. Ihr werde schon noch eine Überraschung erleben, so oder so. Aber dieses Gestammel über das jüngste Gericht im Grafikkartenmarkt ist nicht mehr zum Aushalten. Daran merkt man auch, dass Freitag ist... :rolleyes:
 
@Denahar

och ich denke viele sind einfach ungeduldig - und die Meldung hilft, wie du bereits festrgestellt hast, nicht gerade großartig daran etwas zu verbessern. Ich will auch endlich wissen was da auf uns zu kommt und so kann man doch evtl. mehr Informationen über einen Austausch im Forum finden als in der eigentlichen News - z.B. das Youtube Video und das 300W Gerücht :P.
 
@ Huggy Bearlin:
Das kommt aufs Spiel/Anwendung an. Die vollen 5 werden nie ausgereizt, ebenso wenig wie nur 1. Pendelt wahrscheinlich zwischen 2 und 4, würd ich sagen. Genaue Zahlen gibts dazu aber nicht. Profitieren tust du aber schon, schließlich erhöt sich die Shaderzahl bei nur 2 ausgenutzten auf 640 Shader bei ner 5870.

@Melkor03
Natürlich wirds ne 5890 geben, nur dazu ist nichts bekannt. Vielleicht schafft mans den Takt auf 900 oder gar 950 hochzufahren und beim Speicher noch mehr drauflegt, um die 384 Bit der GF100 auszugleichen. Ist aber alles pure Spekulation und deshalb vergleichen wir mit der 5870.

Das meiste Geld wird übrigens NICHT im High End oder Performance gemacht, sondern im normalen und unteren Mainstream. Also 5670/5650/5570/5550 und die nVidia Pendants. Die schnellen Modelle sind nur fürs PR und für die richigen Gamer, der Laie überträgt meistens die Überlegenheit der High End Karten zu den High Ends vom anderen Hersteller aufs gesamte Portfolio, was natürlich Quatsch ist. Aber so ist es nunmal.
 
@Denahar

Volume Production=!Massenfertigung
 
Zuletzt bearbeitet von einem Moderator: (Überflüssige Satzzeichen entfernt.)
@Felixx
Klar verdient ATI/nVidia gut am Volumen, aber unterschätze nicht die bessere Mittelklasse (so im Bereich 5750 aufwärts)
Schließlich kostet ATI/nVidia, der Chip im Prinzip immer gleich viel (gleiche Siliziumfläche usw), aber du kannst den Chip ungleich höher bepreisen (würde mich nicht wundern wenn ein 5870 ne Gewinnspanne von 100% hätte)

So mchen es andere Branchen auch ;)
Da machst du den richtigen Gewinn (klar, Mainstream ist zum Decken der Kosten unerlässlich)
 
@Felixxz21

aah ok also doch nicht so ganz Sinnlos ;)

Bei den Mainstreamkarten wird NV sicherlich mehr verspielen als ihnen lieb is,t wenn sie noch länger brauchen.

Der Mainstream Kunde, der sich vllt. gerade win7 zugelegt hat, guckt auf die Packung und liest dann DX10.1 vs DX11 und wenn dann noch eine Karte mehr VRAM oder Takt hat - na dann schlägt der da zu. Da ist es vollkommen egal das die Karten kaum ein DX10 bzw 11 Spiel überhaupt flüssig darstellen können (zumindest bei nativer Auflösung eines aktuellen 22"+ TFT).

Da sollten NV aber schleunigst in Massenproduktion gehen.
 
@Melkor03
Eine 5770 kostet halb so viel Silizium, bei einer niedrigeren Ausfallrate als eine 5870.

Somit kostet eine 5770 weniger als halb so viel wie eine 5870 und das passt recht gut ins Preisbild.
Wo du Recht hast, ist wenn Chips beschnitten werden, z.B. macht AMD mehr Gewinn an ner 5870 als an ner 5850, da hier wirklich die gleichen Kosten auf AMD zukommen.

Die Mainstream Karten benutzen jedoch völlig andere Chips (Juniper, Redwood und Cedar) als die High End Riege (Cypress).
Somit kostet ein Mainstream Chip viel weniger als ein High End.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben