News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
@turbostaat:
wie soll man das jetzt mit dem dx11 spiel und rechnleistun verstehen?

ich schätze mt 350e wird das nichts, wie wir an der gtx 295 sehen, werden de preise für die spitzenmodelle so bei 500-600in den ersten monaten liegen wenn nicht höher.

die entsthende hitze und der energie verbrauch werden echte probleme sein.
3milliardn transistoren was sich nvidia da zur kühlung einfällen lässt würde mich cht interessieren
 
Glaubt ihr ernsthaft, man kann mit einer professionellen Grafikkarte mehr Geld verdienen, als abertausend Gamer mit Grafikkarten zu beliefern? Ich glaube nicht.
Intel bringt auch noch Larabee, ich glaube nicht, dass dich da Nvidia auf lange Zeit gesehen irgendwas reißen kann.
DAs mit den Investoren zufriedenstellen kann auch schnell mal n Schuss in den ofen sein, wenn man sich zu sehr übernimmt.
Und das glaube ich hammse mit der GPU getan.
 
Zuletzt bearbeitet:
Aber mit 3 Milliarden tranistoren kann es wirkloch passen mit die 2% Ausbeute.

Dazu kommt dass die Karte schnell wird aber

1. CPU Leistung wird es bemsen(sehe HD 5850 CF)

2. Es wird bestimmt 500 € kosten was für die meisten einfach unbezahlbar ist!

3.Mega Stromverbauch.

Diese Karte wird erst intressant in 32nm-Aber bis dahin hat ATI aufgeholt daher...
 
selberbauer schrieb:
@turbostaat:
wie soll man das jetzt mit dem dx11 spiel und rechnleistun verstehen?
es gibt keine dedizierten hardware-einheiten wie eben einen tesselator in hardware um dx11 features zu verarbeiten. alles was dx11 ausmacht muss über shader realisiert werden und wie effizient das ist kann noch keiner sagen.

Schaffe89 schrieb:
Ja nur sehe ich den Beitrag von Volker als schnellschuss.
Glaubt ihr ernsthaft, man kann mit einer professionellen Grafikkarte mehr Geld verdienen, als abertausend Gamer mit Grafikkarten zu beliefern? Ich glaube nicht.
was glaubst du bitte wieviele telsas für wissenschaftliche anwendungen folden? die teile sind kleine supercomputer in ihrer preisklasse und genau in diese richtung geht nvidia. da is nix mit 400€. so ein teil kostet dann gleich mal 4000-10000€: http://geizhals.at/deutschland/a389200.html

da wird der schotter verdient. wenn cloud-gaming richtig durchstartet muss dafür auch erst mal hardware angeschafft werden um die games in rechnerfarmen zu rendern und dann zu streamen, auch dafür wird mehr hardware umgesetzt als bei den einzellnen gamern. volder hat absolut recht mit seinem post. von schnellschuss kann da keine rede sein.
 
Zuletzt bearbeitet:
So wie ich Nvidia kenne, wird die Grafikleistung (Spiele) AMD deutlich übertrumpfen, der effektive Angriffspunkt wird aber ein anderer sein (wenn auch moderat erfolgreich).
 
Hab soeben die ersten 3 Seite dieser Thread durchgelesen, und muss unbedingt etwas loswerden.

Fakt ist:
- Das Ding ist Riiiiiesig!
- Das Ding hat Power, und wird (ohne in die Glaskugel zu schauen) schneller sein als der HD5870, ohne wenn und aber!
- Die Karte wird sicher teurer werden als der jetzige HD5870!

Spekulation:
- Der kleinere Ableger (wahrscheinlich GTX360) wird sicherlich immer noch schneller sein als der HD5870 und wird sicherlich der Konkurrenz Produkt sein.

Aber was ich unbedingt loswerden möchte, ist etwas anderes.
Viele hier klagen über die Abwärme, Leistungsverbrauch usw.
Auch ich als nVidia Pro will dies nicht bestreiten, und denke auch dass die Karte heisser wird, mehr Strom verbraucht und "ev." lauter wird.
Denn Hitzköpfiger muss nicht unbedingt lauter bedeuten, man kann dies auch auf Silent betreiben auch wenn die Karte 80°C+ DIE Temp hat ;)

Man kann nur indirekt die beide Grafikkarten HD5870 & GTX380 mit einander vergleichen.
Vielleicht eine HD5870 mit eine kleinere Ableger des GT300er GPU's die von der Leistung her in der nahe liegen inkl. Preis.

Wer mehr Power möchte muss halt mit der Tatsache Leben das es mit mehr Geld, Strom, Temps und ev. Lautstärke erkauft werden musst.

Auch wenn ich oben geschrieben habe das ich Pro nVidia bin, aber ich denke dies liegt bei ca. 52% zu 48% Gesamt.
Meine letzte ATi's Karten sind HD4870X2 im QCF, HD4870, HD4850, vorher HD3870 und HD2900XT.

Kurz gesagt, wer meiner Meinung nach das bessere Produkt fürs Geld hingibt nehme ich. Und wenn z.b. der GTX360 ca. 20€ -50€ mehr kostet als der HD5870 aber Prozentual schneller ist hole ich mir das was mir besser entspricht.
 
Zuletzt bearbeitet:
Screemer schrieb:
[...]und wie effizient das ist kann noch keiner sagen.

Sehr effizient wirds nicht sein, da es ja über eine Umleitung geht. Mit dem Auto brauche ich jedenfalls über eine Umleitung immer länger, sofern ich nicht gerade im Leopard 2 sitze. ^^
 
@Volker

wenn man den Unterschied beim DC Computing von CPU zu GPU betrachtet, ist die GPU ungefähr 6-7x schneller am Beispiel eines Q6600@3,3 GHz zu einer GTX280 bei diversen Boincprojekten. Das ist schon eine gewaltige Rechenleistung.
Der GT300 soll ja deutlich schneller sein, das wird dann sicherlich für Firmen interessant vor allem weil die GPU Computing Plattform geöffnet wird (C++).

Ich hoffe aber trotzdem, dass Nvidia den Gamer nicht vergisst.
 
GPU meets CPU...

Interessante Entwicklung, wenn das wirklich so rauskommt, wie es am Papier steht. Was die Grafikleistung angeht, bin ich sicher, dass wir nicht enttäuscht werden.

Temperatur, Lautstärke etc. wird man sehen, vermutlich am Rande des verträglichen.
Jetzt brauchen sie eigentlich nur noch Boards zu bauen, wo dieser Chip + RAM aufs MB gedüpelt wird und du hast eine All in One Lösung (sofern die Software etc mitspielt).
Denke aber die Entwicklung geht in die richtige Richtung. Wäre eine richtige Evolution, wenn die CPU und GPU irgendwann mal eine Einheit bilden würden. So wie der Speicherkontroller irgendwann in die CPU integriert wurde usw.

Mal schauen ob das wirklich nur "ein" Chip wird. Könnte mir auch gut vorstellen, um die Yield Raten zu erhöhen und die nötigen Mengen zu fertigen, like Intel es getan hat.
Könnte mir auch gut vorstellen, dass die CPU Gene der GPU zusätzliche Rechenaufgaben übernehmen können, und eventuell das CPU Limit Problem aushebeln. Ist zwar alles Spekulation, aber ich denke da steckt viel Potential drin.
 
Respekt schrieb:
. Mit dem Auto brauche ich jedenfalls über eine Umleitung immer länger, sofern ich nicht gerade im Leopard 2 sitze. ^^
sorry, aber ymmd. der war richtig lustig :lol:

Iscaran schrieb:
und was sagt mir dein link jetzt? das ati seit dem r600/xenon tesselatoren in hardware verbaut? das ist mir bekannt. ich rede über den fermi.
 
Zuletzt bearbeitet:
Volker schrieb:
Nur wo verdienen die Grafikchiphersteller Geld? Genau, bei anderen großen Firmen und nicht bei Gamern. Denn sonst würde AMD/ATi ja da längst Gewinne einfahren, deren Grafiksparte dümpelt aber weiter im Minus rum. Nvidia muss die Analysten und Investoren ruhig stellen, nicht den Gamer und Käufer einer 200 Euro Karte. Der ganze Programmierungs-Kram da wird sicherlich für viele größere Kunden interessant, aber nicht die Zielgruppe, die hier Kommentare postet.
...

genau das habe ich es mir gedacht. also nur noch indirekt konkurenz zu AMD/ATI, der neue hauptgegner ist intel mit seinem larrabee.

doch was bedeutet das im umkehrschluss? AMD/ATIs 5800 bleibt wohl ersteinmal DIE bezahlbare gamer-karte. auf die quartals berichte IV/09 u. I/10 bin ich aber schon sehr gespannt..
 
Arbiter Elite schrieb:
Ob man die 2x 1,4 Milliarden Transitoren einer Dual GPU (GTX295) mit dem "Fermi" vergleichen kann und sollte...
Natürlich ist das nicht das gleiche, aber die Werte sind auch nicht erschreckend neu.
Es wird im neuen Chip eine Steigerung der Leistung jedes einzelnen Shaders geben, aber die Daten die hier veröffentlichen sprechen im Grafikbereich für eine Evoluion keine Revoluion.
 
Zuletzt bearbeitet:
Ich hoffe, dass neben dem GPGPU auch ordentlich auf die Spieleleistung geachtet wurde. Mich juckt die GPGPU-Leistung nämlich einen Dreck, das Ding muss FPS bringen und basta! Ich hoffe Nvidia hat hier nicht am Markt vorbeientwickelt... Und so wie das hier aussieht, können wir uns auf einen lustigen Stromverbrauch und zwei 8pin-Stecker einstellen...
 
Man dieses Fanboygequatsche geht einem echt auf den Sack.

@ Atifans
Könnt ihr nicht einfach akzeptieren, dass Nvidia hier vielleicht wieder eine Karte auf den Markt wirft, die deutlich schneller als die von Ati ist. Allein die theoretischen Daten lassen Rückschlüsse zu, denn die neue Ati-Karte (5870) ist auch "nur" ca 30 % schneller, als nvidias 285GTX. Die Daten der neuen Karte besagen, dass sich die Zahl der Transitoren verdoppelt haben. Dazu hat die Karte jetzt auch GDDR5 und ein großes Interface 384 bit. Allein aus diesen Faktoren kann man schon davon ausgehe, dass die Karte etwa doppelt so schnell, wie ein 285 GTX sein könnte. Inwieweit sich die neuen Features auswirken (Cache) und sich die Effizienz gesteigert hat, vermag niemand vorherzusagen.
Aber akzeptiert doch einfach, dass andere Hersteller auch gute Produkte herstellen, die vielleicht auch schneller als ATi Produkte sein können. Manchmal hat man den Eindruck, dass für manchen eine Welt zusammenbricht, wenn "sein" Hersteller nicht vorne liegt. Da werden andere Produkte schlecht geredet, obwohl es überhaupt noch niemand gesehen hat. Produkte werden schlecht bewertet (siehe zum Beispiel Geizhals), obwohl die Bewertenden die Karten noch gar nicht in der Hand halten (und diese wahrscheinlich auch nie werden). Seid doch einfach mal objektiv und freut euch darüber, dass der Markt belebt wird und dass ein motivierender Kampf zwischen Herstellern für alle Seiten positiv ist.
Nee, ihr redet lieber Produkte schlecht, und verderbt Leuten die Vorfreude, weil ihr befürchtet, dass ihr im Schwanzmark demnächst unterliegen werdet. Alle wissen schon, dass die Karte viiiiiel zu teuer sein wird, dass sie viiiiiel mehr Strom verbraucht und sich allein deshalb disqualifiziert (überdenkt doch einfach mal die Aussage; wer sich für 350 oder mehr Euro eine Grafikkarte kauft, weil er bestmögliche Leistung haben will, glaubt ihr, den interessiert, ob die Karte 50W oder 100W mehr verbraucht und er im Jahr vielleicht 10 € oder 20 € mehr Stromkosten hat?). Das sind einfach schwachsinnige Kriterien (und nein ich interesse mich durchaus für Ökologie). Denn es gibt einfach keinen Ferrari mit 3 L Verbrauch. Und es gibt auch keinen Ferrari, für 200€. Das sind alles blödsinnige Anmerkungen und Kritiken, denn eins kann als gewiss betrachtet werden: Sind die Leistungen vergleichbar, dann sind es auch die Preise. Wer viel will, muss aber auch viel zahlen. Das ist doch nichts Neues!?
:stacheln:

@Nvidia-fanboys
Das Gleiche gilt auch für Nvidia fanboys. Unterlasst es einfach, Produkte von Ati schlecht zu reden oder eigene Produkte überzubewerten. Wie gesagt: keiner weiß, wie schnell die Karte ist. Und nur, weil die neuen Nvidia-Karten wahrscheinlich wieder schneller sind, heißt das nicht, dass Ati-Karten sch... sind. Alle Karten finden ihre Abnehmer. Und wie schnell die Karten werden, wird sich erst zeigen. Btw selbst wenn die Karten deutlich schneller werden, heißt das nicht, dass man Ati Produkte schlechtreden muss.
:stacheln:

@All
Kauft einfach das was euch gefällt und akzeptiert das Pendant. So seid ihr viel zufriedener und lebt länger.:kuss::schluck: Außerdem kommt ihr auch sympartischer rüber, weil ihr nicht als nörgelnder Fanboy geoutet werdet. :bussi:

So long: das wollte ich mal loswerden, jetzt dürft ihr auf mich eindreschen :freak:
 
Screemer schrieb:
sorry, aber ymmd. der war richtig lustig :lol:

Näää, lustig wirds erst, wenn ne kaputte Brücke zwischen der "Umleitung" war.
0120leopard20220a420seapex.jpg
 
Schaffe89 schrieb:
Glaubt ihr ernsthaft, man kann mit einer professionellen Grafikkarte mehr Geld verdienen, als abertausend Gamer mit Grafikkarten zu beliefern? Ich glaube nicht.
Intel bringt auch noch Larabee, ich glaube nicht, dass dich da Nvidia auf lange Zeit gesehen irgendwas reißen kann.


Da hast du sicher nicht Unrecht, aber das allein bringt es nicht. AMD hat bei diskreten Grafiken für den Desktop angeblich über 50% Marktanteil, jedoch verdienen sie damit nix sondern machen jedes Quartal nur Verlust in dem segment. Und die 4k-Serie lief schon wie Butter vom Stapel!

Als Firma musst beide Seite abdecken, die Großkunden und Pofis sowie die Gamer. Intel ziel primär wohl auch erstmal auf Profis, wollen die Gamer aber nicht vergessen. Das was da aber bisher zu sehen ist, ruckelt auch nur vor sich hin. Ob Intel oder Nvidia da für den Gamer nun schlechter dasteht möcht ich nicht entscheiden, weil ich zu wenig Infos habe.

AMD kann jetzt verdienterweise erstmal den Gamermarkt abschöpfen, wenn sie denn liefern können. In zwei Wochen sollen ja noch zwei Karten kommen, dann due Dual-Chip-Modelle. Sie setzen alles auf eine (Dekstop-)Karte, doch der Profibereich wird quasi vollkommen vernachlässigt. Und so schließt sich der Kreis.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben