News Drei Fermi-Karten ab Ende November?

Und dieses Jahr ist ATI verfügbar, während nVidia seinen Paperlaunch haben wird. Naja, ich bin mit nVidia Karten immer gut gefahren und hatte die wenigsten Probleme mit denen... Ich denke, wenn nVidia wirklich dieses Jahr noch rauskommt, ist es zumindest gut für die Preise.

Werden die ATI Chips in Dresden gefertigt? Denke nicht ;) Also hilft es nicht mal, wenn man sich ne ATI kauft. Bei Nokia hat es auch net geholfen, wenn man sich ein Nokia gekauft hat.

Letztes Jahr hatte ich ATI vorbestellt und bin auf die verfügbaren nVidias umegschwenkt, mal sehen wie es dieses Jahr läuft.
 
Lübke schrieb:
tatsache ist aber, dass der g300 (fermi) deutlich näher mit dem g80 verwandt ist, als der g70/g71. man kann auch schon jede neue fertigungstechnik (z. b. shrink) als neue generation betrachten. dann hätte man aber einen generationssprung von g92 auf g92b und g200 auf g200b.
ob der g300 also eine komplett neue generation oder eine modifikation ist, ist schlicht auslegungssache.
Na immerhin bist du mir schonmal etwas entgegengekommen und weichst nun auf den G70 aus ;). Ob sich Fermi zum G80 stärker unterscheidet als G80 zu G70 kann ich nicht beurteilen - was er mit dem G80 sicherlich gemeinsamer hat, ist der modulare Aufbau.

Architektur ist schon sehr klar definiert, insbesondere in der Informatik. Es beschreibt die Zerlegung in einzelne Komponenten und die Organisation der Interaktion dieser.

Und gerade in diesen beiden Aspekten der Definition unterscheidet sich nunmal ein Fermi mehr von GT200 als ein Cypress vom RV770.

Gerade das macht es derzeit trotz vieler bekannten Fakten so schwierig, die tatsächliche Leistung zu schätzen. Bei beyond3d schwirren X11000 3dmark vantage durch den Raum im A1 Stepping. Bei einem November-Launch sehen wir A2, bei einem Januar-Launch A3 (oder B1?). Konnte man das beim GT200 noch halbwegs gut nachrechnen, steht man derzeit etwas im Raum.

Fermi geht sogar sowweit, Tesselation nicht direkt über Hardware zu realisieren.
 
Die Abschätzung Fermi vs. GT200 ist nicht so leicht. Natürlich hauen die mehr als verdoppelten Shader rein. Wobei die stärker erhöhte DP-Leistung in Spielen wohl erstmal verpufft. Dazu kommt der Scheduler, der jetzt effektiver zwischen Shader- und SFU-Ops wechseln kann. Die Speicherbandbreite ist Dank GDDR5 trotz "nur" 384 Bit gut erhöht, davor sind erstmals brauchbare Caches geschaltet. Inwieweit DX11-Features mehr über SW als HW realisiert sind, können wir nur spekulieren.

Zum Glück brauch ich mir darüber nur theoretisch den Kopf zerbrechen, mein Netzteil hat nur einen 6-Pinner... ;)
 
Ich kann nur jedem davon abraten die ersten Produkte von der 5870 oder von der Fermi zu kaufen und eher nach Weihnachten auf eine Einkaufstour gehen...

Vor allem bei NVIDIA ist ja bekannt dass sie um jeden Preis den Weihnachtsmarkt mitnehmen wollen. Das wird sich garantiert ganz stark in der Qualität auswirkichen.

Jen Hsun von NVIDIA ist ja für seine Lügen und Gaunereien bekannt.
 
@Motkachler

Wenn man den gerüchten um den G300 glauben kann sit diese therie von charly eh hinfällig, da nach diesen ganze Teile des chips für den low end bereich entfallen.

langsam kann ich charlys vorhersagen auch echt nimmer hören. er hat in etwas über der hälfte aller fälle recht ... weist du ich hatte statitik .. also nein, das ist nciht beeindruckend. sicher hat er seine quellen, aber er stochert genauso im dunkeln rum wie alle anderen auch wenn er so was raushaut. das einzige was man ihm zu gute halten kann ist das er ein intelligenter mann ist der nachvollziehbare schlüsse zieht. aber ich kanns echt nimmer hören, dass seine spekulationen im nachhinein immer als unumstößliche tatsachen gepriesen werden >.<

sorry aber das musste mal gesagt werden
 
@Neo_Xsendra
Die gerüchte sagen nicht das der die kleiner wird sondern das sachen abgeschaltet werden. Also bessere argument wie Du hat er auf jedenfall.:)
 
Ich hab nciht behauptet die ebsseren argumente zu ahben. im gegenteil, das hab ich ihm zu gute gehalten ;3

allerdings sind es halt nur logische schlussfolgerungen. nicht mehr und nciht weniger. und wenn du mir jetzt sagen möchtest: Aber er hat Quellen(Die er nciht preisgibt) ... schau dir meine Sig an, das ist meine meinung dazu ;3

Und die statistik gibt mir recht, das es oft genug anders kommt als er es prophezeit, darum ist es immer so ne sache seine aussagen als tatsachen anzusehen. (und das hab ich angeprangert ;) )
 
Schaffe89 schrieb:
Ich gehe mal davon aus, dass Nvidia nicht in der Lage ist so effiziente Karten unter Last wie AMD zu bringen.
Deswegen werde sie wohl oder übel den Weg gehen mehr Performance abzuliefern, als AMD.
Der Chip wird so oder so viel verbrauchen. MAn sieht es ja wie Nvidia von 65nm auf 55 nm geschrinkt hat und es keine Auswirkungen auf den Stromverbrauch hatte.
Kann man evtl. nicht ganz vergleichen..aber evtl. ein Indikator dafür.
Cya.

Definiere mal was für Dich viel bedeutet. Bei CPU's beispielsweise ist für mich persönlich ein TDP über 45W zu viel. Bei Grafikkarten sollte unter Last nicht mehr wie 150W anliegen. Bisher ist Nvidia doch recht stolz auf ihre Arbeit in Bezug auf Energieefiizienz beim Fermi-Chip. Mal schaun, ob wir es auch sein können und sie uns positiv überraschen.





tokad schrieb:
Ich gönne AMD jetzt jedenfalls mal jeden verdienten Euro. Sie haben es eh bitter notwendig.

MfG

Hoffen wir mal das da nicht die ganzen Euros nur Umsatz werden, sondern auch etwas als Gewinn am Ende hängen bleibt. Die nächsten Quartalszahlen werden uns hoffentlich mehr Aufschluss darüber geben.
 
ich glaube für dieses jahr hat nvidia verschissen.

Die ATI Karten sind BomBe und der Preis ist auch ok und jetzt schon erhältlich und nicht erst in 4 wochen oder so. Daher glaube ich dass es für nvidia gelaufen ist für dieses jahr das gönne ich ati mal wieder
 
Realistisch betrachtet wird NV dieses Jahr die neuen Karten nur in kleinen Stückzahlen liefern können - nur wo ist das Problem ?

Wer bis jetzt viel Leistung haben wollte, der hat sie auch - daran ändert die "Verspätung" von NV mit der neuen Gen. nichts.
Für die, die "nur" 150€ für eine Karte ausgeben macht es auch keinen Unterschied, da die neuen mit sicherheit nicht zu diesem Preis angeboten werden.
 
ITM-Hummel schrieb:
ich glaube für dieses jahr hat nvidia verschissen.

Die ATI Karten sind BomBe und der Preis ist auch ok und jetzt schon erhältlich und nicht erst in 4 wochen oder so. Daher glaube ich dass es für nvidia gelaufen ist für dieses jahr das gönne ich ati mal wieder

Hallo
Wo sind die Karten denn erhältlich?
Habe 2 gefunden und die für 389€. Der Preis ist nicht o.k.:(
Wenn ich bis Dezember auf einer 5870 warten muss, dann werde ich mich noch ein klein wenig mehr gedulden und auf NV warten.
Schauen wir mal. Will endlich Arma2 mit 1920x1280 auf meinem Moni (flüssig:freak:) zocken.

Gruß
Klatty
 
@Neo

Bitte überprüfe mal Deine Posts bevor Du diese absendest. Es ist einfach grauenvoll wie Du schreibst. Irgendwann ist die erträgliche Grenze des mobilen Buchstabensalates erreicht.

Zum Thema:
Ob´s stimmt oder nicht, werden wir spätenstens Ende November erfahren. Bis dahin einfach mal die Füße still halten.
BTW: Die interne Bezeichnung für den Femi-Chip ist immer noch GF100 und nicht G300. Die Handelsbezeichnung der Karte wird wahrscheinlich auf GTX 3xx hinaus laufen.
 
Zuletzt bearbeitet von einem Moderator:
ITM-Hummel schrieb:
ich glaube für dieses jahr hat nvidia verschissen.

Die ATI Karten sind BomBe und der Preis ist auch ok und jetzt schon erhältlich und nicht erst in 4 wochen oder so. Daher glaube ich dass es für nvidia gelaufen ist für dieses jahr das gönne ich ati mal wieder


Das würde ich so nicht sagen...Wer 300 oder 400 Euro ausgeben will, kann auch noch etwas warten, denn schließlich möchten viele das Beste fürs Geld bekommen!

Deshalb warte ich die Nvidias noch ab, denn bisher kann ich noch alles spielen, sodass ich unter keinem Kaufzwang stehe. ;)
 
Affenkopp schrieb:
Das würde ich so nicht sagen...Wer 300 oder 400 Euro ausgeben will, kann auch noch etwas warten, denn schließlich möchten viele das Beste fürs Geld bekommen!

So ist es - die jenigen die in diesem Preisbereich kaufen haben jetzt auch keine GeForce2 und somit nicht so eilig.
 
Und dann soll es noch einen Gegenspieler zur Radeon HD 5850 geben, der mit einem sehr guten Preis-Leistung-Verhältnis aufwarten soll.

Meine Kristallkugel munkelt irgendwas von G92 Chip mit 40nm Shrink und DX10.1 :D

SCNR :p
 
ist für euch vieleicht nicht uninteressant....

06.10.2009, 10:52 | Quelle: CNet
Fermi für Spiele "kastriert"?
Viele Features auf andere Anwendungen ausgelegt

Nvidias leitender Wissenschaftler, Bill Dally, äußerte sich laut Cnet gegenüber Investoren weiter zum neuen DirectX-11-Grafikchip Fermi: Laut Dally seien viele Funktionen des Chips darauf ausgelegt, die GPU in Anwendungen wie Bild- oder Videobearbeitung quasi als eine zweite CPU zu unterstützen. In Spielen jedoch blieben viele dieser Funktionen ungenutzt, was die GPU durch Herunterskalieren ausgleichen soll.
Anzeige
Nvidia könne sich ebenfalls vorstellen, bei Spiele-Karten eventuell weniger als 512 CUDA-Cores zu verbauen bzw. nicht alle Funktionen zu unterstützen.
Spiele- wie Workstation-Produkte auf Fermi-Basis sollen zeitnah erscheinen, könnten aber nach neuesten Nvidia-Angaben also im Funktionsumfang leicht voneinander abweichen. Wie und ob sich die Spezifikationen unterscheiden, dürfte aber erst später feststehen.

und nach dem lesen der Fred´s über den "Fermi" Chip kann ich nur eins schlussfolgern, Ihr solltet euch mal angewöhnen abzuwarten und nicht euch gegenseitig niederzumachen - das hier alles lesen ist zum Teil sehr amüsant - wie man sich doch über ungelegte Eier fetzen kann ...

... ach und hier der Link zum Text: KLICK und hier die Quelle: KLICK

und nu wartet doch einfach mal ab und erfreut euch an dem was Verfügbar ist.

MfG
 
Zurück
Oben