News Offiziell: „Fermi“ a.k.a. GT300

Status
Für weitere Antworten geschlossen.
Das Fermi-Karten noch im Q4/2009 herauskommen sollen muss nicht unbedingt falsch sein. Nehmen wir einmal an sie machen es wie ATI und kündigen die Karte im September an, aber bis Mitte/Ende Oktober kommt kaum eine beim Kunden an wegen schlechter Verfügbarkeit.

Dieses Szenario umgeschrieben auf Nvidia: Sie kündigen die Karte mit großem Release Ende November / irgendwann Dezember an, die Karten sind aber erst Januar 2010 flächendeckend verfügbar. In diesem Fall hätten beide Quellen recht.

Nocheinmal Klarstellung zur Fake Geschichte:
Es ist leider nicht vielen bekannt, dass es schon vom GT200 Workstationversionen gab. Die Quadros hierfür wären z.B.



  • Workstation (alt)
  • Quadro FX 4800 (GT200)
  • Quadro FX 3800 (GT200)

    Workstation & Handy (neu)
  • Tesla ??? (GT300)

    Consumer / Gamer
  • Geforce GTX??? (G300)
  • Geforce GTX??? (2xG300)

Es muss sich bei dieser Präsentation auch nicht zwangsläufig um Consumerkarten gehandelt haben. Die gezeigte Karte war auch nur eine Designstudie um die Firmenkunden zufrieden zu stellen. Diverse CAD-Abteilungen haben zumindest aufgehorcht. Ich bezweifle, dass man hier auf die Gamer angespielt hat, sonst wäre der Fokus nicht so stark auf GPGPU gewesen.

Zumindest haben wir jetzt ungefähr eine Ahnung wie es aussehen könnte. Der verchromte Teslakühler sieht umwerfend gut aus. Von dem überall verschrienen Fake sieht man zumindest den minimalen Unterschied zur alten G(T)200-Version - aber er scheint noch nicht 100% fertig. Immerhin hat Nvidia bis irgendwann im November/Dezember noch etwas Zeit.

Im Gegensatz zu ATI muss ich aber gestehen, dass die dortigen Angestellten den Mund halten können. Wenn es irgendwo eine vergleichbare Ankündigung gäbe, halten diverse Quellen nie dicht und man sieht schon Bilder oder ähnliches weit vor dem NDA-Termin. Genauso war es auch bei der HD5870 und vielen anderen Modellen auch. Ob das ein gutes oder schlechtes Zeichen ist, fällt sicher in den Bereich der Spekulationen.

Ich war leider nicht vor Ort. Die Details müssen diverse Redakteure weltweit beantworten, doch ich befürchte viele davon schwimmen mit der Fake-Welle mit um etwas berichten zu können. Leider - weil zurzeit gibt es sonst nichts zu berichten :evillol:
 
Also wissen tut man über die Grafikleistung des Fermi rein garnichts !
Somit sind die Informationen die bis jetzt bekannt gegeben wurde für uns normalen Konsumenten absolut irrelevant.

Ein wirklich fertige Karte haben sie nicht da sie offenbar nicht einmal selber wissen wie ihre Desktop-Karte wohl erscheinen wird.

Das was sie präsentiert haben ist nur ein Ausblick der kommenden CUDA-Karte alla QuattroFX ect. wobei das Video für die Leistungsfähigkeit nur auf einem G200b berechnet worden ist.
Vermutlich mit so einem System:
http://estoniadonates.wordpress.com/2009/01/23/running-3-x-nvidia-gtx-295-cuda-system-53-tflops/

Deshalb heißt es wohl noch weiter warten bis NV endlich die Daten für die 3D-Karte rausrückt.
Es gibt aber Hinweise das sich dies am 27.11.2009 aufklären wird.
 
Leute macht euch nicht verrückt, sondern wartet Fakten ab.
Selbst wenn es Nvidia dieses Jahr noch schafft, die neuen Karten rauszubringen, dann sind sie sicher erst im Januar/Februar in ausreichenden Stückzahlen, von den ganzen Herstellern verfügbar.

Einzig wenn sie das ganze aktuell schon anleihern und streng geheim halten, dann könnten wir alle noch bis Weihnachten aufrüsten.
Wobei ich wahrscheinlich eh zu ATI greifen werde, denn für vielleicht (wahrscheinlich) 10 FPS mehr, zahle ich keine 100 Euro mehr...
 
Ein Fermi mit 512 ALUs und GTX280-Takt plus internen Verbesserungen wäre laut Schätzungen rund doppelt so schnell wie eine GTX280 - die HD5870 dagegen ist "nur" 10-30% vor einer GTX285, wenns gut läuft auch mal 50%. Fermi sollte (!) da schon einiges draufpacken.
 
ja wir habens begriffen, sollte, müsste, tritratrulalala, dadurch das hier alle Nase lang gebetsmühlenartig es wiederholt wird, werden diese Vermutungen auch nicht zu harten Fakten.

Wir werden bei den ersten Tests sehen was dahinter steckt, wie sich nvidia bei DX 11 schlägt usw.
 
Und weil ATI wohl weiß, dass die 58er nicht so schnell sind, wie man es vielleicht erwarten könnte, haben sie wohl gleich schon die nächste Reihe für nächstes Jahr angekündigt.
Bei unseren ganzen Spekulationen bleibt nur interessant, wer der Preis/Leistungssieger (bezogen auf FPS) wird.
Vielleicht hat NVidia ne Karte die genau die Leistung der 5870 hat und dass zum geringeren Preis?
Aber das wird wohl eher unwahrscheinlich sein, da NVidia zuletzt ja immer etwas über Ati lag.
 
@Y33H
Die 512 wird aber die Gamer Karte nicht nutzen wenn das stimmt oder?

Zitat:
Zur Tatsache, dass der Fermi-Chip als Supercomputer-Chip und nicht als Spiele-GPU wahrgenommen wurde, sagte Daily, dass man nur eine gewisse Fläche im Chip belegen und sich dabei nur eine bestimmte Menge Energie verbrauchen dürfe. Einiges davon sei für Bereiche vorgesehen, die bei Spielen weniger Nutzen bringen als bei Berechnungen. Aber der Fermi-Chip könne herunterskaliert werden und auch wenn man momentan nicht über weitere Chips sprechen wolle, könne man sich vorstellen, dass man für Spiele-Karten weniger als 512 CUDA-Cores und pro Core auch weniger der neuen Features einsetze
http://www.gamestar.de/hardware/news/grafikkarten/1959414/nvidia.html

Wissen tust Du genausoviel wie wir nämlich nix alles specku. In welche richtung die geht wissen wir hast Du schon oft kundgetan.
Insiderwissen ? aber woher wenns nicht mal NV weis sonden sichs nur vorstellen können.:)
 
Zuletzt bearbeitet:
y33H@ schrieb:
Ein Fermi mit 512 ALUs und GTX280-Takt plus internen Verbesserungen wäre laut Schätzungen rund doppelt so schnell wie eine GTX280 - die HD5870 dagegen ist "nur" 10-30% vor einer GTX285, wenns gut läuft auch mal 50%. Fermi sollte (!) da schon einiges draufpacken.


Wenn man bedenkt, dass zwischen HD2K, HD3K und HD4K Serie jeweils ca 7 - 8 Monate lagen so könnte man auch sagen, dass ne HD6K evtl. dann zur Verfügung steht, wenn Nvidia den Fermi soweit Marktreif hat und dann sieht der Riesenvorsprung auch nimmer so riesig aus ;)
 
Evader schrieb:
Ich finds mal nebenbei gesagt amüsant wie schnell du mit dem Wort Fanboy um dich wirfst, vor allem dann, wenns gegen Charlie geht.

Das war eigentlich nur so gemeint, das vor allem (nur?) NVIDIA-Fanboys Charlie kritisieren. Das heißt natürlich nicht, das das nicht auch andere Leute tun. Mir ist das bloß nicht so arg aufgefallen. Andersrum sind die Nicht-Fanboys Charlie teilweise dankbar, das er ihnen die Geschäftspolitik NVIDIAs näherbringt, speziell bei „Bumpgate“ sind mir da viele aufgefallen, die NVIDIA-NB-GPUs abgeschworen haben.

Evader schrieb:
Könnte es sein, das vor allem bei deiner späteren Aussage das du AMD ohnehin jederzeit Intel und nV vorziehen würdest, er einfach nur die Dinge schreibt, die dir genau in deinein Präferenz-Kram passen, so das du ihm nicht nur glaubst, sondern auch glauben willst?
Wie gesagt kein Vorwurf, nur die Frage drängt sich auf. ;)

Berechtigte Frage. Dazu gibt’s mehrere Punkte. Zum einen bin ich AMD-Fan, weil man immer einen sehr guten Gegenwert fürs Geld bekommt. Zum anderen bin ich sowohl INTEL als auch NVIDIA-„Gegner“, weil mir einfach deren Firmenpolitik total missfällt. Mit den Produkten hat das so gut wie gar nichts zu tun jedenfalls. Näher brauch ich da wohl nicht drauf eingehen. (kann ich aber wenn du willst)
Zu dem glauben wollen…Mal auf die Politik übertragen: Ich höre natürlich lieber dem Politiker zu, der auch meine Meinung vertritt. (Oder mache ich das was falsch?) Jedenfalls schließt das nicht aus, dass ich 1. auch den Meinungen anderer zuhöre und 2. mein Gehirn benutze.
Ich versuche auf jeden Fall immer objektiv zu bleiben, ich würde also nicht grundsätzlich jemand ein INTEL/NVIDIA-System ausreden.

Evader schrieb:
Nein, das hat er in beiden Fällen nicht gemeint und das sagt auch in beiden Fällen nichts über das aus, was ich ursprünglich aufgeführt habe.
Es wird lediglich gesagt das C. nicht in irgendwelchen Finanzgeschichten was die Website und Werbegeschichten angeht verwickelt ist.
Was er als "Journalist" privat auf sein Konto geballert bekommt hat damit überhaupt nichts zu tun.

Wie gesagt die Aussage würd ich gern noch mal persönlich selber lesen. Und ich glaube kaum, dass derjenige Charlies Kontoauszüge gesehen hat oder wie Charlie den Geldkoffer angenommen hat ;) --> nutzlose Aussage. Gab auch genug Kommentare, das CB von NVIDIA bezahlt wird. Soll ich die jetzt auch glauben?

Evader schrieb:
Und die Nummer mit dem "got the facts right" ist genauso amüsant, ich nehme mal an das er zu nV fährt und die Chips nachzählt bevor Charlie seine "2%" Artikel posten darf?
Bei allem Respekt, wie zur Hölle soll man sowas prüfen können?

Indem man sich vom mehreren Quellen ne Bestätigung holt und keine Geschichte rausbringt, die nur auf Hörensagen basiert? ;)

Evader schrieb:
Und wo wir gerade beim Thema Charlie sind, geb uns doch mal eine vertrauenswürdige Quelle die beweist, das Charlie (und nicht die Website/Werbebanner Nummer) keine Kohle von AMD für seine Berichterstattung erhält. Falls du das nicht kannst ist die "Charlie ist in jedem Fall Objektiv" Nummer genauso Spekulativ wie mein Gegenargument. ;)

Komiker oder wie? ;)

Wie soll man die Unschuld von jemandem beweisen? Wenn du mir das erklärst, kann ichs ja mal versuchen…

Ich kann dir jedenfalls nicht mit Charlies Kontoauszügen der letzten 20 Jahre dienen. Und selbst wenn ich das könnte, hätte er ja immer noch den Geldkoffer nehmen können usw.

Du siehst, so rum funktioniert es nicht. Zudem hat Charlie seine eigene Firma um die er sich kümmert, ich glaube kaum, das er einen Scheck von AMD nötig hat…

Schaffe89 schrieb:
So ein Quatsch. Nvidia hat das Tape out angeblich hinter sich, da müssten mehrere Fermi schon lange da sein.

Naja, Tapeout bedeutet(e) ja, das man (damals) die Magnetbänder mit den technischen Daten zum Chip an die Produktionsstätte übergibt. Von da bis zum fertigen Produkt dauerts ne ganze Weile. Mehrere Wochen bis Monate.

Charlie hats man für den GT300 durchgerechnet, das war im April.

Insofern ists mit echten Produkten zur Zeit noch relativ schwierig.

Konti schrieb:
Also daß dieser Charlie Demerjian keinesfalls objektiv berichtet, sollte jedem klar sein, der in der Lage ist, diesen Namen mal bei Google einzugeben. Jemand, der ununterbrochen und durchweg negativ über NVidia berichtet, kann wohl kaum als verlässliche Quelle für Informationen angesehen werden.

Ich kann dir nur mal empfehlen, seine Artikel auch mal zu lesen und nicht nur auf die Meinungen anderer zu hören.

Hier ein paar Leseproben

Das er soviel negatives über NVIDIA berichtet, könnte ja vielleicht auch daran liegen, das NVIDIA es verdient hat? Schon mal dran gedacht?

Letztendlich hat er z.B. Bumpgate in die Öffentlichkeit gezerrt und dafür gesorgt, das die Kunden Bescheid wissen.

Hardware_Hoshi schrieb:
AMD/ATI gelingt es nur solche Kampfpreise anzubieten, weil sie A) keine Führenden Produkte haben (ewiger Zweiter - geschichtlich bewiesen)

Fazit zur 9700Pro

"Mit einer Leistung, die teils zwei- bis dreimal höher ist, als die von nVidias aktuell erhältlichem Spitzenmodell, sollte eigentlich nicht die Frage aufkommen, welcher von beiden man den Vorzug geben sollte."

:LOL


Hardware_Hoshi schrieb:
Zur Wiederholung: Es stört mich außerordentlich, wie im Vorfeld seitens AMD/ATI versprochen wurde wieviel Power sie angeblich mit der 5800er-Serie hätten. Letztens noch Benchmarks von ihnen gesehen, in denen sie die GTX295 überrunden. Jetzt kommen die Fakten und ich bin maßlos enttäuscht wie viele andere auch.

Da wurde eigentlich gar nichts versprochen, erst seit dem Flugzeugträger-Event gabs IMO überhaupt irgendwelche (geleakten) Zahlen. Insofern war deine Erwartungshaltung einfach zu überzogen. Anderseits konkurriert die 5870 ja mit der 4870 X2 relativ problemlos, keine schlechte Leistung IMO. Aber das kann ja jeder anders sehen.

Andererseits gibt es Benchmarks, wo sie die 295 schlägt, also hat auch keiner gelogen ;)

Hardware_Hoshi schrieb:
Statt der GTX295 kämpft man mit der GTX285. Nur mit Crossfire schlägt man die alte Generation

Naja, das ist ja wirklich ne leichte Übertreibung. Die 285 sieht eigentlich überhaupt kein Land. Bleibt natürlich trotzdem ne starke Karte.

Hardware_Hoshi schrieb:
Ergo: Wer bereits eine GTX285/ GTX295 / HD4870x2 / HD4850x2 besitzt wird nicht unbedingt aufrüsten.

Das war aber schon immer so. Wer Highend gekauft hat, konnte die nächste Generation überspringen. Außer vielleicht beim Shaderkrüppel 7XX0 GTX. Ich bin zum Beispiel von der Geforce 3 TI500 auf die X800XT umgestiegen, die ja mit der Geforce 6 konkurriert hat.

Gibt sicher sogar noch Leute, die mit der 9700 rumrödeln. Zumindest bis vor kurzem. Seit der 4850 gibt’s ja keinen Grund mehr, sich mit so einem Schrott rumzuquälen.

Hardware_Hoshi schrieb:
Mich wundert die Diskussion um Stromverbrauch schon seit längerem.[...]Wo ist hier bitte die Berechtigung der neuen Generation(en). Sehe ich das falsch oder denke ich nur in anderen Maßstäben, ich weiß es nicht.

Höhere Leistung? Strom sparen kannste mit Onboard. Ein aktueller 790GX hat mehr Power als ne Geforce 6, zumindest in aktuellen Spielen. Die 5770 wird die Performance der 4870 bei geringerer Leistungsaufnahme bieten. Also genau das richtige für Leute wie mich, denen die 4870 bisher zu laut und stromhungrig war. Ich werd allerdings sogar noch die 32nm Versionen abwarten. Vielleicht gibt’s ja die Performance der 4890 mit 100W Leistungsaufnahme? :)
 
Zuletzt bearbeitet:
Motkachler schrieb:
Die 512 wird aber die Gamer Karte nicht nutzen wenn das stimmt oder?
Das weiß keiner und wenn, dann steht er unter NDA.
Motkachler schrieb:
Wissen tust Du genausoviel wie wir nämlich nix alles specku.
Ich habe nicht behauptet, mehr zu wissen. Ich schrieb im Konjunktiv.
Motkachler schrieb:
aber woher wenns nicht mal NV weis sonden sichs nur vorstellen können
NV wird wohl kaum sagen, wie die Gamer-Versionen aussehen. Wie naiv bist du? :rolleyes: Das mit dem "könne man sich vorstellen, dass man für Spiele-Karten weniger als 512 CUDA-Cores und pro Core auch weniger der neuen Features einsetze" ist PR-Bla.
 
Nach der anfänglichen Euphorie macht sich Ernüchterung breit. Nvidia nutzt wieder einmal schmutzige Tricks um in die Suppe von AMD/ATI zu spucken...
 
abwartenm und tee trinken.
wie nvidia die karte bezahlbar machen will ist meinermeinungs nach das größte zu bewältigende problem
 
Wie soll man die Unschuld von jemandem beweisen? Wenn du mir das erklärst, kann ichs ja mal versuchen…

Gar nicht. Und genau das wollte ich damit auch sagen.
Der Unterschied bei dem ganzen ist, das ich das ganze immer generell -und egal aus welcher Richtung- mit dem berühmten "Grain of Salt" aufnehme.
Der Satz der mir in deinem Posting etwas komisch kam war, das Charlie wäre auf jeden Fall objektiv, ohne das hieb und Stichfest beweisen zu können.
Wenn ers ist, Prima, aber ich weiß es nicht (und du im übrigen auch nicht ;) ) und deswegen bekommt er keinen Freibrief von mir.

Du siehst, so rum funktioniert es nicht.

Es funktioniert auch andersrum nicht.
Aus dem Grund würde ich niemals einem Journalisten auf dieser Kerbe objektivität zuschreiben.
Und wenn man sich Theo, Fuad und die ganzen anderen Dullis mal so zu Gemüte führt, merkt man eigentlich auch ganz schnell warum. Mag sein das ich mich irre und die alle oder einige wirklich sauber sind, aber da sind wir wieder oben in meinem posting angelangt. ;)

Zudem hat Charlie seine eigene Firma um die er sich kümmert, ich glaube kaum, das er einen Scheck von AMD nötig hat…

Glauben heißt nicht wissen. Oder wie man so schön sagt: "Stranger things have happened". ;)
 
NV hat unterm Strich gar nichts präsentiert, man wollte einfach nur wieder die Aufmerksamkeit auf sich ziehen, das ist ihnen auch gelungen, allerdings anders als wohl zuerst gedacht. Mit dieser Aktion haben die sich ein Stück unsympathischer für mich gemacht, dann auch noch zu erfahren, das Spiele bewusst manipuliert werden, damit sie auf ATI Hardware nur eingeschränkt laufen, ist der Gipfel der Unverschämtheit, so das ich mich langsam aber sicher für meine GTX im Rechner schäme.

Alleine wegen diesem Geschäftsgebaren werde ich 100% auf ATI wechseln, so was werde ich garantiert nicht unterstützen. Diese ganzen Aktionen seitens Nvidias dienen nur dem Zweck wieder einen monopolähnlichen Zustand herzustellen, um die Preise dann nach belieben bestimmen zu können, allerdings haben sie die Rechnung ohne ihre Kunden gemacht, viele durchschauen dieses falsche Spiel (ein paar Fanboys ausgenommen, wie hier im Forum wo einer meinte die Karten seien zu billig, sie müssten wieder ca. 500 Euro kosten, ich glaube bei dem hat die NV-Propaganda endgültig die letzten Gehirnzellen erobert).
 
Zuletzt bearbeitet:
@mediamaxx
Ach quatsch, sowohl die Entwickler von dem Batman Spiel als auch nvidia bestreiten doch das sie was dafür können das nur auf nvidia Hardware das AA im Spielmenü zu aktivieren geht. Ich glaube ihnen gutgläubig wie ich bin alles!!
Es kann(!) auch nur Zufall das man, sobald die Device ID bei ATi Hardware auf nvidia umgestellt hat, die AA Funktion auch bei ATi hat. Dahinter steckt nichts böses, nein, nein. .....

[/sarkasmus]
:D
 
Turbostaat schrieb:
@mediamaxx
Ach quatsch, sowohl die Entwickler von dem Batman Spiel als auch nvidia bestreiten doch das sie was dafür können das nur auf nvidia Hardware das AA im Spielmenü zu aktivieren geht. Ich glaube ihnen gutgläubig wie ich bin alles!!
Es kann(!) auch nur Zufall das man, sobald die Device ID bei ATi Hardware auf nvidia umgestellt hat, die AA Funktion auch bei ATi hat. Dahinter steckt nichts böses, nein, nein. .....

[/sarkasmus]
:D

hehe, Nvidias Werbeabteilung ist konkurenzlos gut! Sie habe es immerhin geschafft einige Stammkunden davon zu überzeugen, dass sie zu wenig für NV-Produkte bezahlen. Was für eine Leistung, RESPEKT!
 
Zuletzt bearbeitet:
NV sagt, wenn das AA auf Radeons dann Probleme macht, haben die Devs ein Problem:
Nvidia betont zu Recht, dass Batman: Arkham Asylum auf der Unreal-Engine 3 basiert. Bekannterweise nutzt deren Renderer teilweise Deferred Shading, bei dem unter DirectX 9 kein Anti-Aliasing unterstützt wird. Nach Erscheinen der ersten Titel haben AMD und Nvidia Hacks in ihre Treiber integriert, um diese Funktionalität für DirectX-10-Karten nachzurüsten. Bei Batman: Arkham Asylum hat Nvidia nun dem Entwickler diesen Treiberhack zur Verfügung gestellt, sodass dieser ihn in den Launcher des Spiels integrieren konnte. Weiter fragt man nun, warum man Support für Hardware der Konkurrenz leisten sollte und wieso AMD sich beklage, dass auf ihrer Hardware "nur" über den Treiber Anti-Aliasing zu erzwingen wäre: Das sei schließlich genau das, was der Spieler bekommen hätte, wenn Nvidia nichts unternommen hätte. Weiter stelle sich die Frage, was passiert, wenn man kostenlos Support für AMDs Hardware integriert hätte, sich bei AMD aber etwas im Treiber ändere, sodass die Einstellung nicht mehr funktioniere? Support-Anfragen beim Entwickler wären die Folge.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben