Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Im Rahmen der Pressekonferenz auf der CES hat Nvidia-CEO Jen Hsun Huang die GeForce GF100 Fermi nur kurz erwähnt, um die Veranstaltung nicht ganz ohne Bezug zur kommenden Grafikkarte zu beenden. Neben der „Volume Production“ wurde kurz auch „3D Vision Surround“ vorgestellt.
woher nimmst du jetzt deine Hellseherischen Fähigkeiten? Ist aus dem Beitrag ja nicht wirklich ableitbar. Aber mal schauen, wenn Sie jetzt sagen das die Großproduktion angelaufen ist wielange es noch bis zur Verfügbarkeit braucht.
das ist aber schon peinlich wenn die keine Karte dabei haben. ich meine nur ein spiel in 3D präsentieren ist neht schlecht aber ich denke das die besucher mehr erwarten als das.
sollten die keine Ferni GF100 Karte dabei haben ist das schon peinlich. oder
Gerüchte um Gerüchte, Spekulationen um Spekulationen... Entweder ist die Karte sau schnell und Special geworden das Sie dies unbedingt geheimhalten werden bis zum Release, oder die Karte war/ist nicht schnell genug für denn Kontra RHD5870.
Ich warte auf jedenfall nicht darauf wenn ich jetzt eine Karte suchen würde, aber momentan ist es noch nicht so weit.
Ich hab mir die 1 1/2h angeguckt und muss sagen, es war ganz interessant zu sehen wo nvidia hin will und denke das sie insgesamt sehr sehr gut aufgestellt sind.
Zum Thema GeForce muss ich sagen, das war wie ein Tritt ins Gesicht. Der CEO wusste genau das Fermi wichtig ist und die Worte am Ende waren einfach nur lachhaft, so als ob er nicht weiter darauf eingehen will aber es noch ins Programm nehmen muss.
Da es im laufe des Tages schon Bilder und einen Benchmark zu sehen gab, frage ich mich warum das nicht erwähnt oder nochmal gezeigt wurde..
Tja...was soll man da noch sagen, außer, dass die Leute von NVidia einen Fehler nach dem anderen machen. Sie hätten doch wenigstens ein einziges Produkt hinstellen können. Das hätte wenigstens Wirbel gemacht, aber so...
ich weiß nicht. Es gibt keinen plausbilen Grund, warum man es nicht hätte wenigstens zeigen sollen. Von mir aus nach dem Motto only looky, no touchy.
Vor mir aus hätte es noch nichtmal ein echtes Fermi sein müssen, eine GTX285 mit neuer Verkleidung wäre doch auch k gewesen, rein für Marketing Zwecke. Aber das ist einfach nur peinlich.
_____________
EDIT
Massenprodukt heißt sowas von gar nichts. Wenn sie erst jetzt angelaufen ist, dann kann man erst in 1 Monat mit einer Auslieferung in größerer Ordnung rechnen und erst in 3 Monaten mit einer flächen deckenden Versorgung. Was heißt das? Sie haben sich viel zu viel Zeit gelassen.
_____________
EDIT2
Für micht sieht das so aus, als wolle sich Nvidia lieber auf die nächste Generation konzentrieren und das der Fermi dafür nur der Grundstein ist. So nach dem Motto gönnen wir AMD einen Vorsprung wir entwickeln gemütlich dafür weiter. Und überzeugen dafür mit der übernächsten Generation umso mehr.
Wäre gar nicht mal so verkehrt.
Wenn der Chip bereits in Massenfertigung ist, dann sollten die ja eigentlich ein lauffähiges Exemplar dabei haben. Bin gespannt ob sie am Ende doch noch mehr bieten können als nur heiße Luft.
hmm... mich verwirt es jetzt Total, ist nicht mit der Fermi die GeForce 300er Reihe gemeint, bzw. GTX380/GTX360? GF100 sind doch nur umgelabelter GF9er Mainstream Karten und GF200er sind wiederum die neuen GT200er, ausser der GTS250 der wiederum ein G92b ist, oder hab ich da etwas verwechselt?!
Hat nV kein Fermi dabei? Es geht doch ein Video um wo man sieht wie ne Fermi Karte den Unigine Tessellation-Bench darstellt? Ist sogar eine als GeForce gelabelte Fermikarte...
Wenn der Chip bereits in Massenfertigung ist, dann sollten die ja eigentlich ein lauffähiges Exemplar dabei haben. Bin gespannt ob sie am Ende doch noch mehr bieten können als nur heiße Luft.
hmm... mich verwirt es jetzt Total, ist nicht mit der Fermi die GeForce 300er Reihe gemeint, bzw. GTX380/GTX360? GF100 sind doch nur umgelabelter GF9er Mainstream Karten und GF200er sind wiederum die neuen GT200er, ausser der GTS250 der wiederum ein G92b ist, oder hab ich da etwas verwechselt?!
Bisher eine undruchsichtige Strategie die Nvidia da fährt. Wie auch immer, die Katze haben sie noch nicht aus dem Sack gelassen, deshalb bleibt's auch spannend.
Tja...was soll man da noch sagen, außer, dass die Leute von NVidia einen Fehler nach dem anderen machen...eine GTX285 mit neuer Verkleidung wäre doch auch k gewesen, rein für Marketing Zwecke. Aber das ist einfach nur peinlich.
Also peinlich wär es gewesen, wenn sie wieder diesen dämlichen Fehler gemacht hätten, eine normale Geforce als Fermi zu verkaufen.
Das hatte ihnen zuletzt sowas von Spott und Häme eingebracht !
Exar_Kun schrieb:
Wenn der Chip bereits in Massenfertigung ist, dann sollten die ja eigentlich ein lauffähiges Exemplar dabei haben.
Äh, 3D Sourround View? Als AMDs Eyfinity is ja schon (etwas) bekloppt, da ja immer der Monitorrand dazwischenhängt und es auch (noch) keine Korrektur für die Ränder gibt. Allerdings soll man sich an den Rand sehr schnell gewöhnen beim Spielen...
Aber in 3D kann man die Monitore dann nur noch gerade aufstellen in einer Linie? Weil (kann auch sein ich lieg völlig daneben...) es bräuchte eine Möglichkeit den Winkel der Monitore im TReiber einstellen zu können, sonst stimmt doch abwechelnd für rechte/linke Auge das Bild rechts und links nicht mehr, wenn die beiden LCDs z.B. im 15° Winkel zum mittleren Monitor stehen. Bei AMD ist das kein Problem, weil kein echtes 3D, aber leidet bei NVidia nicht die Tiefeninformation darunter?
Ich kann das auch nicht nachvollziehen, warum man nicht mehr Daten und Fakten presentiert. Schließlich soll die Karte in der Massenproduktion sein. Damit muss sie lauffähig sein. Da wäre es doch ein Leichtes einige Benchmarks zu veröffentlichen, die im Einklang mit der angepriesenen Leistung stehen.
Aber ist es ziemlich ernüchternd bzw. wächst die Skepsis weiter. Zumal die auf einigen Screens zu sehenden 6 + 8 poligen Stromanschlüsse auf ein sehr stromhungriges Stück Hardware schließen lassen.
Ich glaube fast, dass Nvidia selbst nicht mit der Leistung der Karte zufrieden ist und jetzt noch versucht, durch Treiberoptimierungen so viel Leistung aus der Karte herauszukitzeln, dass der Vorsprung auf ATI annehmbar ist bzw. die Nachteile durch den wahrscheinlich sehr hohen Stromverbrauch und der daraus resultierenden Abwärme abgefangen werden.
Ein anderer plausibler Grund für diese Informationspolitik mag mir gerade nicht einfallen.