News Nvidia GF100 „Fermi“ gesichtet und mehr

Status
Für weitere Antworten geschlossen.
*hust* Ratenzahlung :daumen:
 
Mhh... Die Systemnanforderungen auf der Verpackung müssen doch ein Witz sein.

Ist ja klar, dass so ne Karte in Verbindung mit nem Athlon XP wenig Sinn macht. Aber gibts überhaupt ein Mainboard mit Sockel A und PCIe-Steckplatz? AGP war ja selbst beim 939 anfangs noch vertreten. Von daher wär das ja nicht mal technisch umzusetzen.
FÜr AGP wird die Karte wohl auch nie adaptiert werden ;)
 
selektiv schrieb:
Ich kauf mir so eine Karte nicht für 2 Monate sondern für mindestens 2 jahre um ruhe zu haben, da macht es für mich keinen allzugrossen Unterschied ob ich jetzt 500 oder 600 zahle.
Was sind schon 100 Euro heutzutage ?

Grafikkracher werden dank Konsolenkonvertierungen immer seltener, selbst mit der über 3 Jahre alten Geforce 8xxx Serie kann man noch gut spielen. Klar muss man Abstriche machen, aber nicht so gravierende wie zuvor. Ergo denke ich, dass sowohl die jetzige ATI
58xx als auch die kommende Nvidia gtx 4x Generation locker noch einige Jahre zum spielen ohne große Abstriche reichen. Man sollte beim Kauf also einfach nur auf das P/L-verhältnis achten.

Ps. Crysis stammt zum Beispiel aus dem November 2007
 
Zuletzt bearbeitet: (ergänzung)
GodCast schrieb:
Ich denke die Masse kauft sich keine Karte jenseits der 200 Euro. Man muss schon einmal auf dem Teppich bleiben. High End ist schließlich noch teuer und hat was von Exklusivität. Eine 5870 ist sicherlich in meinen Augen keine High End Karte, sie setzt sich nicht dramatisch von meiner zweiten "alten" GTX280 ab die ich vor über einem Jahr zu 235 Euro neu gekauft hatte. Wer Exklusivität will, kauft sich eine 5970 oder ne Asus Mars oder eben Fermi in der Limited Edition 1/5000.
Ich sag jetzt einfach mal, Leistung ist bezahlbar geworden und die Unterschiede sind nicht mehr so groß. Exklusivität ist Marketinggewäsch.

Ich denke das bringt es ziemlich auf den Punkt! Etwas das Nvidia scheinbar nicht gelernt hat aus den Erfahrungen mit der 260/280, sie gehen weiterhin auf Monsterchips zu Preisen um 500€ (nur zur Erinnerung genau auf diesen Preisbereich war auch die 280 ausgerichtet und ist "kläglich" gescheitert) und einer wahrscheinlich geringen für Nvidia rentablen Preisflexibilität (falls Fermi überhaupt Rentabel wird).
Somit wird sich Nvidia zwar auch weiterhin die Gunst einiger Fanboys erhalten mit den wahrscheinlich schnellsten Singlekarten, aber ATI wird im Preis anziehen und in die deutlich attraktiveren Preisregionen vordringen. Genau da liegt für Nvidia das Problem, der Chip muss so schnell sein, dass er auch bei sehr "günstigen" Preisen für 5850/70 weiterhin attraktiv bleibt und sich eventuell sogar noch die nicht so unendlich ferne 6000er Gen von ATI halbwegs vom Nacken halten, ich beneide Nvidia nicht.....
Mfg
 
Subjektiv. Dann hol dir ne HD5870 mit 2 GB DDR5. Und PhysX braucht der Mensch beim Zocken wie ne Rambo-Katze die einem dabei über die Tastatur rennt und rumfaucht. :rolleyes:

Mit Treibern rumärgern ist aber auch ein tolles Argument. Ach ich gebs auf. Gn8
 
Cokocool schrieb:
Grafikkracher werden dank Konsolenkonvertierungen immer seltener, selbst mit der über 3 Jahre alten Geforce 8xxx Serie kann man noch gut spielen. Klar muss man Abstriche machen, aber nicht so gravierende wie zuvor. Ergo denke ich, dass sowohl die jetzige ATI
58xx als auch die kommende Nvidia gtx 4x Generation locker noch einige Jahre zum spielen ohne große Abstriche reichen. Man sollte beim Kauf also einfach nur auf das P/L-verhältnis achten.

Ps. Crysis stammt zum Beispiel aus dem November 2007

..und ist bis heute nicht 100% ruckelrfrei spielbar auf Ultra High mit ner Singlekarte.


Da irrst Du dich gewaltig schau dir mal die harwareanforderungen von Metro2033 an !

Crysis 2 wird höchstwahrschinlich noch deutlich mehr fressen.
 
Das Treiberargument finde ich lustig. Also bei mir war das so: Installieren, spielen, fertig :D Nix Problem...
 
Mich würde echt mal interessieren was das für Treiberprobleme sind von denen alle reden und vorallem wie lange diese her sind?! Die letzten hatte ich öhm ...2007 mit ner Nvidia 8600GTS in CoD4 (Texturenflimmern) seit 2008 hab ich ne 4870 und keine einzigstens Probleme ...

Und naja PhysX ... steig halt auf das Pferd auf, womit du für die achsotollen PhysX Effekte noch ne 2. NVidia brauchst für ~200€

Naja jedem das seine ^^ Ich dürck dir die daumen das die Fermi dann mehr oder weniger ihre 600€ wert ist :D Und das mein ich ernst ^^
 
@derschlambi

Das Treiberargument Kommt immer wenns sonst nix gibt von NV was an ATI rannkommt.:D
Oder das mit den Mikimausrucklern die man bei ner 5970 mit 3 Lupen suchen muss.
 
Zuletzt bearbeitet:
White_Eagle schrieb:
Ergänzung/Nachtrag zum 2. Teil von Luxmanl525 für @ Hardware_Hoshi:

Bleibt nur zusagen, ev. hatte sich Nvidia mehr als nur bewußt "verkalkuliert" (ev. war ja ursprünglich Win 8 gemeint u. hatten sich nur versprochen, dann wäre ja die Erscheinung sogar noch lange vorzeitig), aber das iss ja schon seit Monaten nicht nur bekannt u. u.a. hier in aller Munde, sondern nen mittlerweile leider alter Aufguß mit nur neuen "Vertröstungen".

Du musst das etwas differenzierter Betrachten.

Wie es abgelaufen sein könnte:
Gehen wir doch mal fiktiv in das Jahr 2009 zurück. Die Fermi-Architektur ist soweit durch und die Ingenieure klopfen sich gegenseitig auf die Schultern. Man weiß, man wird den Markt verändern und behauptet das auch (anders kann ich mir die hochnäsigen Äußerungen nicht erklären). Alles läuft nach Plan bis das eintritt, was nicht hätte sein sollen - nämlich der wie ich ihn nenne 40nm-Super-Gau. TSMC verhunzt das 40nm-Verfahren mit Pauken und Trompeten. Die Yield-Rate ist gelinde gesagt beschissen und es häuft sich Fehler über Fehler. Dasselbe bei AMD/ATI, die aber die Karten nach ein paar Monaten mit einem Workaround herausbringe könnnen (sagt zumindest Charlie D.).

Bei Nvidia jedoch ist das nicht so einfach. Im Gegensatz zu ATI hat man keinen Aufguss der alten Generation, sondern eine komplette Neuentwicklung. Man weiß wie wichtig diese ist, da man alle Folgegenerationen hierauf aufbaut. Sollte der Ruf von "Fermi" wie wir ihn kennen von vorneherein zerstört werden und die nachfolgenden darauf basierenden Generationen in den Schmutz ziehen?

Ich denke nicht, zumindest werden sie alles versuchen dies zu vermeiden. Was folgt sind die schlimmsten Monate eines jeden Unternehmens: Viele Überstunden, evtl. hoffnungslose Versuche die Titanic doch noch zu retten. Viele Versuche scheitern und man ist dann beim Revision A3 weil die verherigen bei TSMC nur geringe Verbesserungen bringen(???).

Bei Nvidia geht es zurzeit was den Fermi betrifft um "alles oder nichts"! Die Karten haben schon 5 Monate Verspätung und es könnten durch schlechtere Verfügbarkeit noch weitere folgen. Also sollte jemals ein TSMC-Verantwortlicher durch die Ingenieursabteilung von Nvidia geschickt werden, ich glaube diese Person wird den Spießrutenlauf nicht überleben :freaky:

Verzögerungen:
Was die Verzögerungen angeht: Naja, was will man machen, wenn man noch nichts zufriedenstellendes hat? Gerüchten zufolge ist der Fermi etwa 60-80% so schnell wie er eigentlich hätte sein sollen. Das Wunder wird wohl erst mit der 2. Generation oder einem Refresh passieren. Dann dürften sich plötzlich alle wundern wieso Fermi so zugelegt hat.
 
Dr.Pawel schrieb:
...Genau da liegt für Nvidia das Problem, der Chip muss so schnell sein, dass er auch bei sehr "günstigen" Preisen für 5850/70 weiterhin attraktiv bleibt und sich eventuell sogar noch die nicht so unendlich ferne 6000er Gen von ATI halbwegs vom Nacken halten, ich beneide Nvidia nicht.....
Mfg

Interessantes Thema, was passiert, wenn die ev. abgespeckte "Fermi“ zu Preisen 500,-€ u. 600,-€, bei etwa gleichem Leistungs-/Verbrauchsverhalten wie die AMD/ATI 58xx erscheint, zieht AMD oder ziehen die Bordhersteller die Preisschraube für die 58xx-er da nochmals kräftig an, um Nvidia dann etwa nur um ca. 100,-€ zu unterbieten, um dann immer noch kostengünstiger im Angebot zu sein???
Dann wären alle diejenigen, welche unbedingt warten wollten am A...sch/äh, die Gelackmeierten???
 
Zuletzt bearbeitet:
@Hardware_Hoshi

Klar jetzt ist auf einmal TSMC schuld, dass sie es nicht schaffen den schlecht designten Fermi 2 m² Monster Chip mit 100% Yield-Rate herzustellen. Jämmerlich, sollen sie doch eigene Fabs bauen, die diesen Prozess beherrschen. Nvidia ist ja so unschuldig. Lächerlich...
 
selektiv schrieb:
Ob der Mensch PHYSX braucht oder nicht hast du nicht zu entscheiden !
.
Allein wenn ich einen blick auf die sprühenden funken bei CRYSOTASIS werfe (Physx on/off) , macht mich das stolz das ich im besitz einer NVIDIA bin.
Auf ner ATI kommt mir das Spiel einfach nur unfertig bzw. unspektakulär vor.

Ne, wenn schon dann 100% vom Spiel, ich meine da kann man doch genauso gut details runterschrauben läuft aufs gleiche hinaus.

Uihhh, Funken...., als ob man das jetzt nicht auch über andere Schnittstellen hätte berechnen können. (DX10, 10.1, 11) Das sind so Nummern wie die frühen DX10 Spiele, man bastelt schnell was rein damit das Spiel nur minimal anders aussieht und man sagen kann/konnte "DX 10 Game". Aber man muss der Marketing Abteilung von Nvidia schon lassen: Die verstehen was von ihrem Handwerk.
 
Wenn die Karte 600 kostet dann heisst es auch automatisch das sie deutlich schneller ist als HD5870.

Verarschen lassen sich die Kunden nicht mach dir mal da keine Sorgen !
Eine HD5870 kostet im Moment 380.-, also so billig ist das ja auch nicht gerade !
 
Zuletzt bearbeitet:
derschlambi schrieb:
@selektiv

Gib du nur 600€ für sprühende Funken aus, ich kauf mir davon was zu essen :D

Lass ihn doch. Wir sollten gratulieren. Bisher hatte er mehr Aquariumsbeiträge als normale.
Jetzt ist Gleichstand :) . Ein ATI-Hasser auf dem Weg der Besserung.
 
380€ sind für die schnellste Single-GPU Karte günstig, wobei 80€ davon auf das Konto der Händler geht, die die schlechte Verfügbarkeit gegenüber der hohen Nachfrage ausnutzen.
 
Hallo zusammen,

@ Hardware_Hoshi

Ich will dir wirklich nicht zu Nahe treten, aber das grenzt langsam wirklich an "Phantasterei" was du so losläßt! Das ist nicht Persönlich gemeint, auch wenn meine Silben ein wenig drastischer ausfallen.

TSMC hat in dem Fall definitiv keine Schuld. Das ist auch leicht nachverfolgbar, wenn man mal schaut, wo Nvidia mit ihrer Chip-Revision steht! Und wenn man alleine diesen Fakt betrachtet, ist schon jedweder weiterer Versuch einer Schuldzuweisung an irgendwelche Dritte oder sonstige völlig daneben.

Zudem sind diese Chipprobleme sehr genau in Beiträgen von z. B. Heise.de oder der C`t nachzuverfolgen!

Und hör mir bitte mit dieser Luftnummer "Charlie D." auf, ich kann das echt nicht mehr Hören! Das ist in etwa so, wie wenn ich jetzt erzähle, daß das Christkind an Ostern kommt Phasenweise! Ansonsten habe ich jetzt langsam wirklich den Eindruck, daß du da ziemliches Fanboy-Gelaber abläßt. Sorry.

So long.....
 
Zuletzt bearbeitet:
selektiv schrieb:
Wenn die Karte 600 kostet dann heisst es auch automatisch das sie deutlich schneller ist als HD5870.

Verarschen lassen sich die Kunden nicht mach dir mal da keine Sorgen !
Eine HD5870 kostet im Moment 380.-, also so billig ist das ja auch nicht gerade und eine GTX470 ist auch am start, nur mal so zur info.


Nicht automatisch, bitte.
Und doch, bei dir muss man sich sorgen machen, du dich verarschen lassen könntest (oder besser: schon jetzt die Katze im Sack kaufst)
Zu den Radeon Preisen sag ich mal, dass hier grad die Gesetz vom Markt nur bedingt greifen.
 
Hardware_Hoshi schrieb:
Unterschied zu Nvidia:
Die Grünen waren schon seit Jahren eher auf den "Premium-Bereich" angesiedelt und es hat niemanden gestört,.....

Findest du nicht auch das diese "premium" Karten nicht von solchen Sachen wie Spulenfiepen geplagt werden dürften ;).

Hardware_Hoshi schrieb:
Wer auf Preis-/Leistung setzt, sollte sich eine 5770er holen, denn alles darüber ist bei ATI eigentlich schon wieder zu teuer.....

Wieso zu teuer ? High End ist High End Punkt aus Ende. Braucht man eigentlich nicht mehr drüber diskutieren. Bei Nvidia "premium" Karten sind hohe Preise gerechtfertig? Spulenfiepen ? so nach dem Motto, it's not a bug, it's a feature ! :rolleyes:

Aber wenn der Konkurrent mal vorne liegt mit einer verdammt gute Leistung, geilen features wie SSAA, Eyefinity, DX11 und einer Performance/Watt die bis jetzt unschlagbar ist heisst es bla blubb bla bla die sind zu teuer ? :rolleyes:

Bitte bitte lass es, es führt zu nichts ;)
 
derschlambi schrieb:
@Hardware_Hoshi

Klar jetzt ist auf einmal TSMC schuld, dass sie es nicht schaffen den schlecht designten Fermi 2 m² Monster Chip mit 100% Yield-Rate herzustellen. Jämmerlich, sollen sie doch eigene Fabs bauen, die diesen Prozess beherrschen. Nvidia ist ja so unschuldig. Lächerlich...

Du interpretierst da (vorallem subjektiv) viel zu viel hinein.

Vergleiche mal:
Die letzte Generation G80 hatte 681 Millionen Transistoren bei ~90nm Fläche. Alles danach war nur ein modifizierter Shrink, aber nichts neues. Fermi hat 3 Milliarden (!) Transistoren bei einer Fläche von ~40nm. Das bedeutet sie bekommen ein vielfaches der Transistoren auf weniger als der Hälfte der alten Fläche unter.

Das ist nicht nur die Fertigungstechnologie, sondern auch eine gute Ingenieursleistung. Übrigens, wenn jemand von Schuld spricht, verurteilt derjenige bereits. Eine Verurteilung vor einer Verhandlung nennt man "befangen".

[Vorsicht Ironie!]
Da du dich ja in der Fertigungstechnik auskennst wie kein Zweiter, wird Nvidia selbstverständlich deinem Fachwissen folgen und sofort überall auf der ganzen Welt errichten und das unmögliche Möglich machen und physikalisch einwandfreie 100% Yieldrate zaubern!
[Ironie aus]

Ich gehe eher davon aus, das viele Fermi-Showcases noch Prototypen und oder Zwischenversionen enthalten. Sollte es nämlich wirklich die Endprodukte sein, könnte es womöglich sogar mit einer besseren Verfügbarkeit zum 26.03.2010 klappen. Hoffen wir es zumindest einmal (auch wenn es nur Illusion sein könnte).

Edit:
@Whoozy
Das ATI schlecht ist, habe ich nie behauptet, aber sie stehen alleine auf dem Markt, das ist es was ich vorhin gemeint habe. Wenn es nichts vergleichbares gibt, ist alles gut. Zu teuer ist relativ gesehen. Wie man an der ASUS MARS oder der kommenden ASUS ARES sehen kann, sind manchen nicht mal 1000€+ zu teuer. Ich hatte vom Mainstream gesprochen. Die meisten geben eben nicht 200€+ für eine Grafikkarte aus.
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

Zurück
Oben