Bericht Bericht: Nvidia GF100: Technische Details

Klingt ja alles schön, wie immer bei Werbung, wird aber wohl weiterhin auf warten hinauslaufen.

Tesselatio nicht als wichtig zu erachten ist imho ein Fehler, damit kann man ja, vorausgesetzt, das lässt sich dynamisch, sehr große Unterschiede im Detailgrad erschaffen und da das sicherlich nie so übertrieben eingesetzt werden wird wie im Unigine, sollte auch die Rechenleistung ausreichen.

Naja, kann ich mich schonmal auf Tests gegen März/April freuen und auf Verfügbarkeit gegen Mai :/
 
Also realisitsch sieht das für mich so aus als würde die GTX380 nur um ca. 40% schneller werden als die 5870 und dafür aber um 100% mehr kosten.
Das Problem für NV wird nur sein, dass die zuerst mal schaffen müssen, die Karte günstig an den Mann zu bringen. Denn ATI wird mit dem Preis-Dumping anfangen sobal die GTX380 ist und sehr sehr wahrscheinlich mit einer 5890 kontern wodurch nur noch ein Leistungsunterschied von 20% entstehen dürfte.

Naja alles reine Spekulation, aber gut sieht es für NV nicht aus , was die reine Wirtschaftlichkeit ihrer Karten angeht. Und ich denke, dass die Karte durchweg viel zu teuer sein wird. Denn 1 Jahr ohne nennenswerten Gewinn darf sich Nvidia eigentlich nicht mehr erlauben. Und angesichts der Tatsache, dass das NV Werbung ist, würde ich mal behaupten, dass man die Leistung nochmal nach unten korriegieren müsste.

Also ich gehe mal Tee trinken
 
*lach* war klar das jetzt wieder alle kommen mit "tesselation ist nicht so wichtig" nachdem nv behauptet darin amd so überlegen zu sein XDDD

ich sag euch AMD fanboys das gleiche wie den NV fanboys bei der 5K serie: es ist die einzige möglichkeit die mehrleistung des pc bei konsolenumsetzungen zu nutzen, auch wenns erst mitte ende 2010 tatsächlich mal relevant wird was die spiele anzahl angeht die es nutzen ... also hört auf rumzuflamen ...
 
Mir ist die 8800 GTX abgeraucht. Jetzt bin ich nach dem Artikel eher unsicher ob ich eine billige Karte zur Überbrückung kaufen soll bis die nVidia GF100 erscheint oder lohnt sich das nicht und ich soll eher die ATI 5870 kaufen?

Was ist Zukunftsicherer? Ich hatte noch nie eine ATI. Würde die 5870 bei Spielen wie z.B. Batman AA oder Mirror Edge wegen Physx Probleme machen?

JOEHLER
 
Komisch finde ich aber schon, dass hier sich einige darüber brüskieren, dass vielleicht eine Fermi-Karte nur 60% flotter sein wird als das aktuelle Flaggschiff. :rolleyes: Also die Aussagen sind zwar von nVIDIA auch noch nicht konkreter, aber vielleicht geht eben auch viel Leistung auf Kosten erhöhter Bildqualität drauf. Was nützen 200fps ggü. 150fps, wenn die Quali Mist ist. :lol:

Ich bin zwar auch noch recht skeptisch, aber ich sehe keinen Grund hier im Vorfeld, über ungelegte Eier, alles so madig zu machen. Man sollte einfach mal abwarten, obwohl die Geduld schon ziemlich von nVIDIA auf die Folter gespannt wird. Auch im Hinblick auf Hitze und Stromverbrauch ist noch nichts bekannt. Vielleicht wird es gar nicht so schlimm, wie befürchtet. Warum auch; nVIDIA ist doch keine dumme Klitsche. Hoffe ich mal! :p

Klamann schrieb:
Das Problem ist: Nvidia braucht, um 3 Monitore anzusteuern, 2 Grafikkarten. Da schafft es ATi mit nur einer Grafikkarte bis zu 6 Monitore anzusteuern.
Ich bin nicht sicher, aber braucht man nicht für Eyefinity auch noch teure Adapter? Und wie soll man ohne Hilfe an drei Anschlüssen sechs Monitore anschließen? Ehrlich gesagt, sind solche Aussagen recht naiv. Das sieht eher nach Marketingblendung als real machbar aus.
Da sind mir ehrlich gesagt 2 echte Karten mit 3D Surround lieber als das Gefummel mit zusätzlichen, teurern Adaptern.
 
manoman3 schrieb:
5870 + 9600 GT und Physix ist kein Problem
ich dachte diese Möglichkeit wurde von nVidia mitels Treiber unterbunden. Geht es doch?

JOEHLER
 
Ich glaube manche verdrehen hier die Zahlen.

Wird bei den 50-70% nicht die eigene Vorgängergeneration herangenommen? Also GTX280 / 285 ?

Das wäre schon recht beachtlich und würde eine GTX295 grob überholen.

Na bei der 5870 wurde auch immer mit der Vorgängergeneration GTX 285 verglichen ... dann jetzt eben GF100 gegen 5870 ... auch wenn da jeweils ein anderer Name dahinter steckt :)
 
Nur als Vorwahnung: Hier kommt ein ATI-Fanboy, der aber auch NVidia kauft wenns besser ist (wie bei 8800GTX/GTS).

Tesselation ist schon sehr wichtig. Die Frage bleibt allerdings, ob nVidias Implementierung brauchbar ist.
In den Folien stehen jetzt schöne Zahlen von vielen hundert Prozent schneller als X. Bla, bla, bla.
Selbst wenn die Zahlen nicht frisiert sind, dann bringen solch spezifische Tests einem nicht viel.
Es handelt sich ja nichtmal um einen FlyBy-Benchmark aus einem Spiel sondern um ein komplett realitätsfernes Szenario.
Aber gut, es gibt ja auch ein paar mehr Info's zur Tesselation-Implementierung von nVidia.
Im Gegensatz zu ATi verwendet NV augenscheinlich keine darauf spezialisiert Recheneinheit, sondern kann dynamisch die vorhanden Einheiten zur Berechnung von Tesselation nutzen.
Klingt ja erstmal gar nicht dumm. Macht zwar den Chip größer und teurer weil die Tesselation Einheit (bzw die dazu genutzen Recheneinheiten) jetzt in jedem Block auf dem Chip vertreten sein muss (bei ATi nur ein einziges Mal), dafür kann man aber im Zweifelsfall mehr Performance erzielen.
Das Problem bei NV ist aber, dass man sich die höhere Tesselation-Leistung durch niedrigere Leistung für andere Aufgaben erkauft.
Man kann also nicht beides gleichzeitig, bzw muss die Performance erst woanders abziehen, bevor man sie Tesselation zuordnen kann.
Im Endeffekt ist das nichts anderes als ein nett beschriebenes Software-Tesselation mit nur geringfügig dahingehend optimiertem Silizium.
Die Rohleistung wird nicht zu verachten sein, spannend ist aber was dabei rauskommt.
Welches Konzept da besser ist kann nur ein objektiver Benchmark zeigen, denn auf dem Papier kann man sich beide Varianten schönreden.

Tesselation jetzt kleinzureden ist also Unsinn, die NV-Implementierung vor aussagekräftigen Vergleichen in den Himmel zu loben aber auch.

Hoffentlich fängt NV jetzt mal wieder an regelmäßig neues Silizium rauszubringen.
Denn nur dann kann sich für die Kunden was tun und ATI zum mitziehen gezwungen werden.
Ob ATI oder NV-Fan ist dabei egal, wenn alle mehr Leistung bekommen, dann ist keiner unglücklich.

Grüße vom:
Jokener
 
Lübke schrieb:
@Respekt:
das sagt doch gar nichts. das war bei 2900xt und fx5800 auch so und die waren alles andere als schneller als ihre konkurrenz ;)
Gutes Beispiel, wobei der R600 zwar ein unglaublicher Flop (wieviel Verspätung nach der 8800 GTX?) war, dann die Grundlage für eine für AMD sehr erfolgreiche Architektur wurde.
 
JanEissfeldt schrieb:
Ich bin nicht sicher, aber braucht man nicht für Eyefinity auch noch teure Adapter? Und wie soll man ohne Hilfe an drei Anschlüssen sechs Monitore anschließen? Ehrlich gesagt, sind solche Aussagen recht naiv. Das sieht eher nach Marketingblendung als real machbar aus.
Da sind mir ehrlich gesagt 2 echte Karten mit 3D Surround lieber als das Gefummel mit zusätzlichen, teurern Adaptern.

Was sollen diese platten Beiträge immer? Klar brauchst du einen Adapter wenn du unbedingt Monitore anschließen willst die den neuen Standard (DisplayPort) noch nicht unterstützen. War doch bei DVI etc nicht anders, wobei die Tatsache, dass dieser Adapter so teuer ist natürlich auch gegeben ist!? Niemand wird davon abgehalten sich einen neuen Monitor mit DP zu kaufen, wenn man so ein Setup will und sonderlich teuer sind die auch nicht. Die Ati Karten mit 6 Monitoranschlüssen kommen erst.

@ Topic
Schön, dass es nun weitere Informationen gibt, aber dass nVidia die rausrückt ist ein weiteres verdammt schlechtes Zeichen, wie einige schon bemerkt haben. Dies wurde so noch nie gemacht und zeigt schon eine gewisse Verzweiflung und die Aussicht auf eine weitere, deutliche Verzögerung von Fermi hilft uns allen nix. Resultat -> Jene die so eine Karte wollen müssen warten und alle die eine neue Radeon kaufen wollen, werden entweder noch abgezockt (hart gesagt) oder müssen auch warten :-/ Mist!

Jokener schrieb:
Hoffentlich fängt NV jetzt mal wieder an regelmäßig neues Silizium rauszubringen.
Denn nur dann kann sich für die Kunden was tun und ATI zum mitziehen gezwungen werden.
Ob ATI oder NV-Fan ist dabei egal, wenn alle mehr Leistung bekommen, dann ist keiner unglücklich.

Sehr, sehr richtig. Diese Einstellung versuche ich auch immer wieder zu vermitteln, da man zwar Fan oder was auch immer von einer Firma sein kann, so lange man bisschen Realimus zulässt und sich endlich mal klar macht, dass wir nur etwas davon haben wenn beide Konzerne gute Lösungen bringen und sich nicht (!!) über die Preise einigen.
 
Zuletzt bearbeitet:
@Einhörnchen:
Der R600 hatte noch viel mehr Probleme als die Verspätung, nämlich den Stromverbrauch, das überdicke Speicherinterface usw.
War in 80nm absolut nicht zu gebrauchen, hatte selber eine.
 
Warum müssen bei jedem ATI/NVIDIA Thema immer wieder irgendwelche Fanboy Vorwürfe in den Raum geworfen werden und somit Stückchen für Stückchen das sprachliche Niveau nach unten gezogen werden?

NVIDIA hat sich scheinbar mit dem GF100 einiges vorgenommen. Ich frage mich, ob der neue Chip aufgrund seiner hier aufgeführten Details nun auch einen etwas kräftigeren Schritt ins Hybrid-Rendering zwischen Rasterisierung und Raytracing ist/sein soll oder ob es sich hier um "Marketing"-Features handelt. Auch wenn es mein technisches Wissen teils übersteigt, sind die Architektur-Änderungen nicht unerheblich.

Ich kann nur hoffen, dass unabhängige Stellen wie CB so eh wie möglich Testsamples erhalten und wir uns nicht länger nur theoretisch über die Leistung des neuen NVIDIA Chips unterhalten müssen bzw. die teils unverschämten, teils amüsanten Kriege in Foren wieder etwas abklang finden und Platz machen für sinnvollere Diskussionen.
 
Kleine Frage am Rande:

Ich meine mal vor einiger Zeit gelesen zu haben, dass der Fermi keine eigene "Tesselator Unit" hardwaremäßig verbaut hat, sondern dies alles softwareseitig emuliert - ist da jetzt eigentlich was dran oder waren das alles nur wieder Gerüchte?

mfg
 
Mich faszinieren hier schonwieder die Sprüche zu den Preisen und erinnere nochmal daran das die 8800GTX mit ca. 600€ und die GTX280 mit ca. 500€ startete (und mit erscheinen der HD4870 und co auf ca. 350€ runterkrachte, die HD 5870 begann hingegen bei ca. 320€ udn den Rest des Aufpreises kann man wohl ruhigt unter Händleraufschlag verbuchen.....Angebot und Nachfrage ebend.

miagi schrieb:
GF100 vs GT200 bei gleichem takt, denke ich mal die frage ist wie taktet die neue architektur...
Das war natürlich eine Vermutung meinerseits, da sich sich die Vergleichsangaben in dem Bereicht ebenfalls auf die GTX285 beziehen. Wie hoch die fertigen Produkte letztenendes takten ist hier die Preisfrage.
 
@melemakar

hmmm ... gute frage, schwierig kurz zu antworten ...

sie ahben die entsprechenden hardware bereiche stark ausgebaut und nutzen diese über den treiber

es ist also "eher" software seitig gelöst könnte man sagen ...
 
Lübke schrieb:
wenn aber die gtx380 40-50% schneller als die 5870 wird (gleiche generation!) ist das ne schwache leistung? :freak:

Keineswegs, aber vielleicht wurde die Erwartungshaltung zu sehr dahingehend geschürt, dass der Fermi das doppelte oder dreifache an Leistung bringt. 40% Mehrleistung gegenüber einer 5870 wäre top. Die Karte würde selbst dann noch genügend Abnehmer finden, wenn sie doppelt so viel kosten sollte, deutlich mehr Energie verbrauchen würde und damit wirtschaftlich eigentlich unsinnig wäre. Wir wissen doch, wie Fanboys und Enthusiasten ticken. :D
 
Zurück
Oben