Bericht Bericht: Nvidia GF100: Technische Details

miagi schrieb:
Und mal erlich wenn du dir da 3 monitore hinstellst bist du dann zufrieden damit nur alte games zu daddln?! Ausserdem besodners fuer rennspiele braucht man viele fps damits noch bei hohem tempo fluessig rueberkommt.

Klar wäre es cool wenn die 5870 das packen würde, keine Frage. Aber wenn Crysis (Warhead) der Maßstab ist, dann sind auch die meisten NV Karten überflüssig ;-)
https://www.computerbase.de/2009-09/test-ati-radeon-hd-5850-crossfire/13/#abschnitt_crysis_warhead
Du hast schon recht was die Rennspiele angeht aber bis auf Shift sind die alle ziemlich genügsam, vor allem die richtigen Simulationen. Liegt auch dran, dass diese grafisch nicht mehr auf der Höhe sind, was ich aber SEHR schade finde. Auch eine Engine wie die von GTR könnte man einfach mit zusätzlichen Details und Objekten noch gewaltig aufblasen und es würde immer noch auf den meisten aktuellen, spielefähigen Grakas super laufen.
 
@AwesomeSauce

das argument ist in seiner substanz völlig richtig, allerdings vermag es nvidias mismanagement nur teilweise zu entschuldigen.

versteh mich nicht falsch: ich freue mich auf fermi!

doch um welchen preis mit mit welchen marketingbegleiterscheinungen? die magazine schreiben jeden fliegendreck zu diesem thema, der einfach nervt. würden sie es nicht schreiben erhielten sie wahrscheinlich keine oder erst später testmuster von nvidia.

ich will nur das was auch ihr wollt: objektive fakten und benchmarks.

@tokad
das ist reine spekulation. tendenziell sind dual gpu grafikkarten nachweislich "schlechter" als eine schnelle single gpu karte. mgpu restriktionen, hoher stromverbrauch, wärmeentwicklung, lautstärke etc.
 
@snakebite
Jede Website ist auf Hits aus, davon verdienen die ihr Geld. Das hat absolut nichts mit erzwungenen Sympathien/Antipathien gegenüber Nvidia zu tun. Die Marketingabteilung tut, was sie eben tun muss - Marketing... Der Hunger nach Informationen ist gross, nicht zuletzt, weil das Gros eben ein Scheitern des GF100 herbeiwünscht... Jede noch so kleine negative Nachricht wurde dazu benutzt, die Fermi-Architektur zu bashen. Dass das Ganze jetzt doch ziemlich viel besser aussieht als erwartet, interessiert eben. Mich auf jeden Fall, da dies beruflich genau auf meinem Gebiet liegt ;)
 
Zuletzt bearbeitet:
Also ganz ehrlich ... ich hoffe das die Nivida Karten endlich bald kommen denn ich will das es wider Konkurrenz gibt aufem Markt ... mir ist völlig egal was die Nivida Karten bringen solange ATI billiger wird :)

MFG Haffke :evillol:
 
@DvP

exakt das wollte ich damit sagen ^^

@wadenbeisser
dann hab ich da was falsch verstanden ^^ nix für ungut
 
ziemlich alte gpu 7 jahre entwicklung das war wohl teuer bin gespannt ob sie halten was sie versprechen im vorfeld prozen koennen ja beide partein
 
@ AwesomeSauce

lesen kannst Du nicht, oder?

Nicht jeder ist gewillt > 200 Euro für ne GraKa auszugeben und wer sich ne Low-End oder Mainstream Karte der 300er Serie von nVidia kauft wird verarscht, weil da keine Fermi-Architektur existiert. Hast Du es nun verstanden oder ist Deine Brille zu grün dafür? :evillol:
 
@Ulukay
Naja, das CB-Preview ist halt schon etwas oberflächlich - aber eben auch leicht verständlich. Gibt Previews, wo die ganzen White-Papers inklusive Präsentationen dabei sind:

Ein paar Links zu etwas gründlicheren Artikeln:
Anandtech
Bjorn3D
Hard-OCP

Zwar alle in English - sollte aber für CBler kein Problem sein...
 
AwesomeSauce schrieb:
Der Hunger nach Informationen ist gross, nicht zuletzt, weil das Gros eben ein Scheitern des GF100 herbeiwünscht...

Wo ist die Mehrheit die sich das wünscht? Für mich gibts in diesen Threads zu viel blindes Fangebrabbel, wobei jeder mit Hirn beiden Konkurrenten viel Erfolg wünschen sollte. Nicht nur aus persönlicher Hinsicht sondern aus durch vielfältige positive Auswirkunden die daraus entstehen würden, drück ich AMD aber fester die Daumen. Macht aber alles wenig Sinn wenn nVidia kein starker Gegner bleibt und allein deswegen mach ich mir ein wenig Sorgen um den teuren Fermi. Wir haben alle nichts davon wenn die GPU der Überhammer wird aber sich preislich zu hoch ansiedeln muss.
Der unrühmliche Tod des GT200b hat mir im Bezug auf die Finanzkalkulationen von nVidia bereits die Schweißperlen auf die Strin getrieben. :(

Solche Zweifel sehe ich ersthaft als berechtigt und würde ähnliches gerne mal von Leuten betrachtet sehen die mehr Ahnung haben als ich (Redakteuere).

Edit: Anandtech hat genau das getan :-)
"NVIDIA has taken a big risk on GF100, first with its compute abilities for GPGPU use, then on its geometry abilities for gaming, and now the risk is time. Being 6 months late has hurt NVIDIA, and being 6 months late has hurt consumers through uncompetitive pricing from AMD. By no means is the situation dire, but we can quickly come up with some scenarios where it is if NVIDIA can’t convincingly beat AMD in gaming performance."
Quelle: http://anandtech.com/video/showdoc.aspx?i=3721&p=8

Edit: [H]ard|OCB auch:
"I think GF100 is going to be faster than 5870. Is GF100 going to be a better value? I am not so sure about that. This fact is the 5850 is the best value in "real" gaming right now and this is where NVIDIA is going to have to compete. I am not sure NVIDIA is going to be able to do that for quite a while."
Quelle: http://www.hardocp.com/article/2010/01/17/nvidias_fermi_gf100_facts_opinions/3

Ich bin wohl nicht der einzige der so denkt ;-)

@ CB-Team
Der drohende, wichtige Kostenfaktor wird im wichtigen Schlusswort nicht angesprochen. Nur Mut, ihr könnt das auch - Informativ und kritisch berichten :-)

@ Neo_Xsendra
Ahh, ok! Gut! :)

@ Ulukay
Danke für den Guru 3D Link. Klingt echt gut, aber das erste Bild verwundert mich sehr. Wenn die Technik existiert und funktioniert sollte ein solcher sinnfreier Bildvergleich nicht nötig sein. Hoffentlich irre ich mich da oder jemand hat nen dummen Fehler gemacht.

@ ALL
Noch ganz was anderes:
Bei anandtech wurde noch ein kurzes Video einer Grafikdemo hochgeladen. PhysX wurde wieder verwendet aber auch Direct Compute. Wäre zumindest mal ein Schritt (für uns alle) die Physik Bibliothek von Cuda zu lösen. Ist aber wohl nicht passiert: http://images.anandtech.com/reviews/video/NVIDIA/GF100/GF100_Architecture_WMFG_R1.wmv
 
Zuletzt bearbeitet:
@Calypso26
Oh mein Gott:rolleyes: Es ist ganz normal, dass bei einer neuen Architektur zuerst die High-End-Modelle vorgestellt und produziert werden, macht z.B dein ATi genauso... Woher nimmst du die Annahme, dass in den GF100-Midrange-Derivaten kein Fermi-Design dahinterstecken soll? Anscheinend hast du kein Ahnung...
 
@Ulukay

ich bin mir ziemlich sicher das 32x CSAA im artikel erwähnt wurde als feature der gf100
 
@ AwesomeSauce

weil bisher alle Geforce 300 nur Umbenennungen der 200er Serie sind?! Und nicht annähernd was von Fermi-Ablegern für das Mid-Range bisher im Gespräch waren?

und es ist nicht >mein< Ati, da ich nach P/L und nicht nach Farbe kaufe...
 
Was will er denn da mit der Fermi-Architektur? Diese Karten sollen ein Bild darstellen, keine Spiele... Und von einer GT310 bis zu 200€ ist ein ziemlich gewaltiger Schritt:evillol:

PS: Die kleinsten ATI HD5000er besitzen auch nur einen DX10.1 Chip:eek:

Und dass noch keine Midrange-Chips in der Mache sind ist jetzt in wie fern Verarsche:confused_alt: (Bei diesen SneakPeaks gehts explizit um den GF100, die Midrange-Derivate werden anders heissen)
 
Zuletzt bearbeitet:
3D geht mir echt am aller Wertesten vorbei, aber dank 3D kommen 120 Hz Geräte endlich im Fahrt.
 
@AwesomeSauce
... Dass das Ganze jetzt doch ziemlich viel besser aussieht als erwartet, interessiert eben. Mich auf jeden Fall, da dies beruflich genau auf meinem Gebiet liegt ...

Was bist du denn von Beruf ? Hellseher, Glaskugelbeschwörer, Optimist ? Ich weiß es nicht, aber irgendwo musst du ja die Information herhaben, dass es jetzt viiieeel besser aussieht ... als wann eigentlich ?
Also ich find Schönreden mindestens genauso ätzend wie Bashen :rolleyes:
 
luluthemonkey schrieb:
3D geht mir echt am aller Wertesten vorbei, aber dank 3D kommen 120 Hz Geräte endlich im Fahrt.

Und die brauchst oder wünscht du dir genau wofür?
 
Claus1221 schrieb:
Naja, was NVidia behauptet und dann wirklich ist ist eine andere Sache. Ich warte erstmal die ersten richtigen Benchmarks auf nicht-nvidia-optimierten Spielen ab.

Vielleicht sollte man eher Durchschnittsergebnisse abwarten, denn irgendein NVidia-optimiertes Spiel wirst du sicher auch auf dem Rechner haben ;-)

Die Frage ist nicht "Wie gut funktioniert eine Karte mit diesen Spielen?", sondern "Wie funktioniert eine Karte mit MEINEN Spielen?", wenn man sich sinnvoll entscheiden möchte.

Deshalb hoffe ich, dass die Karten richtig viel Gamingpower haben werden, da Ati bei einem Großteil meiner Spiele Grafikfehler erzeugt :rolleyes:
Ansonsten werde ich wohl erneut zu einer Ati greifen müssen, auch wenn einige Spiele dann wieder im Schrank verstauben. Aber die Mehrleistung bei den anderen Spielen wäre es mir dann doch wert, alles auf einmal geht sowieso nicht und 2 weitere Jahre auf die nächste GraKa zu warten, hält Siedler 6 auch noch aus :D
 
Zurück
Oben