Test GeForce GTS 450 im Test: Nvidias Fermi-Einstieg überzeugt mit gutem Kühlsystem

@y33H@
Ich denke dass sich diese Punkte, welche du oben aufzählst, mehr oder weniger gleich gewichten bei jedem Boardpartner.
Ich glaube kaum, dass hier einer viel billiger als ein andere herstellen/produzieren kann.
Das wurde auch schon bei Semiaccurate/3D Center,im hardwareluxx etc.. diskutiert.
Entscheidend ist denk ich beim Vergleich HD5750 mit GTS450 die Chipgröße und der Yield.
Und da hat nvidia klar das Nachsehen, imho geht prinzipiell bei ATI mehr am Preis, was nicht heißen soll, dass Nvidia den Preis nicht unter die produktionskosten senken will.
 
Nvidia hat in der Vergangenheit fette Gewinne gemacht. Und auch heute gehts denen noch sehr gut. http://aktien.onvista.de/kennzahlen/fundamental.html?ID_OSI=92472
AMD/ATI gings in der Vergangenheit schlechter, mittlerweile aber auch wieder einigermassen.
http://aktien.onvista.de/kennzahlen/fundamental.html?ID_OSI=86389
Allerdings hat AMD vor allem im CPU Bereich derzeit das Nachsehen und muss noch einige dicke Bretter bohren. Und Intel fährt Jahr für Jahr satte Gewinne ein.
http://aktien.onvista.de/kennzahlen/fundamental.html?ID_OSI=85841

Wie dem auch sei, die Gewinnspannen sind trotz allem noch beträchtlich. Wobei das meiste Geld eh mit OEM Lösungen verdient wird und nicht an Leuten, die hier im Forum lesen. Das gilt sowohl für AMD/Ati als auch für Nvidia.
 
Ich denke dass sich diese Punkte, welche du oben aufzählst, mehr oder weniger gleich gewichten bei jedem Boardpartner

im Grunde sieht es sogar so aus, dass die Nvidia-Boardpartner durch die höhere Leistungsaufnahme der GPUs weit mehr Kosten investieren müssen (Spannungswandler und vor allem Kühlkonzept).
 
Zuletzt bearbeitet:
Kritiker hier verlangen von der GTS450 die Leistung einer HD5830 (180€) für 100€. Echt lustig und amüsant. Nach allem was man mit den Fermis extra kriegt, will man die Chips jetzt auch noch umsonst haben.

TeHaR schrieb:
Oder ist es einfach die fehlende Recherche von CB in diesem Bereich? AMD Stream hat extrem in den letzten 1-2 Jahren aufgeholt. So ziemlich jedes Programm was CUDA unterstützt kommt inzwischen auch mit ATI Stream klar.
Troll alarm. Bei welchem Consumer Programm denn? Pegasys TMPGEnc, MotionDSP vReveal, ArcSoft SimHD, Elcomsoft Distributed PW Recovery? Ne. Das sind alles Programme die kein ATi Steam nutzen. Ja, ich weiss. Ati jünger brauchen sowas nicht, wedeln sich aber eine von der Palme wenn wenigstens VLC GPU beschleunigt wird. Echt arm.

Den Begriff "eXtrem" hätte ich aber gerne definiert.
 
Zuletzt bearbeitet:
wenn man betrachtet, dass diese karte ein Jahr zu spät ist, jawohl.
Man kann mit so einer Verspätung nicht ein Produkt bringen, was nur so schnell ist,wie die Konkurrenz, die nächsten Montag bereits bei der nächsten Generation ist... und zudem den Preis auch nicht attraktiver gestalten.
 
@y33H@
Wenn dir nvidias PhysX so wichtig ist, dann stelle wir einfach mal ATIs Eyefinity dagegen.
Man brauch zwar 2 Monitore mehr hat aber jederzeit etwas davon.

Bei Spielen wäre es mir beispielsweise der deutlich größere Sichtradius wichtiger als das z.B. der Umhang des Helden physikalisch korrekt berechnet rumflattert. Autorennen oder Flugsimulationen bei denen man seitlich aus dem Fenster oder in den Rückspiegel schauen kann. Aber auch bei Adventures und Shootern hätte es einen echten Mehrwert einfach mal zur Seite schauen zu können ohne den Bereich vor sich aus den Augen verlieren zu müssen.
Leistung fressen beide Funktionen bei ausgiebigen Gebrauch ohne Ende aber das Eine hat man im Zweifelsfall nur in abgeschwächter Form (Physik) und das Andere (Sichtradius) garnicht.
 
@ kosten diskussion:

Blöder Autovergleich:

Skoda verkauft einen Superb für 20000€ weniger als Mercedes die E-Klasse. Beide konzerne (VW/Daimler) können vor Geld in den Taschen kaum laufen ! Skoda kann so viel Stahl unter anderem so billig anbieten weil sie in einem großen Konzern billig einkaufen.

NV wird vermutlich mit ihrer "großen Bestellung" gute Konditionen gekriegt haben, außerdem hat TSMC ein großes interesse daran das es NV gut geht, und nicht den abtrünnigen AMD'lern. Desweiteren hat NV eine komplett neue Architektur rausgebracht und sich damit verschätzt, das werden sie nun kompensieren müssen. Wenn's dann wieder läuft werden sie schon ordentlich Gewinne machen. AMD muß neue Architektur und teilweise Herstellerwechsel unter einen Hut bringen.

Wieso auch immer NV so schnell nicht Pleite geht, ist mir als Kunde doch völlig egal. Es funktioniert und fertig. Hier im Diskussionsthread zur GTS 450, dem Hersteller hier als Manko ankreiden zu wollen finanziell benachteiligt zu sein, geht doch mal komplett am Thema vorbei.

Edit:

Bei Spielen wäre es mir beispielsweise der deutlich größere Sichtradius wichtiger als das z.B. der Umhang des Helden physikalisch korrekt berechnet rumflattert.

Mir währe Eyefinity auch sehr lieb, nur dafür brauch ich nicht 1.5 5870 @ FullHD sondern 3 5870.
 
Zuletzt bearbeitet:
@ wadenbeisser

Mir ist PhysX nicht wichtig, ich nutze es nicht.

Eyefinity mit PhysX zu vergleichen, erachte ich als sinnbefreit. Für Shooter, Autorennen oder Flightsims müssen es zudem drei Monitore sein - mit zwei ist das mit dem Fadenkreuz so eine Sache. Zumal du wie erwähnt die Monitore zahlen musst - PhysX hat keine Zusatzkosten.
 
Wie dem auch sei, die Gewinnspannen sind trotz allem noch beträchtlich. Wobei das meiste Geld eh mit OEM Lösungen verdient wird und nicht an Leuten, die hier im Forum lesen. Das gilt sowohl für AMD/Ati als auch für Nvidia.

Da wird's aber in Zukunft auch ganz schön eng für Nvidia dank Sandybridge und Fusion. Wenn ich noch Nvidia Aktien hätte... schnell weg damit.
Leider ist diese Entwicklung für niemanden wirklich gut.
 
Für Ati/AMD umso mehr.
Nvidia hat ja dann immer noch PhysX in der Tasche.:lol: (Ironie, ich schreibs lieber dazu, bevor ich von irgendwem zugeflamed werde. Schon traurig sowas.)
AMD wird hingegen auf absolut breiter Front angegriffen mit der integrierten Grafiklösung von Intel, dem für bereits nächstes Jahr angekündigten 22nm Fertigungsprozess, dem jetzt schon niedrigeren Stromverbrauch und die höhere pro MHz Leistung von Intel Prozessoren.
Sowohl im Professional, als auch im Officebereich ist Intel also hervorragend aufgestellt.
Nebenbei sind sie in Spielen auch gut, aber das ist eher ein Nebenmarkt.
 
Neue Architektur, PhysX, 3DVision, Cuda, Surround Gaming (ja, hat auch Nvidia), 90% Effizienz bei MultiGPU, weniger Mikroruckler, mehr Tesselationsleistung, auch unter DX9 SGSSAA, besseres und flimmerfreies AF.

Ich verstehe nicht wo AMD mit seiner HD5750/HD5770 einen "besseren" Job für Gamer macht. Nur weil die Karten billiger sind, sind sie die besseren? Versteh ich nicht.

So wie ich das bisher sehe, wird die HD6x erneut ein Aufguss der R600 und AMD trampelt immernoch auf der Stelle. Technische Neuerungen ausser einem geringen Verbrauch und günstigen Karten kann man somit bei AMD vorerst vergessen. Nach wie vor...

Thema Eyefinity: Für den Preis von 3 oder mehr Monitoren kann man sich besser ein 3D Bildschirm kaufen und die SLI Lösung anschmeissen. 3DVision muss man gesehen haben, kann man nicht beschreiben. Vor allem ohne Brille kommt das echt heftig.
 
Zuletzt bearbeitet:
Hat ja keiner behauptet sie seien viel
"besser".
Man kann aber alles sehr einseitg darstellen und für das lohnt keine Diskussion.
 
y33H@ schrieb:
@ wadenbeisser

Mir ist PhysX nicht wichtig, ich nutze es nicht.

Eyefinity mit PhysX zu vergleichen, erachte ich als sinnbefreit. Für Shooter, Autorennen oder Flightsims müssen es zudem drei Monitore sein - mit zwei ist das mit dem Fadenkreuz so eine Sache. Zumal du wie erwähnt die Monitore zahlen musst - PhysX hat keine Zusatzkosten.

Es müssen lediglich min. 2 Monitore sein aber wegen der Balkenproblematik sind 3 Bildschirme schon angebraucht, weshalb ich oben bereits davon schrieb.
Des weiteren ist die Nutzung der Monitore auch nicht auf Spiele beschränkt sondern auch für dem normalen Desktop jederzeit nutzbar. (was ich ebenfalls oben schrieb)

Des weiteren kann man bei PhysX in sofern von Zusatzkosten sprechen weil es ebend auch Leistung frisst. Um die geforderte Mehrleistung abzufangen brauch man also entweder eine deutlich dickere Grafikkarte oder eine zusätzliche Karte für die PhysX Berechnung abstellt wird.
Es sind einfach nur versteckte Zusatzkosten.
 
Sentionline schrieb:
Vor allem ohne Brille kommt das echt heftig.

:D

Siehst und dafür brauch man kein Nvidia das kann jede Grafikkarte, Nvidia hat momentan mit den aktiven Brillen den Vorteil der genauern Sycronisation als mit einfachen Polarisationsbrillen.
 
Sentionline schrieb:
Neue Architektur, PhysX, 3DVision, Cuda, Surround Gaming (ja, hat auch Nvidia), 90% Effizienz bei MultiGPU, weniger Mikroruckler, mehr Tesselationsleistung, auch unter DX9 SGSSAA, besseres und flimmerfreies AF.

Feautres die die Welt nicht braucht, wieviele von sagen wir mal 100 Käufern nutzt sowas ?


Physx und SGSSAA bringen grafisch gesehen so gut wie nichts und ruinieren nur die FPS-zahl.

Performance, Stromverbrauch, Lautstärke, Hitzentwicklung das sind sachen auf die man achten sollte, aber bestimmt nicht auf dieses Marketingzeug.
 
alijandro schrieb:
Physx und SGSSAA bringen grafisch gesehen so gut wie nichts und ruinieren nur die FPS-zahl.
SGSSAA kann man bei vielen DX9 Titeln gut gebrauchen. Gerade wenn man eine Leistungsfähige Karte wie eine GTX460 oder GTS450SLI hat. AoE III, NFS MW, BF2, Stalker sehen damit einfach nur wunderbar aus. Ich selbst habe keine SLI Lösung, habe aber für meinen Kollegen eine GTS250SLI zusammengebaut, weil die GTX275 1.8GB ausverkauft waren (zudem zu teuer). Beschwert hat er sich nicht und "Mikroruckeln" kennt er nicht. Hab ihm nur nHancer gezeigt und fertig. Der ganze GTS250SLI Rechner inkl. Board, Prozessor, RAM & Netzteil als Aufrüstpacket kam auf 400€. Und das vor 6 Monaten. Günstiger kann man nicht sorglos spielen.

alijandro schrieb:
Feautres die die Welt nicht braucht, wieviele von sagen wir mal 100 Käufern nutzt sowas ?
Jetzt wo wir bis 2015 mit den gleichen Konsolen rudern, muss man schauen wie man den Tod optimierten Content noch etwas retten kann. Gleiches gillt für viele Online Spiele, die nicht gerade die besten Texturen bieten. WoW, Warhammer & Co. können nicht optimiertes AF inkl. SGSSAA gut gebrauchen. Und das sieht man auch, wenn man keine Tomaten aufm Kopf hat oder den miesestem Monitor. Bei AMD Karten geht da leider nicht viel. Gerade unter DX9 schonmal gar nicht.

alijandro schrieb:
Performance, Stromverbrauch, Lautstärke, Hitzentwicklung das sind sachen auf die man achten sollte.
Manche kaufen einen Polo um von A nach B zu kommen. Viele wege führen nach Rom. Man kann einfach nur fahren oder einfach nur wissen, das man mit Komfort fährt.

Für mich zählt nur dieser Wert, das bald auf unter 200€ fällt:

zwischenablage01gkra.png
 
Zuletzt bearbeitet:
Und weil ich dein Posting übersehen hatte...
Sentionline schrieb:
Neue Architektur, PhysX, 3DVision, Cuda, Surround Gaming (ja, hat auch Nvidia), 90% Effizienz bei MultiGPU, weniger Mikroruckler, mehr Tesselationsleistung, auch unter DX9 SGSSAA, besseres und flimmerfreies AF.

Ich verstehe nicht wo AMD mit seiner HD5750/HD5770 einen "besseren" Job für Gamer macht. Nur weil die Karten billiger sind, sind sie die besseren? Versteh ich nicht.

So wie ich das bisher sehe, wird die HD6x erneut ein Aufguss der R600 und AMD trampelt immernoch auf der Stelle. Technische Neuerungen ausser einem geringen Verbrauch und günstigen Karten kann man somit bei AMD vorerst vergessen. Nach wie vor...

Thema Eyefinity: Für den Preis von 3 oder mehr Monitoren kann man sich besser ein 3D Bildschirm kaufen und die SLI Lösung anschmeissen. 3DVision muss man gesehen haben, kann man nicht beschreiben. Vor allem ohne Brille kommt das echt heftig.
AMD hält bereits mit dem jetzigen, fast 1 Jahr alten R600 Aufguss nvidias neue Architektur im Schach und bietet auch seit dem R600 die Fähigkeit der Tesselation an. Warum wird diese Funktion ausgerechnet seit dem fermi als das *nonplusultramusthave* alles entscheidene Feature hingestellt wärend es all die Jahre davor auch so unwichtig war? Weil mehr oder weniger es das einzige ist mit dem der Fermi gegen die ach so veraltete Konkurrenz gut ausschaut? Warum bieten sie mit der Einführung der 40nm Produkte inzwischen DX10.1 GPUs an wärend es zu Zeiten des RV670/RV770 ach so unwichtig war?

Hätten sie seinerzeit nicht diese Blockadepolitik gefahren, dann hätten wir womöglich bereits Spiele die einen deutlichen Nutzen davon haben und Produkte die auch deutlich mehr darauf ausgelegt sind.

und übrigens...für den Preis deines 3D Monitors (ab 230€ für 22" und TN Display) mit 3DVision Set (ca. 130€) und SLI Gespann (je nach Grafikkarten) bekomme man wohl ohne weiteres 2 zusätzliche Monitore und eine dickere Grafikkarte finanziert.
 
Haldi schrieb:
Vermisse nur ich den Unigine Heaven Benchmark?

Im Grunde - nein.
Ich verstehe nicht, wieso man als synthetischen Test immer noch Vantage verwendet, wenn knapp das halbe Testfeld aus DX11 Spielen besteht.
Hier wäre es sinniger den Heaven Benchmark, Stone Giant oder den Lost Planet 2* Benchmark einzusetzen.

* Der immerhin Tessellation für die Figuren, Monster und dem Wasser sowie Direct Compute zur Berechnung der physikalischen Animationen (Wasser, Skelettanimationen der Monster) einsetzt.
 
Meiner Meinung nach ist 3DVision der nächste Evolutionäre Schritt als Multimonitoring, die es übrigens nicht seid Eyefinity gibt. Tesselation bot die R600 schon bei der Einführung, war aber zu ineffizient seinerzeit und demnach abgeschaltet. Jetzt haben sie es eingeschaltet, aber aufgrund der alten Architektur reisst die Funktion keine Bäume aus. Tesselation hab ich nicht als "nonplusultra" beschrieben, wo denn? Man muss das Gesamtpacket sehen, die Nvidia bietet.

DX10.1 hat keine Vorteile geboten. Bei villeicht einer Handvoll Titeln. Seinerzeit war die PhysX Liste aber ziemlich lang, die G92 verkaufte sich wie geschnitten Brot, bot sogar SSAA und (wie immer) flimmerfreies AF.

und übrigens...für den Preis deines 3D Monitors...
Knapp 600€ sind aber verdammt wenig für so eine gute Grafik. Vor einigen Monaten war noch von über 1000€ die Rede. Jetzt wo die Preise fallen sollte man das Thema im Schach behalten. Bei Eyefinity stören die Monitorränder doch sehr, und ich kann mit dem Auge nur in eine richtung sehen und mich konzentrieren. Anstatt die Leistung für links/rechts zu "verschwenden", kann ich gleich echtes 3D und Physik einschalten. Sichtfeld ist das eine, Eyecandy das andere.
 
Zuletzt bearbeitet:
Zurück
Oben