Test Test: Nvidia GeForce GTS 450 (SLI)

Sentionline schrieb:
Für mich zählt nur dieser Wert, das bald auf unter 200€ fällt:

BilD Rechts


HAHA ..... und wir reden hier von einem 1 !! Jahr alten Test.

https://www.computerbase.de/2009-10...770-crossfire/19/#abschnitt_performancerating
Test: ATi Radeon HD 5770 (CrossFire) ----- 13. Oktober 2009 :)

hd5770crossfire-jpg.201135
zwischenablage01gkra.png
 

Anhänge

  • Hd5770crossfire.jpg
    Hd5770crossfire.jpg
    90 KB · Aufrufe: 714
Zuletzt bearbeitet:
Jemand sollte den Test der GTX260 rausholen. Der ist nochmal ein jahr älter und mit SLI ist man genauso schnell.:evillol:
 
@ DvP

Ach, ich packs nicht mehr... ein paar Wochen nicht wirklich "aktiv" in der HW-Welt und schon hab ich keinen Plan mehr, was so abläuft.
Naja, ich warte gespannt auf die Reviews und bis dahon solls mir egal sein - kaufen will/muss ich momentan eh nicht und die ganze Vorabinfos sind eh nicht immer korrekt...
 
Sentionline schrieb:
Kartenlehrling, AMD kaufe ich aber nicht mehr. Nicht für mich und auch nicht in meinem Umfeld, weil die Nachteile überwiegen. Zu allem anderen gesellt sich die Problematik mit dem nachpatchen neuerer Spiele, die selten fehlerfrei auf AMD Karten laufen.

Egal, wir drehen uns im Kreis.
Das geht doch klar in richtung Fanboy, sry. Nachteile ?!:evillol:
Nenne mir mal 5 Titel aus dem jahre 2010 wo AMD nachpatchen musste ?
 
Ich führe keine nach Datum sortierte Liste. Ich kenne aber einige:

Dirt 2, Saboteur, Batman, Battlefield BC2, H.A.W.X., Starcraft II, Bioshock, NFS Shift...

AMD veröffentlicht neues Catalyst-Hotfix

Fast jeder Treiber bekommt eine Hotfix Revision wegen Spiel XY.

Nervig und hat nix mit Fanboy zu tun, wenn Fakten aufm Tisch kommen.
 
Zuletzt bearbeitet:
druckluft schrieb:
Du wirst die grösseren DIE-Sizes der Fermis im allgemeinen ja nicht bestreiten wollen. Und das ist es nunmal, was sich sowohl negativ auf die Yields als auch auf die Anzahl der Chips pro Wafer auswirkt.

Die größe bestimmt erstmal nur die maximale Anzahl an Chips auf dem Wafer. Sie sagt nichts über die Verwendbarkeit aus. AMD hat z.B. eine höhere Transistorendichte als nVidia. Dies wiederrum bedeutet, dass Defekte sich stärker auswirken als bei nVidia.
 
Das sind zum grösstenteil Spiele von 2000 und nicht von 2010:D , na egal

Dirt 2 , Batman , Battlefield 2 , Hawx , Bioshock ?! Wo den, hab ich was verpasst ?

Ich habe diese Spiele und ca. siebzig weitere und es läuft alles ohne jegliche fehler auf meiner HD5870.

Das einzige Spiel was probleme bereitet ist SCARFACE, dass liegt allerdings an WIN7
 
Ich hatte ein Crossfire-Gespann von HD5770 fast ein Jahr gehabt und jetzt eine HD5870 und hatte ausser dem Flashplayer GPUaktivierung keine Problem habt, hab aber auch nicht alle von deinen auf gezählten Spielen gespielt aber dafür eine menge andere.

Eigentlich ist es doch ein Jahr zulang dafür das nur DX11 dazugekommen ist,
wenn man überlegt das die Gts250 noch genauso gute Arbeit leiste.
 
Sentionline schrieb:
Fast jeder Treiber bekommt eine Hotfix Revision wegen Spiel XY.

Ich bin seit version 10.4 dabei und habe noch nie einen HotFix treiber installiert geschweige den benötigt , weiss gar nicht was das ist ?! ;)

Die treiber sind einsame Spitze, früher gabs vielleicht probleme keine ahnung das ist meine erste ATI.


PS; Hat es NVIDIA endlich geschafft BF 2 vernünftig zum laufen zu bekommen, da heulte ja jeder rum.
 
Die größe bestimmt erstmal nur die maximale Anzahl an Chips auf dem Wafer. Sie sagt nichts über die Verwendbarkeit aus

Das stimmt nicht.
Entscheidend ist Folgendes: Wenn du einen grossen Chip hast, ist die Wahrscheinlichkeit höher dass er von potenziellen Defekten betroffen ist. Somit erreicht man mit einem kleineren Chip bei gleicher Defektdichte (Nvidia und AMD benutzen beide TSMCs 40nm Prozess) eine bessere Ausbeute. Und das senkt die Kosten. Doppelter Vorteil AMD
 
@Sentionline
Im Kreis drehen kann man das mMn nicht bezeichnen aber egal.
Was ATIs Hotfix Treiber sind sind ebend nvidias Beta Treiber.
Der gray-screen Bug war kein Spielebug sondern eher ein Problem mit den Taktwechseln zwischen Idle und Last. Vermutlich war es entweder eine defekte Karte oder eine inkompatibilität zum Mainboard, denn ich hatte auch genug Berichte gelesen bei denen eine Austauschkarte dann problemlos lief.
Bei den Hotfix Treibern zu den Spielen handelte es sich doch meist um Performanceverbesserungen oder neue Funktionen zur Einführung des Spiels. Der letzte mir bekannte schwerwiegende Bug betraf Anno 1404 und wurde letztendlich durch ein Patch des Spiels gelöst.

Der ganze 3D Kram wird für mich ohnehin erst interessant wenn man keine extra Hilfmittel mehr dafür brauch, denn meine letzten Erlebnisse beim Film Avatar bescherten mir vor allem Kopfschmerzen mit einhergehender aufkommender Übelkeit. Der Effekt an sich war zwar nett anzuschauen aber je werbewirksamer er in den Vordergrund gedrengt wurde desto unerträglicher wurde er auch für mich, weshalb ich den halben Film über auch ein Auge geschlossen halten musste. :grr:
 
Spiele-Entwicklungsstoppen durch Physx
nicht vorhandene Treibervorteile
spielen von Tesslation-Benchmarks
:rolleyes:
Immer das gleiche wird gelobt.
 
Hallo zusammen,

@ milamber!

Ich weiß nicht, warum du ständig mit einem Preis von 100 € kommst, nicht eine einzige GTS 450 ist für den Preis zu kriegen und das wird sich so schnell auch nicht ändern.

Und wenn es denn der Fall sein sollte, kannst du wirklich davon ausgehen, daß die Radeon 5750 nochmals im Preis nachgeben wird bzw. von ATI gesenkt wird im Preis.

Und richtig, der HIS 5750 iCooler IV, welche gerade einmal 99 € kostet, liegt kein Dirt 2 Gutschein bei, Sorry, da muß ich mich selbstverständlich entschuldigen. Mein Fehler.

Was das OC angeht, kannst du eben nicht immer von 8 Watt ausgehen! Das ist nunmal von System von System verschieden bzw. hängt auch stark von der sonstigen Konfiguration bzw. des sonstigen Systems ab. Aber okay, es wird nicht so Überproportional mehr sein, daß man den Mehrpreis des anfallenden Stroms nicht verkraften könnte. Insofern bin ich auf deiner Seite.

Natülich vergleiche ich die GTS 450 mit der Radeon 5750/5770, etwas anderes geht ja momentan noch nicht. Aber gleichzeitig muß sehr wohl erlaubt sein, auf die Radeons der 6000er Serie hinzuweisen, denn diese stehen ja nun wirklich quasi vor der Tür. Und auch du wirst nicht bezweifeln, daß das jeweilige Nachfolgependant zur Radeon 5750 / 5770 mit Sicherheit nicht schwächer sein wird oder gar weniger stimmig.

Und selbstverständlich gilt das auch dann für die restlichen Karten der 5000er Reihe! Natürlich wird man sich dann auch Überlegen, ob man noch zu diesen greift. Das wird eben meiner Meinung nach stark von den angekündigten Preissenkungen abhängen zum einen, zum anderen aber auch von dem Preis / Leistungsverhältnis zur jetzigen 5000er Generation.

Nvidia kommt mit ihrem Fermi momentan halbwegs in Konkurrenzsituation zu ATI`s 5000er Generation, da schiebt ATI schon die nächste Generation nach. Genau darum ging es mir, diesen Fakt aufzuzeigen. Damit verbunden eben auch, daß die Karten von ATI in der Klasse der GTS 450 mit Sicherheit eher besser abschneiden werden als die 5750 / 5770!

Und ganz ehrlich, bevor ich zu einer GTS 450 greifen würde, käme eher noch die GTX 460 in Frage, der Aufpreis steht nämlich in keiner Relation zum Preis-Leistunsverhältnis. Zumal man die ca. 30 € Aufpreis locker einsparen kann normalerweise. Die GTX 460 ist für mich die mit Abstand stimmigste Nvidia Karte derzeit. Und es steht zu befürchten, daß diese ihre Attraktivität schon wieder verlieren wird angesichts der Neuen ATI-Generation. Da braucht man nicht einmal in die Glaskugel zu Schauen, ATI wird mit Sicherheit etwas gegen die GTX 460 im Portfolio haben.

So long....
 
druckluft schrieb:
Das stimmt nicht.
Entscheidend ist Folgendes: Wenn du einen grossen Chip hast, ist die Wahrscheinlichkeit höher dass er von potenziellen Defekten betroffen ist. Somit erreicht man mit einem kleineren Chip bei gleicher Defektdichte (Nvidia und AMD benutzen beide TSMCs 40nm Prozess) eine bessere Ausbeute. Und das senkt die Kosten. Doppelter Vorteil AMD

Und anscheinend ignorierst du, dass bei einem Defekt mehr Transistoren bei AMD betroffen sind.
Dazu kommt, dass niemand weiß, wie hoch die Anzahl an überhaupt verwendbaren Chips bei beiden ist.
 
Erstma zur Karte: Bin exakt milambers! Meinung. Die GTS450 ist OK, bei den aktuellen Preisen auf jeden Fall. Bringt leider dem GTS250 Besitzer nix, aber das war ja teilweise vorher auch schon so. Wenn die Karte schlecht wäre, müsste ich die 5750 auch als schlecht bezeichnen, was aber nicht meine Meinung ist.

Hervorzuheben ist hier die sehr gute Lautstärke, die 20W mehr Verbrauch sind MEs zu verschmerzen. Das die Karte etwas spät kommt, mag sein und in 2 Monaten kann es auch sein, das ich die Karte dann als grottig empfinde. Das kommt aber jetzt erstmal auf NI an.

y33H@ schrieb:
NV hat zwar größere GPUs, aber bei TSMC offenbar deutlich höhere Kapazitäten - alle GTX 400 sind im Schnitt klar besser lieferbar als die HD 58x0.

Das hat Charlie als eindeutigen Unsinn bezeichnet, und das ist er auch, wenn du mal ne Minute drüber nachdenkst. Wo soll Ontario/Zacate gleich noch gefertigt werden? Bei der Firma die nicht genug Kapazität bereit gestellt hat? Oder bei der Firma, die ihre Kunden gleichberechtigt behandelt?

y33H@ schrieb:
Weißt du denn, was ein GF104 kostet und für was er an die AIBs verkauft wird? Und kannst die gleiche Rechnung für Cypress und Juniper aufstellen? Das bezweifle ich massiv.

Das hat Charlie ebenfalls schon x-mal vorgerechnet. Größere Dies kosten mehr. Punkt. Schlechtere Yields, die man mit mehr Salvage-parts ausgleichen muss (Margen kleiner), sind ebenfalls die Folge. Höhere Temps bedeuten aufwändige Kühlung/teure Bauteile. usw.

Pumpi schrieb:
NV wird vermutlich mit ihrer "großen Bestellung" gute Konditionen gekriegt haben, außerdem hat TSMC ein großes interesse daran das es NV gut geht, und nicht den abtrünnigen AMD'lern.

Erklär mal bitte das mit abtrünnigen AMDlern.

Frage1: Wo wird Nothern Islands gefertigt (HD6k)?

Richtig: TSMC.

Frage2: Wo wird Ontario gefertigt?

Richtig: TSMC

Frage3: Wo geht AMD hin um in Zukunft Chips fertigen zu lassen?

Richtig: Dahin, wo es günstig ist und die Technik stimmt. GloFo hat hier keinen Vorteil, sondern ist (noch) eher im Nachteil.

Rest siehe oben.

Pumpi schrieb:
Mir währe Eyefinity auch sehr lieb, nur dafür brauch ich nicht 1.5 5870 @ FullHD sondern 3 5870.

Ich weiß nicht was ne 1.5 5870 ist, aber mir reicht ne 5770 (allerdings auf 1680x1050-->16:10 FTW)

Sentionline schrieb:

Wasn das fürn Argument? Interessiert mich nicht. Was zählt ist: Was muss ich reinstecken (Geld, Strom)? Was bekomme ich raus (Leistung, Lautstärke)?


Sentionline schrieb:

Nette Spielerei in ner Handvoll Spiele. Entzweit den PC-Spiele-Markt. (Schlecht, als obs da keine anderen Probleme gäbe). Kein Einfluss auf die Spielumgebung (etwa Verletzung durch herumfliegende Trümmer). Performance-Einbußen. Unrealistische, übertriebene Effekte. usw.

Sentionline schrieb:

Können nur wenige sinnvoll nutzen, viel mehr haben davon noch nie gehört. Nett, aber Apple geht auf OpenCL und das wird von NVIDIA zwar (offiziell) auch unterstützt, nur leider wird Apple bald keine NVIDIA-Produkte mehr anbieten. AMD-Produkte schon.

Und Apple hat die Macht, auf ihrer "Plattform" sowas durchzusetzen, im Gegensatz zu NVIDIA auf dem PC. Herstellerspezischer Mist hat sich so gut wie nie durchgesetzt.

Sentionline schrieb:
Surround Gaming (ja, hat auch Nvidia)

Ohhh, dann muss AMD das wohl vorher gehabt haben? Funktioniert (macht es das überhaupt schon, hab noch keinen Test hier auf CB gelesen?) aber nur mit 2 Grakas. Und die 3. muss dann für Physx herhalten-->AUA

Sentionline schrieb:
90% Effizienz bei MultiGPU,

Interssiert weniger als 10%. lt. Steam. (also MGPU). +kein CPU-Limit hier im Bench, die 57x0 dürften ähnlich gelegen haben, bin aber grad zu faul zu suchen, ich muss noch genug schreiben (leider)

Sentionline schrieb:
weniger Mikroruckler

weniger!=keine

Sentionline schrieb:
mehr Tesselationsleistung,

Nur die 480 @Unigine@max. Was hat man momentan nochmal genau davon? Tesselation kann man bei AMD (bzw. ATI damals) seit der Radeon 8500! Wenn NVIDIA sich bei DX10 nicht zu blöd angestellt, bzw. quer gestellt hätte, könnten wir in der Richtung schon viel weiter sein.

Sentionline schrieb:
auch unter DX9 SGSSAA,

Ging von Anfang an in DX9, dagegen nicht in DX10/11 (Weil dort nach DX-Spec vom Spiel der AA-Grad angefordert werden muss). NVIDIA hat sich da natürlich wieder drüber hinweg gesetzt, AMD aber AFAIK nachgezogen.

Sentionline schrieb:
besseres und flimmerfreies AF.

OMG!!!!einseinself111

Das alte Totschlag-Argument. Schau dir die Verkaufszahlen der PS2 an. Das Ding flimmert wie Sau (seh sogar ich, das will was heißen) und hat sich verkauft wie doof.
Ergo: Interessiert vielleicht 0,5% der Enthusiasten, davon ab, das es total übertrieben ist. Dafür hat NVIDIA Bugwellen. Na und?

Sentionline schrieb:
Ich verstehe nicht wo AMD mit seiner HD5750/HD5770 einen "besseren" Job für Gamer macht. Nur weil die Karten billiger sind, sind sie die besseren? Versteh ich nicht.

Weißst du noch was ich oben über reinstecken und rausbekommen sagte? Bei AMD isses deutlich häufiger: weniger reinstecken, mehr rausbekommen.

Sentionline schrieb:
So wie ich das bisher sehe, wird die HD6x erneut ein Aufguss der R600 und AMD trampelt immernoch auf der Stelle. Technische Neuerungen ausser einem geringen Verbrauch und günstigen Karten kann man somit bei AMD vorerst vergessen. Nach wie vor...

Was waren bitte die NVIDIA Grakas seit der legenddären 88GTX? So gesehen auch nur Aufgüsse, manchmal nicht mal mehr das. Und die erste echte Neuerung, Fermi, haben sie kolossal verk****. Geringer Verbrauch und günstige Preise sind wohl nicht interessant? Naja, wenn man sich nicht selber versorgen muss vielleicht.

Sentionline schrieb:
Thema Eyefinity: Für den Preis von 3 oder mehr Monitoren kann man sich besser ein 3D Bildschirm kaufen und die SLI Lösung anschmeissen. 3DVision muss man gesehen haben, kann man nicht beschreiben. Vor allem ohne Brille kommt das echt heftig.


1. Brauchst du für 3DVision einen 120Hz Monitor. gibts nur wenige Modelle in wenigen Größen und sind entsprechend teuer. Brille brauchste auch noch.
2. Brauch man für EF "nur" 2 neue Monitore, weil 1 hat man ja sowieso schon (sonst hat man was falsch gemacht :D)
3. Brauch ich kein SLI/CF bei EF
4. kann ich EF auch beim Arbeiten sinnvoll einsetzen, 3DV nicht.
5. Hatte ich 3D schon anno 2000. War nett, aber nochmal probiere ich es erst, wenn mans gescheit ohne Brille nutzen kann.
6. Ist Open3D aufm Vormarsch, lange dauerts nicht mehr bis das Zeug nur so sprießt, gibt auch schon die ersten Laptops damit (HP)
7. Wusste gar nicht, dass 3DV ohne Brille geht? Erklär mal!

So, jetzt hab ich aber die Sch*** voll. So ein Haufen sinnlose Argumente.

Soll doch jeder kaufen, wie er lustig ist. So lange er nicht mein Geld verschwendet.
 
Ich hatte auch schiss vor den Treibern als ich HD5870 bestellte, ernsthaft ;)
Die ganzen GTA4 geschichten und so, ja das macht einen schon unsicher.

Aber nachdem ich ca. 40 Spiele durchhatte und alles problemlos lief war die sache gegessen.;)
 
Zurück
Oben