Erstma zur Karte: Bin exakt milambers! Meinung. Die GTS450 ist OK, bei den aktuellen Preisen auf jeden Fall. Bringt leider dem GTS250 Besitzer nix, aber das war ja teilweise vorher auch schon so. Wenn die Karte schlecht wäre, müsste ich die 5750 auch als schlecht bezeichnen, was aber nicht meine Meinung ist.
Hervorzuheben ist hier die sehr gute Lautstärke, die 20W mehr Verbrauch sind MEs zu verschmerzen. Das die Karte etwas spät kommt, mag sein und in 2 Monaten kann es auch sein, das ich die Karte dann als grottig empfinde. Das kommt aber jetzt erstmal auf NI an.
y33H@ schrieb:
NV hat zwar größere GPUs, aber bei TSMC offenbar deutlich höhere Kapazitäten - alle GTX 400 sind im Schnitt klar besser lieferbar als die HD 58x0.
Das hat Charlie als eindeutigen Unsinn bezeichnet, und das ist er auch, wenn du mal ne Minute drüber nachdenkst. Wo soll Ontario/Zacate gleich noch gefertigt werden? Bei der Firma die nicht genug Kapazität bereit gestellt hat? Oder bei der Firma, die ihre Kunden gleichberechtigt behandelt?
y33H@ schrieb:
Weißt du denn, was ein GF104 kostet und für was er an die AIBs verkauft wird? Und kannst die gleiche Rechnung für Cypress und Juniper aufstellen? Das bezweifle ich massiv.
Das hat Charlie ebenfalls schon x-mal vorgerechnet. Größere Dies kosten mehr. Punkt. Schlechtere Yields, die man mit mehr Salvage-parts ausgleichen muss (Margen kleiner), sind ebenfalls die Folge. Höhere Temps bedeuten aufwändige Kühlung/teure Bauteile. usw.
Pumpi schrieb:
NV wird vermutlich mit ihrer "großen Bestellung" gute Konditionen gekriegt haben, außerdem hat TSMC ein großes interesse daran das es NV gut geht, und nicht den abtrünnigen AMD'lern.
Erklär mal bitte das mit abtrünnigen AMDlern.
Frage1: Wo wird Nothern Islands gefertigt (HD6k)?
Richtig: TSMC.
Frage2: Wo wird Ontario gefertigt?
Richtig: TSMC
Frage3: Wo geht AMD hin um in Zukunft Chips fertigen zu lassen?
Richtig: Dahin, wo es günstig ist und die Technik stimmt. GloFo hat hier keinen Vorteil, sondern ist (noch) eher im Nachteil.
Rest siehe oben.
Pumpi schrieb:
Mir währe Eyefinity auch sehr lieb, nur dafür brauch ich nicht 1.5 5870 @ FullHD sondern 3 5870.
Ich weiß nicht was ne 1.5 5870 ist, aber mir reicht ne 5770 (allerdings auf 1680x1050-->16:10 FTW)
Sentionline schrieb:
Wasn das fürn Argument? Interessiert mich nicht. Was zählt ist: Was muss ich reinstecken (Geld, Strom)? Was bekomme ich raus (Leistung, Lautstärke)?
Sentionline schrieb:
Nette Spielerei in ner Handvoll Spiele. Entzweit den PC-Spiele-Markt. (Schlecht, als obs da keine anderen Probleme gäbe). Kein Einfluss auf die Spielumgebung (etwa Verletzung durch herumfliegende Trümmer). Performance-Einbußen. Unrealistische, übertriebene Effekte. usw.
Sentionline schrieb:
Können nur wenige sinnvoll nutzen, viel mehr haben davon noch nie gehört. Nett, aber Apple geht auf OpenCL und das wird von NVIDIA zwar (offiziell) auch unterstützt, nur leider wird Apple bald keine NVIDIA-Produkte mehr anbieten. AMD-Produkte schon.
Und Apple hat die Macht, auf ihrer "Plattform" sowas durchzusetzen, im Gegensatz zu NVIDIA auf dem PC. Herstellerspezischer Mist hat sich so gut wie nie durchgesetzt.
Sentionline schrieb:
Surround Gaming (ja, hat auch Nvidia)
Ohhh, dann muss AMD das wohl vorher gehabt haben? Funktioniert (macht es das überhaupt schon, hab noch keinen Test hier auf CB gelesen?) aber nur mit 2 Grakas. Und die 3. muss dann für Physx herhalten-->AUA
Sentionline schrieb:
90% Effizienz bei MultiGPU,
Interssiert weniger als 10%. lt. Steam. (also MGPU). +kein CPU-Limit hier im Bench, die 57x0 dürften ähnlich gelegen haben, bin aber grad zu faul zu suchen, ich muss noch genug schreiben (leider)
Sentionline schrieb:
weniger!=keine
Sentionline schrieb:
mehr Tesselationsleistung,
Nur die 480 @Unigine@max. Was hat man momentan nochmal genau davon? Tesselation kann man bei AMD (bzw. ATI damals) seit der Radeon 8500! Wenn NVIDIA sich bei DX10 nicht zu blöd angestellt, bzw. quer gestellt hätte, könnten wir in der Richtung schon viel weiter sein.
Sentionline schrieb:
Ging von Anfang an in DX9, dagegen nicht in DX10/11 (Weil dort nach DX-Spec vom Spiel der AA-Grad angefordert werden muss). NVIDIA hat sich da natürlich wieder drüber hinweg gesetzt, AMD aber AFAIK nachgezogen.
Sentionline schrieb:
besseres und flimmerfreies AF.
OMG!!!!einseinself111
Das alte Totschlag-Argument. Schau dir die Verkaufszahlen der PS2 an. Das Ding flimmert wie Sau (seh sogar ich, das will was heißen) und hat sich verkauft wie doof.
Ergo: Interessiert vielleicht 0,5% der Enthusiasten, davon ab, das es total übertrieben ist. Dafür hat NVIDIA Bugwellen. Na und?
Sentionline schrieb:
Ich verstehe nicht wo AMD mit seiner HD5750/HD5770 einen "besseren" Job für Gamer macht. Nur weil die Karten billiger sind, sind sie die besseren? Versteh ich nicht.
Weißst du noch was ich oben über reinstecken und rausbekommen sagte? Bei AMD isses deutlich häufiger: weniger reinstecken, mehr rausbekommen.
Sentionline schrieb:
So wie ich das bisher sehe, wird die HD6x erneut ein Aufguss der R600 und AMD trampelt immernoch auf der Stelle. Technische Neuerungen ausser einem geringen Verbrauch und günstigen Karten kann man somit bei AMD vorerst vergessen. Nach wie vor...
Was waren bitte die NVIDIA Grakas seit der legenddären 88GTX? So gesehen auch nur Aufgüsse, manchmal nicht mal mehr das. Und die erste echte Neuerung, Fermi, haben sie kolossal verk****. Geringer Verbrauch und günstige Preise sind wohl nicht interessant? Naja, wenn man sich nicht selber versorgen muss vielleicht.
Sentionline schrieb:
Thema Eyefinity: Für den Preis von 3 oder mehr Monitoren kann man sich besser ein 3D Bildschirm kaufen und die SLI Lösung anschmeissen. 3DVision muss man gesehen haben, kann man nicht beschreiben. Vor allem ohne Brille kommt das echt heftig.
1. Brauchst du für 3DVision einen 120Hz Monitor. gibts nur wenige Modelle in wenigen Größen und sind entsprechend teuer. Brille brauchste auch noch.
2. Brauch man für EF "nur" 2 neue Monitore, weil 1 hat man ja sowieso schon (sonst hat man was falsch gemacht
)
3. Brauch ich kein SLI/CF bei EF
4. kann ich EF auch beim Arbeiten sinnvoll einsetzen, 3DV nicht.
5. Hatte ich 3D schon anno 2000. War nett, aber nochmal probiere ich es erst, wenn mans gescheit ohne Brille nutzen kann.
6. Ist Open3D aufm Vormarsch, lange dauerts nicht mehr bis das Zeug nur so sprießt, gibt auch schon die ersten Laptops damit (HP)
7. Wusste gar nicht, dass 3DV ohne Brille geht? Erklär mal!
So, jetzt hab ich aber die Sch*** voll. So ein Haufen sinnlose Argumente.
Soll doch jeder kaufen, wie er lustig ist. So lange er nicht mein Geld verschwendet.