Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeForce GTX 260 – Die Kosten müssen runter
- Ersteller Jan
- Erstellt am
- Zur News: GeForce GTX 260 – Die Kosten müssen runter
dorndi
Fleet Admiral
- Registriert
- Apr. 2008
- Beiträge
- 12.351
ein weiterer grund nicht auf nvidia zu setzen
nvidia verarscht die kunden nur noch:
1. umbenennung der karten
2. 55nm und 65nm 260gtx haben den selben namen
3. und jetzt das
von der bildqualtiät nehmen sich nvidia und ati nichts
nvidia verarscht die kunden nur noch:
1. umbenennung der karten
2. 55nm und 65nm 260gtx haben den selben namen
3. und jetzt das
von der bildqualtiät nehmen sich nvidia und ati nichts
Zuletzt bearbeitet:
Eisenfaust
Banned
- Registriert
- Feb. 2007
- Beiträge
- 1.212
Wenn drei oder vier Arbeitsstationen in einem Büro stehen, die mit diesen 'sparsam' gefertigten Baugruppen ihr gemeinsames Fiepkonzert von sich geben, kann man getrost auf sonstige Lärmdämmaßnahmen verzichten. Dank CUDA und Adobe CS4 sind auch im professionellen Bereich GT200 Karten willkommen und auch dort wie sonstwo versucht man zu sparen, also wird Standardware gekauft und nicht drei- oder vierfach teurere Profiware.
Und dieses Fiepen kann einem den letzten Nerv rauben!
Qualität hat ihren Preis. Leistung auch. Bei den heutigen kurzen Generationszyklen darf man sich nicht wundern, wenn Kunden, die zudem noch geizgeil sind, hohe Preise ablehnen, wenn doch schon 6 Monate später die neue schenllere Generation eventuell billiger vor der Türe steht?
Bei der Bildqualität habe ich bisher keine Unterschiede feststellen können. Physikalisch ist das bei digitalen Ansteuertechniken auch schwierig. Lediglich die analogen VGA Ausgänge zeigen Unterschiede, aber das betrifft beide mal so oder so, ich konnte noch nie eine Tendenz zu schlecht oder gut bei einem speziellen Hersteller feststellen.
Bei Spielen empfinde ich, persönlich, nVidias Darstellungen und Kantenglättungen 'schöner' und angenehmer, wobei ich hier nie so genau hingesehen habe. Professionell arbeiten wir mit nVidia Karten, da wird nicht/kaum gespielt, privat habe ich seit kurzem eine ATI Karte und bin mit dieser recht zufrieden.
Die Umbenennungen, Verschlimmbesserungen und -verbilligungen und vor allem die gezielte Verschleierung der Die-Strukturgröße (55 oder 65nm) empfinde ich als warnende Signale. Wer sich nicht so sehr auskennt oder auskennen will wird eben zu etwas greifen, dem man vertrauen kann. Das ist wieder ein Punkt für AMD/ATi.
Und dieses Fiepen kann einem den letzten Nerv rauben!
Qualität hat ihren Preis. Leistung auch. Bei den heutigen kurzen Generationszyklen darf man sich nicht wundern, wenn Kunden, die zudem noch geizgeil sind, hohe Preise ablehnen, wenn doch schon 6 Monate später die neue schenllere Generation eventuell billiger vor der Türe steht?
Bei der Bildqualität habe ich bisher keine Unterschiede feststellen können. Physikalisch ist das bei digitalen Ansteuertechniken auch schwierig. Lediglich die analogen VGA Ausgänge zeigen Unterschiede, aber das betrifft beide mal so oder so, ich konnte noch nie eine Tendenz zu schlecht oder gut bei einem speziellen Hersteller feststellen.
Bei Spielen empfinde ich, persönlich, nVidias Darstellungen und Kantenglättungen 'schöner' und angenehmer, wobei ich hier nie so genau hingesehen habe. Professionell arbeiten wir mit nVidia Karten, da wird nicht/kaum gespielt, privat habe ich seit kurzem eine ATI Karte und bin mit dieser recht zufrieden.
Die Umbenennungen, Verschlimmbesserungen und -verbilligungen und vor allem die gezielte Verschleierung der Die-Strukturgröße (55 oder 65nm) empfinde ich als warnende Signale. Wer sich nicht so sehr auskennt oder auskennen will wird eben zu etwas greifen, dem man vertrauen kann. Das ist wieder ein Punkt für AMD/ATi.
Zuletzt bearbeitet:
Nvidia verarscht bei der Hardware, ATI bei der Software, so what? Da läuft ein Machtkampf der immer unschönere Formen annimmt und für den User schon lange keine wirklichen Vorteile mehr bringt. Etwas mehr Ruhe täte dem markt gut, wird aber nicht kommen.dorndi schrieb:ein weiterer grund nicht auf nvidia zu setzen
nvidia verarscht die kunden nur noch:
Mad_87er
Lieutenant
- Registriert
- Sep. 2004
- Beiträge
- 516
Da sieht man mal wo es hinführt, das verdammte Preisdumping ... die Qualität aktueller Produkte wird stetig schlechter und an Neuentwicklungen wagt man schon gar nicht mehr zu denken 
Früher hab ich mal 420€ für ne 6800GT bezahlt, aber die hat auch knapp 3 Jahre was getaugt ... wer heute 200€ für eine "High End" Karte ausgibt braucht sich echt nicht mehr zu wundern, wenn die SpaWas fiepen (bei meiner 4850 im übrigen das selbe Spiel) oder sonst was für Probleme auftauchen, irgendwie muss es ja bezahlt werden

Früher hab ich mal 420€ für ne 6800GT bezahlt, aber die hat auch knapp 3 Jahre was getaugt ... wer heute 200€ für eine "High End" Karte ausgibt braucht sich echt nicht mehr zu wundern, wenn die SpaWas fiepen (bei meiner 4850 im übrigen das selbe Spiel) oder sonst was für Probleme auftauchen, irgendwie muss es ja bezahlt werden

SchlachtVati
Lt. Junior Grade
- Registriert
- Jan. 2005
- Beiträge
- 325
"Ich vermisse echt die Zeiten der 8800 Ultra. Brutal, RIESIG, riesen Stromverbrauch und vorallem Teuer. Eben High end. "
kannst doch mit trible-sli haben !
nur es stellt sich die frage, WOZU ?
ich kenn die voodoo2 generation (damaliges high end)
wo spiele, wie quake2 ,unreal bzw.unreal tournament ,descent2,gothic2 und andere von high end profitierten.
heute ist nur ein einziges spiel wirklich von high end betroffen. nämlich crysis
kannst doch mit trible-sli haben !
nur es stellt sich die frage, WOZU ?
ich kenn die voodoo2 generation (damaliges high end)
wo spiele, wie quake2 ,unreal bzw.unreal tournament ,descent2,gothic2 und andere von high end profitierten.
heute ist nur ein einziges spiel wirklich von high end betroffen. nämlich crysis
Mad_87er
Lieutenant
- Registriert
- Sep. 2004
- Beiträge
- 516
Nur das die 9700 (Pro) am Ende auch eine wahnsinnig tolle Karte gewesen istriDDi schrieb:Ich erinnere mich noch, wie Nvidia sich damals über Ati wegen der 8 Layer des 9700-PCBs lustig machte.

/OT
m-sharingan
Commander
- Registriert
- Okt. 2007
- Beiträge
- 2.368
panopticum schrieb:Bildqualität ist nicht schlechter und ich hatte beide Karten, 4870 und jetzt ne GTX 260.
Habe nur gewechselt weil ich viel CoD spiele.
wegen COD 5 wechseln? lol?
also da reicht ne 4870 vollkommen^^
aber jedem dass seine
zu den karten...ja regt euch mal nicht so auf...ihr habt auch immer was dagegen
im endeffekt wird die karte besser als ne 4870 noch sein aber eben genau so untaktfreudig wie die 4870 sein
und der preis geht runter...
ich mein es wurden ja ganz klar mehr 4870er verkauft als 260gtxer
und trotzdem wissen viele das die 260er besser ist...aber es wurde doch eher die 4870 geraten...weil sie vollkommen ausreicht...wer jetzt noch mehr power will der holt sich eben jetzt eine 295GTX
dass der preis runtergeht ist ist für den verbraucher immer gut...wer OC betreiben will der holt sich dann ne andere...so ist das nunmal
Nevermore4ever
Ensign
- Registriert
- Aug. 2004
- Beiträge
- 146
spam23 schrieb:Das einzig Gute daran ist wohl, das der PCB 1,5cm kleiner wird, gut für kleine Gehäuse.
Edit: Mist, nur schmaler, nicht kürzer, wird also nicht wirklich helfen.
Ich werfe mal noch eine Größe in den Raum: Die HÖHE ändert sich, nicht die Länge und nicht die Breite. (So von wegen "low profile" ist "halbe Bauhöhe" usw.)
Wäre sie 1,5cm schmaler, würde sie glatt als single-slot Karte durchgehen.
Mad_87er
Lieutenant
- Registriert
- Sep. 2004
- Beiträge
- 516
Nevermore4ever schrieb:Hier stand ein überflüssiges Zitat.
Hää? Ich glaube du meinst jetzt doch wieder die Höhe, wenn du schmaler sagst... denn so wie ich es verstehe bezieht sich die Änderung am PCB auf die Tiefe und nicht auf die Höhe (PCB + Kühler).
MfG
Zuletzt bearbeitet von einem Moderator:
(Komplettzitat entfernt.)
Keks2me
Captain
- Registriert
- Apr. 2008
- Beiträge
- 3.343
@SchlachtVati
Crysis ist kein Spiel sondern ein Grafiktestprogramm !
Ich hab die neue 260 GTX 55 nm und ich merke nichts vom fiepen, vll. habe ich ja glück gehabt kann sein.
Dennoch stehe ich zu NVIDIA, da sie eindeutig besser übertaktbar ist.
Probiert mal die ATI zu takten...viel spaß!
Meine läuft Minimal übertaktet auf 280 Niveau, kein Heat Bug wie bei der 280 und auch kaum hörbar, alles argumente wo ich mir 100 € spare und trotzdem 280 Niveau besitze.
Manchmal steht aber hier auch dummes zeug echt...
Crysis ist kein Spiel sondern ein Grafiktestprogramm !
Ich hab die neue 260 GTX 55 nm und ich merke nichts vom fiepen, vll. habe ich ja glück gehabt kann sein.
Dennoch stehe ich zu NVIDIA, da sie eindeutig besser übertaktbar ist.
Probiert mal die ATI zu takten...viel spaß!
Meine läuft Minimal übertaktet auf 280 Niveau, kein Heat Bug wie bei der 280 und auch kaum hörbar, alles argumente wo ich mir 100 € spare und trotzdem 280 Niveau besitze.
Manchmal steht aber hier auch dummes zeug echt...
memoryleak
Cadet 2nd Year
- Registriert
- Jan. 2009
- Beiträge
- 29
vander schrieb:Nvidia verarscht bei der Hardware, ATI bei der Software, so what?
Kannst du das näher erörtern, was ist bei der ATI-Software eine Verarschung? Kenn mich da nicht so aus, allerdings die Geschichten mit Umbennung bei nVidia habe ich mitbekommen.
M
MixMasterMike
Gast
Oh man Nvidia... eine unendliche Reihe von Zumutungen für den Kunden.
Die ganzen Nvidia Fanboys dürften dann heulen wenn sie merken, dass Overclocking dann tabu ist.
Auch Spulenfiepen ist etwas was ich mir einfach nicht gefallen lassen würde...
Die ganzen Nvidia Fanboys dürften dann heulen wenn sie merken, dass Overclocking dann tabu ist.
Auch Spulenfiepen ist etwas was ich mir einfach nicht gefallen lassen würde...
Thaxll'ssillyia
Captain
- Registriert
- Dez. 2007
- Beiträge
- 3.539
Soweit ich weiß tritt das Spulenfiepen auch nur bei den neuen GTX 260/285 im 55nm Design auf.
Auch bei der GTX 295?