Die beste Grafikkarte für jedes Budget

y33H@ schrieb:
In 2 Jahren nur 50% ist angesichts des N40, des G70 und des G80 halt erbärmlich. Aber nV hat ja keine Konkurrenz.

Was wir da haben und was nicht, ist unsere Sache ... zur 260er: die wird zu heiß, ich kümmere mich da evt. drum (andrer Kühler).

cYa

aso na dann:)
 
y33H@ schrieb:
In 2 Jahren nur 50% ist angesichts des N40, des G70 und des G80 halt erbärmlich.

Ich hab es ja schon mal gesagt. Du kannst nur mit der Konkurrenz vergleichen und eben nach Gesichtspunkten wie Lautstärke und Stromverbrauch.. etc... aber nicht danach wie gut der Vorgänger war. Nach deiner Definition wäre ja der G200 super duper Toll, wenn der G80 nur die Leistung einer GeForce 8800 GT gehabt hätte. Schlechter G80 -> guter G200. Guter G80 -> schlechter G200. Was ist das für ein Logik? Sorry, das ist... mir fehlen die Worte... ich nehme einfach mal deine Worte: Das ist erbärmlich!
 
Zuletzt bearbeitet:
Meiner Definition nach ist der G200 nur keinesfalls super duper!

Die GTX280 ist imo die absolut schnellste Karte, klar. Dafür frisst sie viel Strom, ist elendig laut, die Bohrungen sind unglücklicherweise nicht mit aktuellen Kühlern kompatibel und der Preis ist selbst inklusive Flaggschiff-Aufschlag übertrieben. Allerdings hat nV nichts anderes nötig - erst der RV770 könnte Probleme machen (wie man anhand der Leistung der HD4850 ja schon sieht).

Somit verstehe ich dich nicht ganz. Wäre schön, wenn wir das klären können, gerne auch per PN oder ICQ :)

cYa
 
....Außerdem war es doch klar, dass irgendwo das Ende der Fahnenstange erreicht wird. Der G70 hatte noch einen Stromanschluss. Der G80 zwei davon. Der G200 jetzt schon 8-pin +6pin. Das ist das Ende der Fahnenstange. Vom G70 zum G80 konnte man ja schön aufbohren, aber jetzt geht es nicht mehr weiter. Das hätte sich auch jeder denken können, der den Stromverbrauch mal bei der Entwicklung mitverfolgt hat. Der G200 wird doch nur so niedrig getaktet, weil die TDP aus dem Dach herausragt und die Kühlung schon jetzt wie ein Staubsauger klingt. Oder sollte man wie beim G70 zu G80 auch noch einen Slot mehr für die Kühlung verbrauchen?
 
Stimmt, im G200 stecken noch mal so 20-30% - mit LuKü. Allerdings übertönt das Teil dann auch einen Porsche . Ein Tripple-Slot wäre zuviel des guten, nV könnte aber evt. bessere Kühler bei Coolermaster ordern. Imo ist der G200 das Limit mit 65nm - mit 55 oder gar 45nm siehts halt wieder anders aus. Das Fps/Watt-Verhältnis ist in 3D imo vollkommen ok für den Fertigungsprozess.

cYa
 
Fehlender Buchstabe bei der 55€ Karte für AGP, der hd3650:

.... AMD schiebt mittlerweile immer einen AGP-Fix nach, Probleme mit den HD3000 sind daher kaum noch vorhande.


Dank für die tolle Beratung, werde mir wohl ne hd 3650 PCIe zulegen. Mach weiter so!

MFG K3ks
 
Danke fürs Feedback - ist korrigiert. Fröhliches surfen noch :D

cYa
 
wann kommen die 260 & 280 gtx rein?
 
Wird es eigentlich eine 2 Chiplösung des G200 geben?
Gerüchten zufolge wird in paar Monaten ne neue GTX erscheinen, aber dann in 55nm?
Habe ich mal bei PCGH in der News gelesen...

mfg
 
Wird es eigentlich eine 2 Chiplösung des G200 geben?
Am besten wie bei der Voodoo 5 mit externem Netzteil. :evillol:
Irgendwie scheint Nvidia hier die 2900XT nachgebaut zu haben, mit 512bit und 240W hat ATi schon schlechte Erfahrungen gemacht - beim 3D-Mark06 war die 2900 bisher immernoch konkurrenzlos.
Vielleicht sollte man das Spiegelei (pcgh 06/08dvd) ja als Benchmark etablieren, die G200 müßte das Ei doch viel schneller schaffen als eine X1900...
 
Im Gegensatz zur 2900XT brauchte NVidia nichts am Speicherinterface zu verändern, um auf die 512Bit zu kommen.
Sie mussten einfach nur ein paar Cluster je 64Bit mehr mit einbauen und schon kommen die 512Bit zustande.
ATI hatte ja das Speicherinterface mit dem RingBus komplett neu designet...
 
Die 2900 war trotzdem ein Eigentor, dem G200 trau ich ähnliches zu.
Vielleicht schaffts der 4850, AMD wieder Gewinne schreiben zu lassen? Wäre ärgerlich wenn Nvidia und Intel plötzlich ohne Konkurrenz werkeln würden (was dabei rauskommt sieht man ja an der GTX280:evillol:).
 
Unyu schrieb:
NV30 hat bereits einen netten Dualslot Kühler.

Kannst du dir deine Kommentare nicht einfach sparen? Wäre echt nett. Guck dir mal das Zitat, dass du freundlicherweise in dein Beitrag eingefügt hast noch mal genauer an. Es ging um die Leistungsteigerung von G70 zu G80 und die Maßnahmen, die man dazu ergriffen hat und dementsprechend ging es auch um die Leistungssteigerung des G80 zu G200 und den Maßnahmen, die man nicht mehr ergreifen konnte.

y33H@ schrieb:
..., nV könnte aber evt. bessere Kühler bei Coolermaster ordern.

Meinst du der wäre Effizienter und leiser? nVidia könnte seinen Kühler auch noch mal leiser machen, in dem man den Lüfter auf volle höhe des Kühlers bauen würde, so wie bei X2 auch der Fall. Nur würde dann die Karte sofort sauheiß, sobald du in den Slot darunter etwas reinsteckst, weil nicht mehr schnell genug die Luft durch den Spalt zum Lüfter kommt. Damit wäre dann Triple-SLI nicht mehr wirklich möglich und man hätte in dem Fall dann auch gleich ein Triple-Slot-Kühler nehmen können, weil man ja eh den Slot unter der Karte bei dieser Lösung frei lassen muss.... Deswegen muss die Aussparung dann wohl doch sein. Bei der Ultra hat man das versucht durch das rauschieben des Lüfters nach außen zu lösen. So dass der Platz, der sonst von der Karte belegt wird, für Luftzufuhr dienen konnte.... Aber auch da war es bei der hohen Leistungsaufnahme nicht wirklich leise^^
 
Zuletzt bearbeitet:
ich schätze wenn man beim Kühler mehr Kupfr und nen 80 oder 90mm Lüfter einbaut kann man sicherlich ne bessere Kühlleistung erzielen und hat dann die Kühlleistung des jetztigen Kühlers ber geringerer Lautstärke
 
Ja, den Lüfter hätte man größer machen können. Der würde dann zwar auch aus der Karte seitlich hinausragen, aber das stört bei einer High-End-GPU weniger als die Lautstärke. Wobei ich jetzt aber nicht weiß, wie viel sich der Radius des Lüfters bei einem Radiallüfter auf die Lautstärke bei gleicher Luftförderleistung auswirkt. Bringt ein noch größerer Radiallüfter wirklich was? Das ist ja nicht wie beim Axiallüfter, wo man mit größerem Lüfter auch die Wirklüfterfläche proportional vergrößert
 
Für WaKü ist die Karte sicherlich interessant. Die luftgekühlte Ausführung wohl scheint ne Zumutung zu sein.
 
hmm stimmt natürlich. Aber ich denke der RAdiallüfter hat ja auch n paar Lammellen oder Lüftrblättchen oder so mehr wenn er größer is und bei nem größeren Radius kann man die Dinger ja auch länger machen also 15-20% mehr Förderleistung denk ich kann man erreichen
 
Mit dem Catalyst 8.6 soll- Call of Duty 4 - Bis zu 35% mehr Leistung auf bestimmten Maps (HD 2000, HD 3000).

kann des einer bestätigen?

frage mich bis zu 35% mehr Leistung,ob da nicht die Bildqualität leidet oder anders wo eingespart wird?

35 sind schon heftig und ich kann mir nicht vorstellen so ein deutliches ergebniss aus der hd3870 noch mit einem patch rauszukitzeln da mus doch woanders gespart worden sein?

hoffe mal auf y33H@ persönliche meinung.
 
Meine persönliche Meinung lautet - ausprobieren :D

cYa
 
Zurück
Oben