Expertenmeinung gefragt: Ist ein Wechsel von X2 4800+ auf Core 2 Duo sinnvoll?

IXI_HADES_IXI

Commodore
Registriert
Apr. 2006
Beiträge
4.259
Hallo Community!

Erstmal zu meinem jetzigen System:

Prozessor: AMD 64 X2 4800+ (@FX60 = übertaktet auf 2x 2,604Ghz)
Mainboard: Asus A8N SLI Premium
Speicher: 2 x 1GB Kingston Hyper X CL2-3-2-6 1T, also insgesamt 2GB Arbeitsspeicher
Netzteil: Enermax Gold Coolergiant 600 Watt
Grafikkarte: Sapphire X1900XTX Toxic
Soundkarte: Audigy 2ZS
Festplatte: WD Raptor 74GB Sata I, 36GB Sata I + 160GB Caviar Sata II

So jetzt zu meinem Problem. Eine neue Grafikkarte die DX10 + Shader 4 unterstützt kommt mir auf alle Fälle bald ins Haus. Eventuell würde ich sogar noch auf die Graka nach dem G80 oder dem R600 warten. Wäre mein System so einer Graka überhaupt gewachsen oder sollte ich auch mit wechseln von einem 4800+ zu einem Core 2 Duo?

Ein Quadcore kommt mir jedenfalls nicht ins Haus! Bin reiner Zocker und laut T...
http://de.theinquirer.net/2006/10/07/quadcores_nutzlos_fuer_spiele.html
ist ein Quadcore noch lange Zeit zum zockn nutzlos.

Mein Ziel ist es Oblivion bei mindestens 1280x1024 mit max Details + HDR + 4x AA,... zu zockn. Auch Crysis soll auf max. Details laufen. Auch für kommende Games wie Unreal Tournament 2007 oder auch Cellfactor soll es noch einigermaßen reichen!
Also ich bin jemand der gerne auf max Details spielt, + aktivierten bildverbessernden Optionen wie z.b. Adaptives AA,...
Dadurch könnte mein Prozessor noch reichen aber bin mir da nicht ganz sicher, daher Frage ich die Experten hier um Rat!

Eure Meinung ist gefragt was sinnvoller ist?!

1. G80 oder R600 + jetziges System
2. G80 oder R600 + neues System mit Core 2 Duo
3. besser als G80 oder R600 + jetziges System
4. besser als G80 oder R600 + neues System mit Core 2 Duo oder besser

Zwischen diesen 4 Optionen kann ich mich nicht entscheiden! Mein Ziel ist es natürlich nur die Grafikkarte aufzurüsten um Geld zu sparen, aber wie gesagt ich weiß nicht ob dazu meine jetzige Schüssel reicht.
 
Zuletzt bearbeitet:
Naja wenn du voll auf Details gehst bei zukünftigen Spielen könntest du auch mit dem Gedanken spielen dir eine Ageia PhysX Karte zu kaufen..
 
Was soll denn "besser als g80" sein? auf die geforce9 reihe warten oder wie? da kannst aber noch weit über nen jahr dann drauf warten.

bzgl oblivion: da sollte dein jetziges system doch locker dafür reichen?

ganz allgemein: fände is im moment total sinnlos da überhaupt was zu machen, um bei der cpu nen merkbaren leistungszuwachs zu bekommen müsste es ja wenigstens ein E6600 auf X6800 niveau getaktet sein.

Aber wenn du unbedingt dein geld raushaun musst dann wäre nen E6600 + geforce8800gtx wohl am besten.
 
@Skatch
Will keine Ageia. Der G80 soll das auch können, Physikberechnungen. Dazu brauch ich nicht so einen Schrott wie Ageia.

@NoD.sunrise
http://de.theinquirer.net/2006/08/11/ati_steuert_die_80nanometerchi.html

Über ein Jahr würde ich nicht sagen. Würd sagen eher ein halbes Jahr.
So wie ich das verstehe kommen die ersten Karten in 80 Nm ab Juli nächsten Jahres aufn Markt. Also neuere, eventuell verbesserte Versionen vom R600 oder auch G80 mit etwas mehr GPU-Takt eventuell GDDR4 beim G80,.... Soll ja nicht lange dauern bis Nvidia den G80 überarbeitet, wegen den ganzen Bugs.... Bzw allein schon deswegen:
http://de.theinquirer.net/2006/10/23/fruehwarnsystem_nvidias_g80_ha.html
Hoffe aber das sie es noch in den Griff kriegen bis zum 8 November?!

Geld raushaun will ich ja nicht. Ich bin mir eben unsicher ob Mein System solchen Karten gewachsen ist, oder ob es besser ist gleich auf ein komplett neues System zu sparen. Weiß ja nicht wie schnell die wirklich sein werden mit Direct X10,... der Sockel 939 ist ja schon etwas länger im Geschäft. Will eben nicht das mein System die Grafikkarte ausbremst. Wenn ich mir dieses oder nächstes Jahr mal so eine teure Karte gönne, sollte die CPU damit schon noch so ca 2 Jahre klarkommen.

Zu Oblivion
Nein mein System reicht für Oblivion nicht um es auf max. Details zu zockn. In Häusern gehts ja aber in Außenlevels komm ich schon oft unter 25 FPS und es ruckelt. Adaptives Antialiasing + Area Filter höchster Qualität brauche ich sowieso nicht aktivieren da es sonst nur noch ein Ruckelfest ist! Es gibt noch keine Grafikkarte was Oblivion immer überall flüssig darstellen kann! An meiner Karte liegt es nicht, Leistung hat sie ja, siehe Anhang:

Siehe mal hier (Adaptives AA an):
https://www.computerbase.de/artikel...t-256-mb-test.607/seite-13#abschnitt_oblivion
 

Anhänge

  • Temp.jpg
    Temp.jpg
    84,9 KB · Aufrufe: 220
Zuletzt bearbeitet:
an deiner stelle würde ich warten. du hast jetzt einen high end pc, leistungssprünge wirst du nicht mehr machen können.
warte am besten auf den refresh vom g80 und hol dir ab dem zeitpunkt ein neues system.
nächstes jahr stehen ja noch sachen an wie pci express 2.0 , ddr3 und der K8-L kommt ja auch noch (bzw. schnellere modelle vom c2d).

EDIT:

ob deine cpu eine g80 ausbremst wird dir noch keiner sagen können, da die skalierbarkeit der karte nicht bekannt ist. ich denke aber mal, dass du ein leistungssprung in shaderlastigen games haben wirst, der rest???
also von deiner cpu auf nen c2d zu wechseln ist recht sinnlos, soviel mehr bringt dir das nicht.
wie gesagt, kauf dir mitte/ende nächsten jahres was komplett neues, ab da an hast du 2 jahre ruhe und bis dahin wirst du alles flüssig zocken können.
 
Zuletzt bearbeitet:
@ dr.doom: ein überarbeiteter g80 ist noch lange kein g90, das ist halt wieder das selbe wie deises mal: 7800gt -> 7900gt -> 7950gt ... aber die sprünge sind nicht vergleichbar mit denen zwischen zwei verscheidenen generationen und nicht wert deshalb nen halbes jahr oder mehr zu warten da man sonst wieder in der endloswarteschleife landet da innerhalb von nem halben jahr immer ne bessere graka kommt.

aber wie mein vorredner schon sagte: in deinem fall wäre warten eben doch am besten da dein system einfach viel zu gut ist um es jetzt schon auszutauschen, kostet nur massig geld und bringt recht wenig verbesserung.
Daher wenn du die kohle hastjetzt schon wieder ein neues zu wollen dann wart lieber mal noch nen 3/4jahr auf gute dx10 karten, K8L, AM2+,ddr3 und was intel bis dahin an quads bringt - dann ist es auch wieder so weit dass ein neuer pc wirklich einen leistungssprung im vergleich zu deinem jetzigen bringt.
 
@ NoD.sunrise und @ HoMie :cool_alt: Danke


"wie gesagt, kauf dir mitte/ende nächsten jahres was komplett neues, ab da an hast du 2 jahre ruhe und bis dahin wirst du alles flüssig zocken können."

Genau das wollte ich wissen!

Dann bin ich ja beruhigt. Vielleicht lass ich mich ja auch zu sehr von dem ganzen Marketing-scheiß zu sehr mitreißen,...

Meine Vorstellung war eben wenn ich auf Core 2 Duo wechsle einen emensen Leistungsgewinn zu erzielen, ca. mind. das doppelte meines jetzigen Systems. Aber anscheinend ist das nicht wirklich so.
 
Ich denke wenn du dir ne neue Graka holst wenn die neuen GeForces kommen reicht das. Hab im Moment die 7900GTX. spiel oblivion auf 1024x768 und alle details oben. Kann mich absolut nicht beschweren.

mfg .daniel
 
.daniel schrieb:
Ich denke wenn du dir ne neue Graka holst wenn die neuen GeForces kommen reicht das. Hab im Moment die 7900GTX. spiel oblivion auf 1024x768 und alle details oben. Kann mich absolut nicht beschweren.

mfg .daniel

darum ging es ihm ja auch nicht. klar wird er bei der g80 mehr performance haben, aber wenn die karte bezahlbar und ausgereift ist wird seine cpu veraltet sein,sockel und chipsatz sowieso (kein pci express 2.0/ddr3).
manchmal ist es eben besser alles auszutauschen(wenn man das geld hat ;) )
 
Schonmal mit zwei geforce im Sli modus versucht?
 
@Musikcity

Nein und wird mir auch nicht ins Haus kommen. Zwei Karten sind für mich immer noch rausgeschmissenes Geld. Die kleine Mehrleistung was es bringt ist es mir nicht wert über 800 Euro (Richtwert) auszugeben. Wenn es die doppelte Leistung in jedem Spiel bringen würde, wäre SLI oder auch Crossfire eventuell eine Überlegung wert, ansonsten kann es mir gestohlen bleiben.

Siehe z.B. Quadsli. Haut hinten und vorne nicht hin und sogar teilweise in einigen Games noch langsamer als ATI´s Crossfire.
 
Zuletzt bearbeitet:
Zurück
Oben