Duron vs. Athlon mit GeForce3

U

Unregistered

Gast
duron vs. athlon mit gf3

hi leute!
da ich in den nächsten 4 - 6 wochen mir wahrscheinlich eine aufrüstung gönnen werde wollte ich mal fragen....
zur zeit habe ich einen duron 900 und eine KT7 von Abit (kein A! -> nix 133 ).
meine frage:
es wird dann wohl ne gf3 werden! wenn ihr mir nicht abratet (aufforderung!!!)
und jetzt lohnt es sich noch einen 1,2 oder so athlon mitzunehmen oder reicht der duron?


mir ist es übrigens wurscht, ob ich 80 oder 100 frames habe (habe noch ne TNT2)
es soll nur gut aussehen, aufrüstung geht ja auch noch später.
will nur wissen, ob es sich wirklich lohnt.
wer hat erfahrung
danke

p.s. bin jetzt registriert als "sebigbos" war gerade zu schnell
 
Lohnen würd sich ne GF3 schon wenn du jetzt ne TNT2 hast, auch der Duron würde da grad noch mitspielen, aber ich würd mir an deiner stelle dann doch im nächsten 1/2 Jahr einen anderen Prozzi zulegen, da der Duron die doch ein bisserl ausbremst! Fazit im Prinzip ja aber auf längere Sicht nein!
 
Ich tät dir Prinzipiell keine nVidia Karten mehr zu, hast diese Geschichte mit diesen versprochenen 50% mehr Leistung vielleicht mitbekommen, nix da, nVidia hat uns wieder mal angelogen... :(

Ne GeFroce 3 ist sicherlich keine schlechte Anschaffung, allerdings sauteuer mit 900 DM.

Aus deinem Duron 900MHz bringst du mit einem anständig grossen Lüfter sicher noch etwas mehr rarus. Gegen die 1100MHz dürften da schon drinn liegen...

Viel Glück!
 
Sach mal Eagle, wie kriegts du aus der GTS soviel raus hast doch RAM kühler oder?
 
ich hör immer nur ausbremsen....ja, der duron bremst die GF3 ind niedrigsten Auflösungen und ohne alle details...er verhindert wirksam, daß du 250 statt 225 frames kriegst....Meine Güte!

Wer sich ne GF3 kauft will doch mit allen details in hohen Auflösungen daddeln, vielleicht mit FSAA....und mit alledem hat die CPU nix zu tun!

Nimm die GF3 wenn du bereit bist, die Kohle abzudrücken....und die Treiber bringen schon was...wenn man ne GF3 hat!

Das ne Mx nicht plötzlich 50% schneller wird, sollte keinen wundern!


naja, hört auf mich und ihr werdet glücklich sein, lasst es bleiben und ihr werdet alle viele viele frames ohne details und in 512x384 haben!

Quasar
 
Der Duron hat nen abgespeckten Level2-Cache was ihm "etwas" in hohen Auflösungen und maximum Grafikdetails wo viele Grafik-Daten über den Cache/Speicher wandern müssen ziemlich ausbremst.
Finde also nicht unbedingt das sich eine Geforce3 mit nem Duron auszahlt zumal er mit max. 1Ghz um so weniger schnell genug ist um ne Geforce3 oder Geforce2Ultra auszulasten.
d3dm.gif


Einige Benchmarkbilder ála "Duron gegen Athlon gegen Pentium III gegen Pentium 4 mit einer Geforce3" habe ich bei ZD-NET gefunden.

Geforce3 : Duron gegen Athlon/PIII/P4 :

http://www.zdnet.de/techexpert/artikel/tests/cpu/200101/cpugames_00-wc.html

 
Zuletzt bearbeitet:
Wenn ich mir das so angucke kann ich nur sagen: hab ich doch schon gesagt! Für jetzt reicht der Duron völlig aus doch die kommenden Spiele werden schon was besseres an CPU fordern.
 
hi
vielen dank schon mal, richtig gute antworten.
in nem anderen forum habe ich nämlich keine bekommen.

der link ist besonders gut, danke dafür.
wie ich gesehen habe. geht sich das auf max. 20 frames aus.
d.h. ich behalte meinen duron900 mal lieber. (p.s. das ist eigentlich ein 700 den ich damals un-gelockt habe, leider ist nicht mehr drin auch mit nem dicken lüfter )

noch was anderes. ne gf3 kostet nur noch 800 dm, was glaubt ihr?
lohnt sich das warten auf ne ati8500 oder auf ne gf3 Ti oder ne kyroIII?

weiter so mit den tollen antworten
 
Original erstellt von Prophet
Der Duron hat nen abgespeckten Level2-Cache was ihm "etwas" in hohen Auflösungen und maximum Grafikdetails wo viele Grafik-Daten über den Cache/Speicher wandern müssen ziemlich ausbremst.
Finde also nicht unbedingt das sich eine Geforce3 mit nem Duron auszahlt zumal er mit max. 1Ghz um so weniger schnell genug ist um ne Geforce3 oder Geforce2Ultra auszulasten.

Einige Benchmarkbilder ála "Duron gegen Athlon gegen Pentium III gegen Pentium 4 mit einer Geforce3" habe ich bei ZD-NET gefunden.

Geforce3 : Duron gegen Athlon/PIII/P4 :

http://www.zdnet.de/techexpert/artikel/tests/cpu/200101/cpugames_00-wc.html


Dein Link widerspricht aber deiner Behauptung...bei Expendable liegt der Duron bei höherer Auflösung besser, bei MDK wird der Abstand zum Athlon geringer, bei MTBR tut sich nix, bei Quake3 wieder geringer, bei UT auch...alles in allem sind die Unterschiede aber sehr gering.

Außerdem ist eine höhere Grafikauflösung unabhängig von der CPU-Leistung, solange eine 3D-Karte zum Einsatz kommt....

Ich bitte auch mal um eine Definition, wann den eine CPU eine Grafikkarte auslasten kann? Die meisten Spiele sind viel eher Graka-Limitiert....weil sich hier viel leichter Parameter im spiel selber einbauen lassen, um das Game an unterschiedliche Hardware anzupassen. Bei der CPU-Last ist das bei weitem nicht so, hier müssen die Designer immer von der Durchschnitts-CPU ausgehen, damit das Game noch von genug Leutz gekauft wird....

Warten lohnt aber in jedem Fall: schlimmstenfalls wird die GF3 einfach nur billiger.....

hth Quasar

P.S.: Um Mißverständnissen vorzubeugen: Ich behaupte nicht, daß ein Duron bei gleicher Taktfrequenz schneller als ein Athlon ist...
 
Zitat : Außerdem ist eine höhere Grafikauflösung unabhängig von der CPU-Leistung, solange eine 3D-Karte zum Einsatz kommt

Da hast du nicht ganz recht, viele Berechnungen jeder Grafikengine müssen noch immer von der CPU ausgeführt werden, selbst die Geforce3 kann dank DirectX8-T&L nicht alle Berechnungen der CPU abnehmen.

...falls das Spiel überhaupt T&L komplett unterstützt und das tut so gut wie gar keines und wird es wohl auch in Zukunft nicht (PcGamesHardware 9/2001 - Interview mit Spieleenticklern), weil das für die Spieleentwickler oft viel zu aufwendig ist oder ihnen die "Gebundenheit" an sämtliche T&L-Sachen oft mehr einschränkt als dienlich ist.
Die meisten Spiele übernehmen dank T&L entweder nur die Berechnung des "Lighting" der CPU ab oder aber das "Transformieren" - beides zugleich ist verdammt selten und selbst dann muss die CPU noch immer einen Teil der Polygonarbeit leisten. (Von wo kommen den die daten zur Grafikkarte? Von der CPU - von wo sonst *g*)

Was die CPU in jedem Fall sehr entlastet ist die OpenGl Schnittstelle - dort dürfte also der Duron am besten punkten.
(Werd mal in den Benchmarks nachsehen...)
... und abgesehn von den Grafik sind ja auch Sachen wie Gegnerinteligenz&Co von der CPU zusätzlich zu berechnen und im "Cache zu halten" - deswegen auch der Vorteil des Athlon gegenüber dem Duron, weil der Athlon einen grösseren Cache hat ;)
 
Zuletzt bearbeitet:
Nur Kurz nebenbei:

Wenn du willst dass es schoen aussieht ist ne GeForce Karte (1,2 und 3) wohl nicht brauchbar..sorry wenn ich damit nvidia anhaenger aergere oder so aber es ist so!

Wenn schon dann wartest du auf die Radeon 8500.kommt bald und wird viel mehr koenen..und glaube das FSAA ist recht..

Bah ich hasse es wenn ich den einzihen vorteil meiner Karte, das FSAA, an die Radeon 8500 verliere :D ..
 
und wieder von vorne:

Ich habe NIE behauptet, ein Duron bei gleicher Taktfrequenz wäre schneller als ein Athlon.

Und wenn du mich schon zitierst, prophet, dann lies auch bitte genau!
Ich habe geschrieben, eine HÖHERE Grafikauflösung....
da ändern sich nur die Werte der Vertices, nicht aber deren Anzahl.

@Pandora:
Wohl noch nie ne GF3 live erlebt....sorry, aber da kannst du deine V5 leider gegen vergessen...auch und gerade in Punkto Bildqualität.

Quasar :(
 
Auch bei höheren Auflösungen muss die CPU mehr Polygonarbeit leisten, nicht ohne Grund wird dann aber absichtlich in geringer Auflösung gebencht z.b. 640x480, damit die Graka kein Flaschenhals und damit Ergebnissverfälschung ist und die CPU in seiner reinen "3D-Leistung" gebencht werden kann - sieht man ja in vielen CPU-Benchmarks wo oft in 640x480 gebencht wird.
Aber mit steigender Auflösung ist auch die CPU mehr gefordert, ein Zeugniss dafür ist z.B. Diablo II - wo durch abschalten an Details oder eben geringerer Bildschirmauflösung das Spiel flüssiger rennt mit dem meiner Ansicht nach Hauptgrund : Die Cachestruktur der CPU hat dann mehr "Luft" zum atmen um auch die bei Diablo II starke IQ zu berechnen, auch der Arbeitsspeicher wird dann dadurch mitentlastet. 32Bit Auflösung fordert von den CPU-Chaches ca. das 2 fache und dem Arbeitsspeicher(Nicht nur Graka sondern auch Motherboard-Ram) ca. das 4 Fache an Datenmenge wie 16Bit.
Die Graka ist so oder so ja auch über die Northbridge vom Arbeitspeicher des Motherboards abhängig - holt sich ja da auch direkt den Grossteil der Grafikdaten und diese wiederum kommuniziert stark mit Level2-Cache der CPU. Den gerade der Level2-Cache ist so eine Art Puffer zwischen dem Datenverkehr CPU <---> Arbeitsspeicher und der Level1 Cache eher eine reine FPU-Unterstützung weswegen der Athlon auch wegen seines grossen Level1-Caches eine so gute Spieleperfomance hat.
Der Athlon muss dadurch nämlich nicht so oft dann über den L2-Cache auf den langsamen Hauptspeicher ausweichen weil sein L1-Cache die meisten daten "halten" kann.

Fazit : Der Duron ist mehr vom Arbeitsspeicher abhängig da sein kleinerer L2-Cache oft "übergeht" und so Daten dann als 2 Presenz im langsamen Hauptspeicher gesucht/geschrieben werden müssen.[B9Deswegen legt ein Duron beim Wechsel vom SDRAM auf schnellern DDR-SDRam auch mehr an Leistung zu als ein Athlon [/B] find ich logisch :)
 
Zuletzt bearbeitet:
Ich geb's auf...ihr habt Recht und ich hab meine Ruhe:

Bitte sprich mir nach:
Bei 1600x1200 sind 4x mehr Polygone zu berechnen als bei 800x600
Bei 1600x1200 sind 4x mehr Polygone zu berechnen als bei 800x600
Bei 1600x1200 sind 4x mehr Polygone zu berechnen als bei 800x600
Bei 1600x1200 sind 4x mehr Polygone zu berechnen als bei 800x600

AMEN

Diablo II nutzt 3D Karten nicht nur für Spezialeffekte
Diablo II nutzt 3D Karten nicht nur für Spezialeffekte
Diablo II nutzt 3D Karten nicht nur für Spezialeffekte
Diablo II nutzt 3D Karten nicht nur für Spezialeffekte

AMEN

Als nächstes willst du mir vielleicht noch erzählen, daß die CPU mehr zu tun hat, wenn man die Lautstärke erhöht?
HILFEEEE!

Prophet, du hast doch oben den Link zu den "Techexperts" vom ZD-Net gepostet? Den schau dir noch mal genau an (und auch die Inhalte des verlinkten) und sage mir bitte, wie es kommt, daß der Duron900 dem Athlon900 mit höherer Auflösung in JEDEM der Benchmarks näherrückt?
Etwa weil ihn sein kleinerer Cache ausbremst?

Und nimm bitte das Bild vom i850 raus, das ärgert nur die Modem-User und sagt absolut gar nichts aus...

Quasar

P.S.: Zum dritten Mal: Natürlich ist ein Athlon schneller als ein Duron, das hat aber auch gar nichts mit der Auflösung zu tun, solange es ein 3D-Game ist....!!!
 
@ Pittiplatsch4

Wie?! Ich habe, so viel ich mich erinnern mag, bei Tomshardware.de einen Bericht gesehen...

In diesem stand, dass man eine ASUS V7700 Deluxe (wegen den schnelleren SG-Ram's) locker bis auf 400MHz Chiptackt bringen kann... ohne passiv zu Kühlen. Ich habe es natürlich ausprobiert und siehe da es funzt wirklich. Also habe ich Passivramkühler von pc-cooling.de bestellt und ich kriegte nochmal satte 10MHz mehr aus ihr raus. Auf dem Chip ist der original Kühler. Ich wette, hätte ich den noch ausgetauscht, könnte man locker auf 250MHz.

Bringt im 3D Mark 2k 8600 Punkte
und im 3D Mark 2k1 3900 Punkte

MfG
 
Ihr Bösen jetzt weiß Unregistered bestimmt nicht mehr was er nun machen bzw. kaufen soll. :D
Ich plädiere allerdings für die GF3.
MFG
 
Den schau dir noch mal genau an (und auch die Inhalte des verlinkten) und sage mir bitte, wie es kommt, daß der Duron900 dem Athlon900 mit höherer Auflösung in JEDEM der Benchmarks näherrückt?

Das liegt an was ganz anderm was ganz simpel ist :
In höheren Auflösungen wird immer mehr die Graka, selbst eine Geforce3 ! wenn auch nicht linear zum Flaschenhals weil sie der Polygonflut immer weniger Herr wird.
Deswegen und um solche Falschwertungen zu verhondern sollte um die reine CPU-Leistung zu testen ja auch AUSCHLIESLICH in möglichst geringer Auflösung, vorzugsweise 640x480 gebenchmarkt werden.

CPU-Benchmarks über 800x600 Auflösung sind von jeder noch so schnellen Graka immer mehr limitiert und damit nicht mehr objektiv sondern quasi subjektiv vom Standtpunkt der Graka aus gesehn

Sieh dir die vielen Benchmarks im I-Net bei steigender Auflösung nochmal genau an ! Siehst du wie das Füllratenlimit der Graka die CPU-Werte immer mehr angleichen lässt ?!
Genau das ist es.

Das mit dem Cache stimmt schon, mit steigender Auflösung rückt der Duron näher an die Werte de Athlon ran, weil die Graka immer mehr an ihr Limit rückt. Es rückt - aber nicht so wie du denkst :o

Wegen Diablo II : Ich kenne die Grafikengine des Spieles nicht so gut.

Bei 1600x1200 sind 4x mehr Polygone zu berechnen als bei 800x600
Die hier steigende Berechnungsaufwand für die CPU erfolgt nicht linear. Tatsächlich ist schon der Wechsel von 800x600 auf 1024x768 für die CPU ein grösserer Aufwand als es Mathematisch durch eine simple Prozentsteigerung der Auflösung ergeben würde. Eben nicht linear.

Denk mal nach : Der Wechsel von 1024x768 auf 800x600 währe rein rechnerisch eine Verkleinerung an Daten um ca. 20 Prozent, bringt aber oft um bis zu 40 Prozent mehr an Frameraten ("spürt" man ja dann auch)- in realen Spielen meine ich jetzt, bei Benchmarks gilt es nicht, dort verfälscht das synthetische Verhalten und die auf eine Grafikkarteneigenschaft zu gezielten Tests das Ergebniss.

Sorry wegen dem Bildchen :rolleyes: Werds mal raushauen, ist fett geraten;)

Es gibt Menschen die müssen immer recht haben, die die es haben müssen es nicht (Spruch stammt von mir :) )

Hoffe wir gehören bei dazu :)
 
Zuletzt bearbeitet:
Original erstellt von Prophet
32Bit Auflösung fordert von den CPU-Chaches ca. das 2 fache und dem Arbeitsspeicher(Nicht nur Graka sondern auch Motherboard-Ram) ca. das 4 Fache an Datenmenge wie 16Bit.
Und ich Dummerchen dachte immer 32Bit wären 16Bit², also 32Bit = 16Bit x 65532, und 17Bit wären das Doppelte von 16Bit. :D
 
Verdammt ich spiele nie mehr in 32-Bit! Dazu mal ne Frage: Merkt irgendjemand hier einen Unterschied zw. 16 und 32 Bit Farben?

Ich glaub ich muss hier singen oder was: Ich sagte der Duron 900 reicht mit der GF3 zur Zeit VÖLLIG aus aber kommende Spiele werden trotzdem eine schnellere CPU fordern (JA die performance hängt AUCH von der CPU ab!)!
AMEN
 
Original erstellt von Prophet
Den schau dir noch mal genau an (und auch die Inhalte des verlinkten) und sage mir bitte, wie es kommt, daß der Duron900 dem Athlon900 mit höherer Auflösung in JEDEM der Benchmarks näherrückt?
Das liegt an was ganz anderm was ganz simpel ist :
In höheren Auflösungen wird immer mehr die Graka, selbst eine Geforce3 ! wenn auch nicht linear zum Flaschenhals weil sie der Polygonflut immer weniger Herr wird.
nicht polygonflut, sondern textur- bzw. Pixelflut <kopfschütteln>


Deswegen und um solche Falschwertungen zu verhondern sollte um die reine CPU-Leistung zu testen ja auch AUSCHLIESLICH in möglichst geringer Auflösung, vorzugsweise 640x480 gebenchmarkt werden.

CPU-Benchmarks über 800x600 Auflösung sind von jeder noch so schnellen Graka immer mehr limitiert und damit nicht mehr objektiv sondern quasi subjektiv vom Standtpunkt der Graka aus gesehn

Sieh dir die vielen Benchmarks im I-Net bei steigender Auflösung nochmal genau an ! Siehst du wie das Füllratenlimit der Graka die CPU-Werte immer mehr angleichen lässt ?!
Genau das ist es.

Genau das sag ich doch die ganze Zeit!!! <nochmal-Kopfschüttel>

Das mit dem Cache stimmt schon, mit steigender Auflösung rückt der Duron näher an die Werte de Athlon ran, weil die Graka immer mehr an ihr Limit rückt. Es rückt - aber nicht so wie du denkst :o

Wegen Diablo II : Ich kenne die Grafikengine des Spieles nicht so gut.

Bei 1600x1200 sind 4x mehr Polygone zu berechnen als bei 800x600
Die hier steigende Berechnungsaufwand für die CPU erfolgt nicht linear. Tatsächlich ist schon der Wechsel von 800x600 auf 1024x768 für die CPU ein grösserer Aufwand als es Mathematisch durch eine simple Prozentsteigerung der Auflösung ergeben würde. Eben nicht linear.

Denk mal nach : Der Wechsel von 1024x768 auf 800x600 währe rein rechnerisch eine Verkleinerung an Daten um ca. 20 Prozent, bringt aber oft um bis zu 40 Prozent mehr an Frameraten ("spürt" man ja dann auch)- in realen Spielen meine ich jetzt, bei Benchmarks gilt es nicht, dort verfälscht das synthetische Verhalten und die auf eine Grafikkarteneigenschaft zu gezielten Tests das Ergebniss.

Ich glaube du verwechselst hier Pixel (Bildpunkte) mit Polygonen (Dreiecke) <haare-rauf>


Sorry wegen dem Bildchen :rolleyes: Werds mal raushauen, ist fett geraten;)

Es gibt Menschen die müssen immer recht haben, die die es haben müssen es nicht (Spruch stammt von mir :) )

Hoffe wir gehören bei dazu :)


Thx, that's it! Und jetzt lies noch mal unreg's ersten Post: Lohnt es für ihn eine GF3 zu kaufen?

Quasar
 
Zurück
Oben