Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test Test: GeForce 180.47 in fünf Spielen
- Ersteller Wolfgang
- Erstellt am
- Zum Artikel: Test: GeForce 180.47 in fünf Spielen
Von unserer Seite ist jetzt Schluss. Wir haben unseren großen Fehler eingestanden und bereuen ihn sehr. So etwas wird in Zukunft nicht mehr vorkommen und wäre auch heute nicht vorgekommen, wenn die richtigen Augen zur richtigen Zeit noch Einblick gehabt hätten. Es hat nicht sollen sein.
tja was soll man sagen? Fehler sind da um gemacht zu werden und daraus zu lernen. Ich sehs positiv. CB wird nicht mehr so unkritisch mit den Tests umgehen. Wir alle werden davon profitieren.
mfg
K
Korn86
Gast
Vielleicht sollte man sich das hier auch mal zu Gemüte führen, so sieht das nämlich aus wenn Nvidia nicht seine Finger im Spiel hat:
http://www.pcgameshardware.de/aid,6..._Grafikkarten-_und_CPU-Benchmark-Test/?page=2
Ich glaube du vergisst das die HD4870 eine höhere Shaderleistung als die GTX280 hat und diese kommt beim Furmark dann wohl zum Einsatz, allerdings ändert das natürlich nichts daran dass die GTX280 in Spielen architekturbedingt mit ihrere Shaderleistung besser umgeht als die HD4870
http://www.pcgameshardware.de/aid,6..._Grafikkarten-_und_CPU-Benchmark-Test/?page=2
y33H@ schrieb:Eine GTX 280 schluckt load nur rund 10% mehr als eine HD4870, mit Furmark frisst die Radeon sogar mehr als die GTX - letztere ist aber 20-30% schneller. Und die X2 ist von Fps/Watt-Verhältnis nur gleichauf mit der 280. Den idle-Verbrauch der Radeons mal außen vor
Ich glaube du vergisst das die HD4870 eine höhere Shaderleistung als die GTX280 hat und diese kommt beim Furmark dann wohl zum Einsatz, allerdings ändert das natürlich nichts daran dass die GTX280 in Spielen architekturbedingt mit ihrere Shaderleistung besser umgeht als die HD4870
Zuletzt bearbeitet:
y33H@ schrieb:Als ob ein "optimierter" AMD-Treiber Berge versetzt 8.11 WHQL ist nun mal aktuell, Betas gibts selten. Bereits CoD4 lag den Geforce besser ... Eine GTX 280 schluckt load nur rund 10% mehr als eine HD4870, mit Furmark frisst die Radeon sogar mehr als die GTX - letztere ist aber 20-30% schneller. Und die X2 ist von Fps/Watt-Verhältnis nur gleichauf mit der 280. Den idle-Verbrauch der Radeons mal außen vor
cYa
Hää was ? Eine 4870er macht über 7K im Furmark (Default Settings) eine 280er schafft keine 5K
Und zu CoD4 -> https://www.computerbase.de/2008-09...pcs-plus-1.024-mb/7/#abschnitt_call_of_duty_4
Zuletzt bearbeitet:
Konti
Banned
- Registriert
- Apr. 2005
- Beiträge
- 6.421
Also im Moment gibt es einen solchen Treiber wohl noch nicht, also ist der aktuelle ATI-Treiber wohl im Moment schlechter als der aktuelle NVidia-Treiber..p0!$3n. schrieb:Schade. Kein objektiver Test, sry.
Erwarte hier auf jeden Fall die gleiche Testreihe mit neuem, optimierten, ATI-Treiber. Alles andere wär lächerlich.
Wie gesagt, da wird nicht geschmiert, sondern supportet. Das könnte ATI genauso machen, aber sie tun es nicht.Und so leid es mir tut, NV hat doch wohl echt quark gemacht. Anstatt in eine vernünftige, vor allem bezahlbare, Grafikkarten entwiklung zu investieren, einefdach Spieleenteikler/programmierer "schmieren".
Also hat genaugenommen ATI hier Quark gemacht. Statt das bisschen Aufwand aufzubringen und die Spielehersteller wärend der Entwicklung zu unterstützen, lassen sie diese Chance an sich vorbei ziehen und müssen so immer im Nachhinein optimieren.
Die schnellsten Karten haben immer das schlechteste Preis/Leistungs-Verhältniss. Das ist bei ATI genauso wie bei Nvidia.Nu mag die GTX280 den schnellsten GraKa Chip haben, nur zu was für einen Preis?? Die Leistung pro Watt hätte viel besser sein können, und das P/L Verhältiss ist dank gammliger Fertigung auch fürn sack.
Bei AMD/Intel Prozessoren ist es übrigens genauso.
Demnach produzieren also alle Chiphersteller in "gammliger" Fertigung.
Ja genau ... und wenn das nächste Mal wieder NVidia die schnellste Karte präsentiert, sollte man aber erstmal noch ein paar Monate warten, ob ATI da nicht auchnoch irgendwann eine rausbringt, die genauso schnell oder schneller ist.Lieber auf nen ATI Update warten, und Chansengleicheit walten lassen, sonst machts kein Spass.
Das wär ja sonst unfair.
Es wird immer zum Zeitpunkt t gemessen. Und der ist bei allen Messungen gleich, sonst macht das ganze keinen Sinn.
Eventuell sieht's ja beim nächsten Zeitpunkt t+1 wieder besser für ATI aus, aber im Moment hat halt Nvidia die Nase vorn.
Wo ist das Problem? Fühlt man sich als Fanboy da tatsächlich so gekränkt von, wenn die Konkurrenz kurz mal wieder besser dasteht, daß man das durch Diffamierung und Verleumdung gleich wieder versucht rumzudrehen?
DvP
Admiral
- Registriert
- März 2001
- Beiträge
- 9.571
@ Nvidialist
Sorry aber deine Beiträge sind so beispiellos deplatziert und überflüssig. Normalerweise würde ich das lustig finden. Heute nicht! Lies erstmal worum es hier eigentlich geht.
@ Konti
Was is mit euch los? Muss das flamen schon wieder starten? Der Schachzug war von nVidia auch voll korrekt und nicht klug sondern einfach ganz normal. Einfachste und logische PR. Auch TWIMTBP is ne gute Idee. Das ist aber gerade nicht Bestandteil der Diskussion, zumindest nicht bei jenen die den Kern des problems verstehen und diskutieren.
@ .p0!$3n. und y33H@
Bitte nicht schon wieder ein faktbesetztes flamen, auch wenn alles was ihr sagt richtig ist. THX!
Ich stimme dir bei vielem zu, aber wenn du das aus dem aktuellen "test" ableiten willst, dann liegst du einfach falsch. Es ist eben kein Test und auch kein Review, sondern eine Leistungsschau in ausgewählten Spielen. Ich kann dir so ein sensationelles Ergebnis auch mit einem "älteren" ATI Treiber und einer 4870er basteln wenn du willst. Auch ich brauche mir nur die richtigen Spiele aussuchen. Warten wir einfach auf einen umfassenden Test der wirklich einen Querschnitt aktueller Spiele umfasst und dann sehen wirs, ok? Vielleicht hast du dann auch recht, aber dann wenigstens nicht so unbegründet wie jetzt. ;-)
Sorry aber deine Beiträge sind so beispiellos deplatziert und überflüssig. Normalerweise würde ich das lustig finden. Heute nicht! Lies erstmal worum es hier eigentlich geht.
@ Konti
Was is mit euch los? Muss das flamen schon wieder starten? Der Schachzug war von nVidia auch voll korrekt und nicht klug sondern einfach ganz normal. Einfachste und logische PR. Auch TWIMTBP is ne gute Idee. Das ist aber gerade nicht Bestandteil der Diskussion, zumindest nicht bei jenen die den Kern des problems verstehen und diskutieren.
@ .p0!$3n. und y33H@
Bitte nicht schon wieder ein faktbesetztes flamen, auch wenn alles was ihr sagt richtig ist. THX!
Konti schrieb:aber im Moment hat halt Nvidia die Nase vorn.
Wo ist das Problem? Fühlt man sich als Fanboy da tatsächlich so gekränkt von, wenn die Konkurrenz kurz mal wieder besser dasteht...
Ich stimme dir bei vielem zu, aber wenn du das aus dem aktuellen "test" ableiten willst, dann liegst du einfach falsch. Es ist eben kein Test und auch kein Review, sondern eine Leistungsschau in ausgewählten Spielen. Ich kann dir so ein sensationelles Ergebnis auch mit einem "älteren" ATI Treiber und einer 4870er basteln wenn du willst. Auch ich brauche mir nur die richtigen Spiele aussuchen. Warten wir einfach auf einen umfassenden Test der wirklich einen Querschnitt aktueller Spiele umfasst und dann sehen wirs, ok? Vielleicht hast du dann auch recht, aber dann wenigstens nicht so unbegründet wie jetzt. ;-)
Zuletzt bearbeitet:
Konti
Banned
- Registriert
- Apr. 2005
- Beiträge
- 6.421
Ja das sag ich doch die ganze Zeit ...DvP schrieb:@ Konti
Was is mit euch los? Muss das flamen schon wieder starten? Der Schachzug war von nVidia auch voll korrekt und nicht klug sondern einfach ganz normal. Einfachste und logische PR. Auch TWIMTBP is ne gute Idee.
Aber wenn du mir jetzt noch verrätst, wo genau ich geflamet hab, kann ich's beim nächsten Mal besser machen.
Ich würde dir auch grundsätzlich zustimmen, daß es falsch war, das nicht gleich zu Beginn erwähnt zu haben. Nur würd ich's nicht gleich als dreist usw. darstellen.
Es war ein Fehler und dafür hat man sich entschuldigt. Ich denke, daß das dermaßen ausartet wollte keiner von CB.
Zuletzt bearbeitet:
P
PuscHELL76
Gast
Kaum ein Test wo nicht nach herzenslust geflamed wird...
Da bekommt man ja Kopfschmerzen beim lesen dieser sinnlosen kommentare.
oton: NV ist besser...ATI ist schneller...der naechste Treiber dreht den spieß um...die sind alle von NV gekauft...Die eine ist zu warm die andere zu laut...
Mir tun die Leute von CB iwie leid...soviel arbeit zu haben um einen Testbericht zu schreiben und dann wird in einer tour gejammert...
Sucht doch einfach 10 weitere Tests und mach euch aus den ergebnissen ein eingenes Bild.
Jetzt mach ich mal ironischer weise mit: der neue Treiber von Nvidia 180.48 ist draussen der bringt 35% mehr leitung....
LG PuscHELL
Da bekommt man ja Kopfschmerzen beim lesen dieser sinnlosen kommentare.
oton: NV ist besser...ATI ist schneller...der naechste Treiber dreht den spieß um...die sind alle von NV gekauft...Die eine ist zu warm die andere zu laut...
Mir tun die Leute von CB iwie leid...soviel arbeit zu haben um einen Testbericht zu schreiben und dann wird in einer tour gejammert...
Sucht doch einfach 10 weitere Tests und mach euch aus den ergebnissen ein eingenes Bild.
Jetzt mach ich mal ironischer weise mit: der neue Treiber von Nvidia 180.48 ist draussen der bringt 35% mehr leitung....
LG PuscHELL
CrimsoN 1.7
Banned
- Registriert
- Aug. 2007
- Beiträge
- 3.017
Ich wünschte mir das Cb einfach man 3 ATi spielen und 3 Nvidia.
Test das wäre eine schon Neutraler Test und dann kämme keine Stellungnahme nötig.
Ich Persönlich finde das so schön Neutral da wird kein Firma bevor so wie Jetzt im dem Test ihr.
Test das wäre eine schon Neutraler Test und dann kämme keine Stellungnahme nötig.
Ich Persönlich finde das so schön Neutral da wird kein Firma bevor so wie Jetzt im dem Test ihr.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.669
@ Jake_Dunn
Fordernde CoD5-Szene Ja, die HD4870 macht mehr Punkte ... aber nur, wenn man die AMD-Sperre durch exe-renaming löst. Und in Crysis wischt die GTX 280 mit der HD4870 den Boden, verbraucht aber weniger. Selbst gemessen.
@ Crimson_LP
Neutral ist, was gespielt wird. Benchmarks/Spiele selektieren ist nicht.
cYa
Fordernde CoD5-Szene Ja, die HD4870 macht mehr Punkte ... aber nur, wenn man die AMD-Sperre durch exe-renaming löst. Und in Crysis wischt die GTX 280 mit der HD4870 den Boden, verbraucht aber weniger. Selbst gemessen.
@ Crimson_LP
Neutral ist, was gespielt wird. Benchmarks/Spiele selektieren ist nicht.
cYa
Kasmopaya
Banned
- Registriert
- Mai 2007
- Beiträge
- 12.285
Jake_Dunn schrieb:Dann gib mal ein Treibervergleich mit getesteten Games, sonst ist deine Aussage fürn .....
Kann ich dir noch nicht versprechen, aber PCGH wird mit dem finalen Big Bang 2 bestimmt testen bis die Grafikkarten rauchen. Einfach abwarten und auf ausführliche Tests warten, alte Grafikkarten und alte Games werden auch profitieren, vorallem bei den min. FPS das kann ich dir jetzt schon sagen.
CrimsoN 1.7
Banned
- Registriert
- Aug. 2007
- Beiträge
- 3.017
Kurze frage:
Werde auch bald die 5/6 und 7er Reihe in die 18x.xx aufgenommen oder passiert da irgendwas.
Oder werde nur die Karte von der 8800GS bis GTX280 übernommenem ?
Werde auch bald die 5/6 und 7er Reihe in die 18x.xx aufgenommen oder passiert da irgendwas.
Oder werde nur die Karte von der 8800GS bis GTX280 übernommenem ?
Zuletzt bearbeitet:
K
Korn86
Gast
y33H@ schrieb:Eine GTX 280 schluckt load nur rund 10% mehr als eine HD4870, mit Furmark frisst die Radeon sogar mehr als die GTX - letztere ist aber 20-30% schneller. Und die X2 ist von Fps/Watt-Verhältnis nur gleichauf mit der 280. Den idle-Verbrauch der Radeons mal außen vor
Wie bereits oben beschrieben liegt das an der höheren Shaderleistung der HD4870 dass die in Furmark mehr verbraucht. Es gibt auch bestimmt genug Spiele in der die HD4870 effektiver arbeitet als die GTX280, das liegt immer daran wie sehr das Spiel der Architektur der entsprechenden Grafikkarte liegt
DvP
Admiral
- Registriert
- März 2001
- Beiträge
- 9.571
Ich weiß nicht wovon PuscHELL76 Kopfschmerzen kriegt, da er maximal die letzten 5 Beiträge gelesen hat. Wir sollten eine Liste machen mit den Jungs die hier einen Comment machen und absolut keine Ahnung haben worum es geht. Was meint ihr?
@ Konti
Du wirst schon wissen was ich meine, aber es war auch nicht wirklich schlimm. Habe nur Gefahr im Verzug gesehen, wobei hier doch gerade wirklich anstädig diskutiert wurde und das seitenweise. Du merkst sicher wenn du populistisch anmutende Floskeln verschießt die haupsächlich provozieren. Nicht nur Fanboys sondern Jungs die ATI so sehr schätzen wie du NV (auch wenns nur aktuell so sein sollte).
@ Konti
Du wirst schon wissen was ich meine, aber es war auch nicht wirklich schlimm. Habe nur Gefahr im Verzug gesehen, wobei hier doch gerade wirklich anstädig diskutiert wurde und das seitenweise. Du merkst sicher wenn du populistisch anmutende Floskeln verschießt die haupsächlich provozieren. Nicht nur Fanboys sondern Jungs die ATI so sehr schätzen wie du NV (auch wenns nur aktuell so sein sollte).
- Registriert
- Juni 2006
- Beiträge
- 44.444
- Eine sachliche Diskussion ist wie fast immer in Spiel- und Grakanews nicht möglich. Woran das liegt, führe ich hier lieber nicht im Einzelnen aus.
- Die Karten beider Hersteller sind schnell genug.
- Der Test ist eindeutig pro Nvidia ausgelegt, das ändert jedoch nichts an der Tatsache, dass dies nunmal Spiele sind, die jetzt rauskommen und den Großteil der interessanten Software darstellen.
- Dass in diesem ungleich gewichteten Ausschnitt der Performanceabbildung Nvidia vorne ist, macht die ATI Karten deswegen nicht schlechter.
- Dass Spiele aufgrund von Firmen bevorzugt besser oder schlechter laufen, dass Spiele nur noch die 4. und 5. Wiederholung ihrer Vorgänger sind und dass sich unterschiedliche Benchmarkszenen so stark unterscheiden, dass man teils zu gänzlich unterschiedlichem Fazit gelangen kann, finde ich insgesamt negativ.
- Die Karten beider Hersteller sind schnell genug.
- Der Test ist eindeutig pro Nvidia ausgelegt, das ändert jedoch nichts an der Tatsache, dass dies nunmal Spiele sind, die jetzt rauskommen und den Großteil der interessanten Software darstellen.
- Dass in diesem ungleich gewichteten Ausschnitt der Performanceabbildung Nvidia vorne ist, macht die ATI Karten deswegen nicht schlechter.
- Dass Spiele aufgrund von Firmen bevorzugt besser oder schlechter laufen, dass Spiele nur noch die 4. und 5. Wiederholung ihrer Vorgänger sind und dass sich unterschiedliche Benchmarkszenen so stark unterscheiden, dass man teils zu gänzlich unterschiedlichem Fazit gelangen kann, finde ich insgesamt negativ.
Tinpoint
Admiral
- Registriert
- Okt. 2007
- Beiträge
- 9.986
@DvP zu Idee mit Liste , ist gut gemeint! aber ist das nicht Sisyphusarbeit
zu Thema "viel gespamme" : da wurde aber auch viel gelöscht upps enfernt
https://www.computerbase.de/forum/forums/aquarium.43/
zu Thema "viel gespamme" : da wurde aber auch viel gelöscht upps enfernt
https://www.computerbase.de/forum/forums/aquarium.43/
y33H@ schrieb:@ Jake_Dunn
Fordernde CoD5-Szene Ja, die HD4870 macht mehr Punkte ... aber nur, wenn man die AMD-Sperre durch exe-renaming löst. Und in Crysis wischt die GTX 280 mit der HD4870 den Boden, verbraucht aber weniger. Selbst gemessen.
cYa
Und ohne Exe-renaming zieht sie weniger Strom
Was soll CRYSIS jetzt hier ?
Hier ein Vergleich (Performance/Watt)
Techpowerup
P
PuscHELL76
Gast
@ DvP:
mach du mal deine liste...der einzige der sich hier wichtig machen will bist doch du
(und ich werd mich hier nicht rechtfertigen wieviel ich von den 16 seiten gelesen hab)
Du bist hier bestimmt der Schlauste...mit deinen 5k "beitraegen" die waren bestimmt alle von aller erster guete
ich finds nur traurig wie und vor allem was hier so gepostet wird PUNKT!
mach du mal deine liste...der einzige der sich hier wichtig machen will bist doch du
(und ich werd mich hier nicht rechtfertigen wieviel ich von den 16 seiten gelesen hab)
Du bist hier bestimmt der Schlauste...mit deinen 5k "beitraegen" die waren bestimmt alle von aller erster guete
ich finds nur traurig wie und vor allem was hier so gepostet wird PUNKT!
Kasmopaya schrieb:Kann ich dir noch nicht versprechen, aber PCGH wird mit dem finalen Big Bang 2 bestimmt testen bis die Grafikkarten rauchen. Einfach abwarten und auf ausführliche Tests warten, alte Grafikkarten und alte Games werden auch profitieren, vorallem bei den min. FPS das kann ich dir jetzt schon sagen.
Bin ich gespannt
Hier hat PCGH schonmal ein neues Game gebencht ^^
Ähnliche Themen
- Antworten
- 253
- Aufrufe
- 31.050