Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Test ATi Radeon HD 3870 X2 im Test: AMDs ersehnter Griff nach den Sternen
- Ersteller Wolfgang
- Erstellt am
- Zum Test: ATi Radeon HD 3870 X2 im Test: AMDs ersehnter Griff nach den Sternen
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
Mustis schrieb:Flüssig liefs mit ner GTX zu dem Zeitpunkt jedenfalls.
Du warst mit Sicherheit nicht zum zeitpunkt des Releases im Dirt Forum. Dort war die Hölle los weil die ganzen kiddies mit gtx nicht flüssig spielen konnten.
Der patch 1.1 hat im Übrigen die Grafikqualität für alle karten gesenkt, nicht nur für Nvidias. Wenn das bei dir nix groß gebracht hat, dann würde ich sagen deine cpu ist schuld. Bei meiner x1900xt hatte ich locker 50% mehr fps hinterher.(20->30)
Desweiteren ist es ne ziemliuch Frechheit Crysis herab zu würdigen. Es muss einem ja keinen Spass gemacht haben, es dann aber als Grafikdemo abzustempeln ist ziemlich respektlos. Mir hat es jedenfalls ne menge SPass gemacht. Desweiteren it es grafisch deutlich anspruchsvoller was die Rechenleistung angeht. da kommt ein Dirt nicht heran. Nur weil es rucklig lief bei manchen, da es wirklich mies portiert war, bedeutet nicht, das es dadurch als Referenz gleichwertig ist.
Dirt mag mies portiert sein, aber Crysis ist mies programmiert, nämlich praktisch ausschließlich für NVidia karten.
DAS macht es für mich zu einer Grafikdemo genau wie Lost Planet bzw COJ für Ati.
Klar, mit der Zeit gibt sich das ein wenig weil hart dran gearbeitet wird, aber ich finde sowas eine Frechheit und absolut nicht würdigenswert.
24784ds
Lieutenant
- Registriert
- Nov. 2007
- Beiträge
- 588
@Realsmasher: Mustis hat schon recht
wenn nicht gerade 8 Autos gleichzeitig in einem rennen unterwegs waren lief das spiel ohne probleme. bei 8 fahrzeugen war es stellenweise etwas rucklig, aber noch spielbar.
so stark konnte nvidia crytek garnicht reinpfuschen
es wurde lediglich sichergestellt dass das spiel auch wirklich halbwegs perfomant und ohne probleme auf den geforce karten läuft... hier hat man optimierungsarbeit geleistet, optimierungen die ati inzwischen auch mit dem treiber hinbekommen hat!
bei FarCry2 müssten die radeons, nach deiner aussage, ja auch ziemlich abstinken
will dann überhaupt noch jemand ne radeon???
bei der doom3 engine hat es ati doch innerhalb kurzer zeit auch geschafft sehr gut aufzuschließen, bei der cryengine2 ist das auch so.
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
so stark konnte nvidia crytek garnicht reinpfuschen
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
bei FarCry2 müssten die radeons, nach deiner aussage, ja auch ziemlich abstinken
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
bei der doom3 engine hat es ati doch innerhalb kurzer zeit auch geschafft sehr gut aufzuschließen, bei der cryengine2 ist das auch so.
digitalangel18
Vice Admiral
- Registriert
- Mai 2005
- Beiträge
- 6.585
jetzt noch fein treiber optimieren, und dann geht die wie schmidtz katze....erinnert mich an Radeon9700 zeiten ![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
wird aber wohl nicht lange anhalten...wenn in 2 monaten wirklich schon das nvidia gegenstück kommt....
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
wird aber wohl nicht lange anhalten...wenn in 2 monaten wirklich schon das nvidia gegenstück kommt....
M
Mustis
Gast
@ Realmasher, glaub ma meine CPU war defintiv nicht schuld.
Schau mal in mein Profil und rechne nochma 200 MHz druff. Mit der Frequenz ist sie damals gelaufen. Und bei mir hat Dirt schlicht und ergreifend nicht geruckelt.
Und woher nimmst du eigentlich die Frechheit, Crytek dermaßen herabzuwürdigen und die behauptung aufzustellen, Crysis sei mies programmiert? Hast du jemals DX 9 Programme geschrieben oder gar DX 10? Hast du nur die leiseste Ahnung was da an Code programmiert wurde? Ihr müsst endlich mal verstehen, das in modernen Spielen auch nur geringe optische Verbesserungen (für den Laien) teilweise extreme Leistung benötigen. Es sieht also nicht unbedingt extrem viel toller aus, die benötigte Leistung steigt aber eben nicht linear mit sondern exponentiell wie so oft in der Industrie. Stell dirn Auto vor. einmal mit 300 PS und einmal mit 400 PS. Die reale Auswikrung ist relativ gering, der Aufwand einen 400 PS Motor zu bauen ist aber deutlich höher. schraubst du die ps weiter in die Höhe, brauchst du immer mehr PS um auch nur noch 1 KM/H mehr endgeschwindigkeit zu haben. Desweiteren wurde Crysis nicht so geproggt das es auf Nvidia karten besser läuft. NEIN! Die zusammenarbeit sieht eher dahingehend aus, das Nvidia früher beginnen konnte seine Treiber auf Crysis anzupassen. Sicherlich werden sie Crytek auch dahingehend ein wenig unterstützt haben, indem sie ihrer Erfahrung beigesteuert haben, wie der Code am besten auf Nvidias Architektur läuft. Logisch, das sie weder solche erfahrungen Crytek geben wollen noch können in Bezug auf ATI karten. Woher sollen sie zu dem Zeitpunkt auch jedes Detail dazu gekannt haben? ATI wird kaum Nvidia ihre noch nicht veröffentlichte Architektur erklärt haben. Eventuell Performance vorsprünge resultieren dennoch primär daraus, das Nvidia (oder eben äquivalent ATI) bereits mehr zeit hatten, ihre treiber für dieses Spiel zu optimieren. Es heisst aber nicht zwangsläufig, das bei gleicher Treiberopimierung das Spiel auf NVidia karten besser läuft.
Aber schlussendlich brauchst du darüber gar nicht urteilen, da du weder bei Nvidia arbeitest noch bei Crytek und somit absolut keinen Einblick in die dortigen Vorgänge hast. Deine Behauptungen sind also völlig ohne HAnd und Fuss und auch nicht wirklich belegbar. Also reine Hetze, vorallem wenn man sie so formuliert, wie du es hier getan hast.
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Und woher nimmst du eigentlich die Frechheit, Crytek dermaßen herabzuwürdigen und die behauptung aufzustellen, Crysis sei mies programmiert? Hast du jemals DX 9 Programme geschrieben oder gar DX 10? Hast du nur die leiseste Ahnung was da an Code programmiert wurde? Ihr müsst endlich mal verstehen, das in modernen Spielen auch nur geringe optische Verbesserungen (für den Laien) teilweise extreme Leistung benötigen. Es sieht also nicht unbedingt extrem viel toller aus, die benötigte Leistung steigt aber eben nicht linear mit sondern exponentiell wie so oft in der Industrie. Stell dirn Auto vor. einmal mit 300 PS und einmal mit 400 PS. Die reale Auswikrung ist relativ gering, der Aufwand einen 400 PS Motor zu bauen ist aber deutlich höher. schraubst du die ps weiter in die Höhe, brauchst du immer mehr PS um auch nur noch 1 KM/H mehr endgeschwindigkeit zu haben. Desweiteren wurde Crysis nicht so geproggt das es auf Nvidia karten besser läuft. NEIN! Die zusammenarbeit sieht eher dahingehend aus, das Nvidia früher beginnen konnte seine Treiber auf Crysis anzupassen. Sicherlich werden sie Crytek auch dahingehend ein wenig unterstützt haben, indem sie ihrer Erfahrung beigesteuert haben, wie der Code am besten auf Nvidias Architektur läuft. Logisch, das sie weder solche erfahrungen Crytek geben wollen noch können in Bezug auf ATI karten. Woher sollen sie zu dem Zeitpunkt auch jedes Detail dazu gekannt haben? ATI wird kaum Nvidia ihre noch nicht veröffentlichte Architektur erklärt haben. Eventuell Performance vorsprünge resultieren dennoch primär daraus, das Nvidia (oder eben äquivalent ATI) bereits mehr zeit hatten, ihre treiber für dieses Spiel zu optimieren. Es heisst aber nicht zwangsläufig, das bei gleicher Treiberopimierung das Spiel auf NVidia karten besser läuft.
Aber schlussendlich brauchst du darüber gar nicht urteilen, da du weder bei Nvidia arbeitest noch bei Crytek und somit absolut keinen Einblick in die dortigen Vorgänge hast. Deine Behauptungen sind also völlig ohne HAnd und Fuss und auch nicht wirklich belegbar. Also reine Hetze, vorallem wenn man sie so formuliert, wie du es hier getan hast.
L
LaZz
Gast
Geht hier ja noch echt gut ums eigentliche Topic .... ![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Naja @ TOPIC
Viele hoffen jetzt dass die 3870 X2 durch Treiber optimierungen auch noch die "Kinderkrankheiten"
Microruckler in den Griff kriegen. Ist das eigentlich möglich ? dachte die entstünden durch die Eigentliche Architektur und des designs des CF/SLI. Denke nicht dass die durch Treiber geglättet werden können.
Allerdings hoffe ich dass die Spiele in Zukuft besser mit CF skallieren und nie unter 30 FPS haben![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
dann wären Mikro ruckler auch nichtmehr so schlimm da sie übergangen werden
, denke jedenfalls
dass dorthin gearbeitet wird, da die architektur nur schwer abänderbar ist.
Ich jedenfalls werde mich Opfern und sie mir holen. Um alles über sie in erfahrung zu bringen![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
falls einer sagen will dass sie bei meinem System nichts bringt... habe vor mir nen 24" Hd Zweit Monitor zu holen. Dafür brauch ich was gescheites als Graka
also kein geflame bitte ![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Naja @ TOPIC
Viele hoffen jetzt dass die 3870 X2 durch Treiber optimierungen auch noch die "Kinderkrankheiten"
Microruckler in den Griff kriegen. Ist das eigentlich möglich ? dachte die entstünden durch die Eigentliche Architektur und des designs des CF/SLI. Denke nicht dass die durch Treiber geglättet werden können.
Allerdings hoffe ich dass die Spiele in Zukuft besser mit CF skallieren und nie unter 30 FPS haben
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
dann wären Mikro ruckler auch nichtmehr so schlimm da sie übergangen werden
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
dass dorthin gearbeitet wird, da die architektur nur schwer abänderbar ist.
Ich jedenfalls werde mich Opfern und sie mir holen. Um alles über sie in erfahrung zu bringen
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
falls einer sagen will dass sie bei meinem System nichts bringt... habe vor mir nen 24" Hd Zweit Monitor zu holen. Dafür brauch ich was gescheites als Graka
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
LaZz schrieb:falls einer sagen will dass sie bei meinem System nichts bringt... [] .. Dafür brauch ich was gescheites als Graka
Wer redet denn von Monitor? ... ich rede von zu kleiner CPU
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Den Testkandidat darfst du allerdings gerne spielen
zittrig
Lt. Commander
- Registriert
- Jan. 2007
- Beiträge
- 2.041
Die Sapphire X2 ist nun ab 372,20€ bei Geizhals.at gelistet. Verfügbarkeit hoffentlich in den nächsten Tagen.
Edit: Sorry, war ein Tippfehler drin. 372 und nicht 272 ... ^^
Edit: Sorry, war ein Tippfehler drin. 372 und nicht 272 ... ^^
Zuletzt bearbeitet:
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
amen Mustis. mir gehn diese weltverschwörungstheorien auch auf den keks. nur weil die karten des herstellers den die fan-boy-kiddys favorisieren (um nich zu sagen anbeten
) in einem spiel schlechter skalieren wie die vom mitbewerber (der offensichtlich sehr viel energie in die treiberoptimierung für das spiel gesteckt hat!) müssen sich gleich der andere hersteller und die softwareschmiede gegen den ersten hersteller verschworen haben. ![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
sowas is absoluter blödsinn und wird davon dass mans tausendmal wiederholt auch nich glaubwürdiger!
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
sowas is absoluter blödsinn und wird davon dass mans tausendmal wiederholt auch nich glaubwürdiger!
HolyDude02
Commander
- Registriert
- Aug. 2004
- Beiträge
- 2.097
f17l schrieb:Der Test verzerrt etwas. Ein Vergleich zwischen einer Karte mit 2 GPUs und Karten mit 1 GPU nimmt das Ergebnis ja fast schon vorweg.
Wäre doch interessant gewesen, die 8800er als SLI Versionen mitzuvergleichen. Dann wäre Chancengleichheit gegeben und der Test objektiver.
Warum wär das denn interessant? DAS würde doch erst richtig verzerren. Zwei GPUs gegen eine find ich okay - immerhin kostet die X2 weniger als eine GTX/Ultra, da wird man die doch vergleichen dürfen. Vor allem weil's beides nur einen PCIe vorraussetzt und auch sonst vergleichbar ist.
Zwei Karten gegen eine, DAS wär Verzerrung...
![Augen rollen :rolleyes: :rolleyes:](/forum/styles/smilies/rolleyes.gif)
Tamahagane
Vice Admiral
- Registriert
- Jan. 2008
- Beiträge
- 6.626
Mustis schrieb:Desweiteren wurde Crysis nicht so geproggt das es auf Nvidia karten besser läuft. NEIN! Die zusammenarbeit sieht eher dahingehend aus, das Nvidia früher beginnen konnte seine Treiber auf Crysis anzupassen. Sicherlich werden sie Crytek auch dahingehend ein wenig unterstützt haben, indem sie ihrer Erfahrung beigesteuert haben, wie der Code am besten auf Nvidias Architektur läuft.
Jein, ganz zustimmen kann ich dem nicht, denn Ati verwendet deutlich mehr Shader jedoch mit geringerem Takt als nVidia, aber Crysis limitiert die Shaderanzahl, also sind die nVidia Karten im Vorteil.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
das mit den shadern kannst du nich vergleichen. ati hat weniger shader aber in 5d woraus rein rechnerisch mehr shader werden (im idealfall könnenen mehr shaderoperationen gleichzeitig durchgeführt werden). aber dass das spiel absichtlich darauf programiert wurde besser mit nvidias archtektur zu laufen ist blödsinnig. die entwicklung von crysis hat schon lange begonnen bevor die g80 oder gar die r600 existierte. es sind nunmal unterschiedliche architekturen und mal hat die eine ihre vorzüge, mal die andere. das liegt in der natur der sache. dazu brauchts keine verschwörungen...
Tamahagane
Vice Admiral
- Registriert
- Jan. 2008
- Beiträge
- 6.626
Von Absicht hab ich ja nicht gesprochen, ich hab nur gesagt, dass mit anderer Programmierung für Ati deutlich mehr Performance drin gewesen wäre... Aber Absicht steckt da glaub ich nicht dahinter.
Für Ati is halt nur blöd, dass jeder die Leistung an dem Game misst.
Für Ati is halt nur blöd, dass jeder die Leistung an dem Game misst.
M
Mustis
Gast
@ Ball_Lightning
Das mag ja sein. Nur, kennst du die Gedankengänge, die bei Crytek vorangegangen sind und die klären könnten warum das so ist? Ich nehme an nein. Daher lehnt man sich verdammt weit aus dem Fenster, wenn man aufgrund dieser Tatsache behaupten würde, dass dies absichtlich geschehen ist, mit dem Ziel, Nvidia zu pushen. Das Nvidia daraus unter umständen Vorteile hat, ist ne ganz andere Sache. Das kann aber auch dann daran liegen, die die Architektur der G80 einfach besser ist (keine Behauptung, dass dies so ist! Lediglich eine mögliche Erklärung).
Dazu kommt Lübkes Argument. Als Crysis Sourcecode angefangen wurde zu schreiben, wusste sicherlich noch niemand, weder bei Crytek noch bei NVidia, wie die Architektur von ATI im Detail aussieht. Eine bewusste benachteiligung von ATI ist damit fast unmöglich. Und das man den Source im nachhinein dermaßen nochmal verändert, kann ich mir nicht vorstellen. Allerdinsg fehlt mir dazu explizit das wissen um das wissen um daraus eine standhafte behauptung zu machen. Allerdings würde es sicherlich viel Arbeit machen, und weder Crytek noch der Publisher hätten irgendwelche Vorteile davon. Wozu allso diese Mühe machen in einem eh schon engen Zeitplan?
Edit: Kannst du diese letzte Behauptung irgendwie beweisen? Ich meine 5D Shader arbeiten völlig anders als 1D Shader. Woher willst du wissen, das eine Aufhebung dieser Begrenzung irgendwas signifikant ändert? ZUmal eine Grafikkarte aus mehr als nur den Shadern besteht.![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Das mag ja sein. Nur, kennst du die Gedankengänge, die bei Crytek vorangegangen sind und die klären könnten warum das so ist? Ich nehme an nein. Daher lehnt man sich verdammt weit aus dem Fenster, wenn man aufgrund dieser Tatsache behaupten würde, dass dies absichtlich geschehen ist, mit dem Ziel, Nvidia zu pushen. Das Nvidia daraus unter umständen Vorteile hat, ist ne ganz andere Sache. Das kann aber auch dann daran liegen, die die Architektur der G80 einfach besser ist (keine Behauptung, dass dies so ist! Lediglich eine mögliche Erklärung).
Dazu kommt Lübkes Argument. Als Crysis Sourcecode angefangen wurde zu schreiben, wusste sicherlich noch niemand, weder bei Crytek noch bei NVidia, wie die Architektur von ATI im Detail aussieht. Eine bewusste benachteiligung von ATI ist damit fast unmöglich. Und das man den Source im nachhinein dermaßen nochmal verändert, kann ich mir nicht vorstellen. Allerdinsg fehlt mir dazu explizit das wissen um das wissen um daraus eine standhafte behauptung zu machen. Allerdings würde es sicherlich viel Arbeit machen, und weder Crytek noch der Publisher hätten irgendwelche Vorteile davon. Wozu allso diese Mühe machen in einem eh schon engen Zeitplan?
Edit: Kannst du diese letzte Behauptung irgendwie beweisen? Ich meine 5D Shader arbeiten völlig anders als 1D Shader. Woher willst du wissen, das eine Aufhebung dieser Begrenzung irgendwas signifikant ändert? ZUmal eine Grafikkarte aus mehr als nur den Shadern besteht.
![Zwinkern ;) ;)](/forum/styles/smilies/wink.gif)
Zuletzt bearbeitet von einem Moderator:
Tamahagane
Vice Admiral
- Registriert
- Jan. 2008
- Beiträge
- 6.626
Nochmal, steht eh im Post oben von mir, ich unterstelle Crytek gar nichts - im Gegenteil.
Deswegen hab ich auch bei der Antwort auf deinen Beitrag "Jein" geschrieben, denn:
Deswegen hab ich auch bei der Antwort auf deinen Beitrag "Jein" geschrieben, denn:
Das stimmt ja, es WURDE so programmiert, das es auf nVidia Karten besser läuft, jedoch ist das eher ein Zufall als Verschwörung.Desweiteren wurde Crysis nicht so geproggt das es auf Nvidia karten besser läuft.
Graf-von-Rotz
Banned
- Registriert
- Jan. 2007
- Beiträge
- 2.653
Nun ja jeder mag von Crysis halten was er will (ich finde es recht gelungen) . Ich kann auch die Leute verstehen denen es nicht gefällt. Eine Tatsache ist aber das dieses Spiel momentan mit Abstand die höchste Hardwareanforderung mitbringt und alle anderen Titel auf den aktuellen Spitzenkarten eigentlich mit vollen Einstellungen gut laufen. Da ist es doch nur logisch das sich die neuen Karten daran messen müssen (denn ob andere Spiele mit 80 oder 100 FPS laufen reißt ja nun nicht mehr so vom Hocker). Wenn ein neues Spiel mit noch höheren Anforderungen kommt wird dieses (mal abgesehen vom Spielspaß) als Messlatte für zurünftige Hardware dienen.
Zuletzt bearbeitet:
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
Viele hoffen jetzt dass die 3870 X2 durch Treiber optimierungen auch noch die "Kinderkrankheiten"
Microruckler in den Griff kriegen. Ist das eigentlich möglich ? dachte die entstünden durch die Eigentliche Architektur und des designs des CF/SLI.
CF/SLI ist (fast) NUR im Treiber implementiert, demzufolge kann auch der Treiber da was richten.
nd woher nimmst du eigentlich die Frechheit, Crytek dermaßen herabzuwürdigen und die behauptung aufzustellen, Crysis sei mies programmiert? Hast du jemals DX 9 Programme geschrieben
Du weist genau wie das gemeint war !
Ich habe NICHT geschrieben das die Programmierung herabzuwürdigen sein, sondern die alleinige Ausrichtung auf Nvidia.
Im übrigen habe ich schon selbst in dx programmiert(allerdings nur bis 8) und weiß daher wie schwierig es ist etwas für 2 verschiedene Architekturen gleichzeitig zu optimieren.
Das ändert aber nix daran, das ich sowas von einem Entwicklerstudio im Normalfall erwarte, schließlich verdienen die damit ihr Geld.
edit @dirt : man muss sich den Benchmark bei CB hier doch nur mal ansehen, da kommt ab 1600*1200 praktisch keine Einzelkarte mehr mit. Für mich ist das durchaus Anspruchsvoll und auch meine persönliche Referenz, denn das zocke ich ausgiebig, Crysis nicht.
Zuletzt bearbeitet:
Graf-von-Rotz
Banned
- Registriert
- Jan. 2007
- Beiträge
- 2.653
Eigentlich kann man heute wirklich froh sein. Wenn ich überlege was mitte der 90er ein Durchschnittsrechner gekostet hat auf dem man die damals aktuellen Titel dann bei mittleren Einstellungen genießen konnte. Für das Geld baut man heute eine Highendmaschine und noch einen Durchschnittsrechner nebenbei
.
![Breites Grinsen :D :D](/forum/styles/smilies/biggrin.gif)
Zuletzt bearbeitet: