News ATi-Karten nun in Unreal-Engine-3-Spielen mit AA

Ich verstehe das nicht, wie man sich über ein Produkt hermacht nur weil man der einen Marke sein Herz geschenkt hat und beschränkt ist es zudem. Für mich als User ist es doch völlig zweitrangig wer der Hersteller ist. Wichtig ist das Produkt und wenn das weniger Geld kostet dabei zudem noch mehr Leistung bring, sprich einfach besser ist, Scheissegal ob 1 oder 10 Chips drauf laufen, dann sollte man das doch einfach mal anerkennen. Nvidia war jetzt nun wirklich lange genug da oben. Was hat es denn gebracht? Seit die sich da Oben aufhalten ist es Langweilig geworden. Seit einem Jahr schlagen wir uns schon mit der 8800er rum, wurde langsam Zeit dass sich da was bewegte.
Und im Augenblick hat nunmal Ati die Nase vorn, ist doch gut. Warum freut Ihr Euch nicht darüber dass mal wieder was passiert? Ne gute Karte für weniger Geld, was will man mehr? Jedenfalls hat es Ati geschafft dass für die 8800er keine Fantasiepreise mehr verlangt werden und mit Sicherheit werden die in Zukunft noch weiter fallen, weil viele einfach ne gute Karte haben wollen und jeder der freiwillig 200 Euro mehr hinlegt für ein schlechteres Produkt, dem ist eh nicht mehr zu helfen.
Was ich wirklich sehr bedenklich finde, ist die immer höher ausfallende Energieaufnahme dieser Karten. Weshalb nutzt man da nicht die gewonnenen Erkenntnisse aus dem Notebookbereich? Diese Karten sind ja nicht so viel langsamer als ihre Desktopbrüder, verbraten aber sehr viel weniger.
 
Zuletzt bearbeitet:
AMD731 schrieb:

Ganz ehrlich ... der Test hört sich für mich nicht neutral an
Lies dir mal bitte den Computerbase Test durch - mit der beste Test den ich von Computerbase jemals gelesen habe

1. 8800GT SLI kostet 18€ mehr (2*199€) - eher noch mehr wenn die Preise der x2 weiter fallen
2. Verbraucht um einiges mehr Strom (unter Last)
3. 2 PCBs

Die Karte empfiehlt sich für sehr hohe Auflösungen mit AA/AF. Da ist sie fast konkurrenzlos...
Natürlich gilt das genauso für andere SLI/CF Kombinationen
 
Zuletzt bearbeitet:
@ AMD731

dieser Test ist wohl einer der miesesten die ich in den letzten Jahren im Netz gelesen hab. Ganz offensichtlich wurde hier mit dem alten Treiber getestet, sieht man schön an den Crysis-Benchmarks. Und dann noch zu mutmaßen, dass so bald keine besseren Treiber kommen ist schon ein starkes Stück. Zumal ja 3 Tage vor Release ein entsprechender Treiber von ATI bereitgestellt wurde.

@Topic: ich weiß nicht, irgendwie sagt mir diese über einen Treiber-Hack ermöglichte Form von AA nicht wirklich zu. Ich finde, wenn ich schon mit AA spiele, dann sollte nicht nur ein Teil der sichtbaren Kanten geglättet werden, sondern alle! Ansonsten steht das in keinem guten Verhältnis zu den damit verbundenen Leistungseinbußen, gerade bei eher anspruchsvollen (betreffend Framerates) Multiplayer-Games wie UT3.
 
Meiner Meinung nach hat ATI mit 1x und 8xAA die bessere Bildquali, die Nvidia bei 4xAA. Die Unterschiede sind gering aber erkennbar (zumindest auf Screenshots).
Ob die X2 zwei Chips hat oder nicht ist für mich killefitt, die ist billiger als die Ultra und im Schnitt schneller. Dass die Framerate bei vielen Spielern in Keller geht dürfte an der CPU u. Internetverbindung liegen, schließlich hat eine Graka nicht mehr zu berechen als bei 4 Spielern.
 
ich merk kaum unterschied :/
Dann schau mal genau hin, da ist durchaus ein sichtbarer Unterschied drin. Wobei man aber natürlich sagen muss, dass in Bewegung das Anti-Aliasing deutlich besser sichtbar ist, da macht 8xAA schon viel aus.
jetzt ma so ne Frage an die Tester.Wie sieht es denn mit den Microrucklern bei der x2 aus??
Da die Radeon HD 3870 X2 ganz normal CrossFire benutzt, sind diese natürlich genauso da. Steht so auch im Artikel zur Grafikkarte.
Seh ich das nur falsch, oder bietet das 8xAA der 8800er-Karte irgendwie ne miese Qualität? Ist ja bei 4x besser...
Nein, die Qualitäöt ist bei 8xQAA bei NVidia in UT34 durchaus besser. Nur ist der Unterfschied nicht so groß wie bei ATi.
Eure Benchmarks in allen Ehren, aber die sind ja wohl sehr realitätsfern. Ein reales Deathmatch mit 30 Spielern und die 150 Frames werden zu 30, die Karte, die das noch mit AA packt, muss erst erfunden werden.
Anders kann man UT3 derzeit leider nicht ordentlich testen. Deswegen schreiben wir ja auch immer in den Benchmarkbeschreibungen in den Artikeln, dass man im Spiel andere FPS-Werte als im Benchmark hat.
@Topic: Das ist doch jetzt DX9 getestet, oder?
Natürlich. Unreal Tournament 3 unterstützt derzeit gar kein D3D10.
Kann man die neuen Spiele eigentlich nicht mal in der immer beliebter werdenden Auflösung 1680x1050 Testen oder werden die Widescreen Auflösungen nicht unterstützt?
Dies wird mit dem neuen Testsystem passieren :)
Wenn das AA mit dem alten Test-Catalyst 8.451.2 funktioniert, müsste es doch mit dem viel neueren Hotfix 8.451.4 erst recht funktionieren.
http://support.ati.com/ics/support/d...estionID=31625
Kann das mal jemand verifizieren bitte? Hab nix mit U3 Engine.
Trotz der anderen Bezeichnung ist der neue Launch-Treiber der neuste Treiber, den ATi zur Verfügung stellt. Und dieser Launch-Treiber ist nur für die Presse gedacht. Und der ist der einzige, der das möglich macht. Dies hat ATi so auch bestätigt.
Wieviel "Bestechungsgeld" hat Microsoft eigentlich Epic dafür gezahlt das das nur unter Vista gehen "darf" ?
Entweder man stellt sich als Programmierer blöd oder lässt sich schmieren anders kann ich das nicht erklären.
Oder sind die Benchmark bzw. der Nvidia Hack unter XP ?
Da das unter XP schon in der Demo nicht ging hab ich mir dieses "Spiel" gar nicht erst gekauft.
Ja, es ist schon schlimm wenn neue Sachen mehr können als ältere. Das macht auch nur Microsoft so. Bei Firmen die nicht Microsoft hei0en können neue Sachen ja immer weniger als ältere..manmanman, wie stur kann man sein. Wer hat dir gesagt, dass das nur unter Vista geht? Nur du, weil du anders nichts hören möchtest.
...Da haben wirs mal wieder! Nvidia am schummeln! tztz
schaut euch mal einen Vergleich zwischen Bild 6 von NV und Bild 6 von ATI an
Rechts bei der Werbereklame wurde der Leuchteffekt/Beleuchtung weggelassen,
was wiederrum bie ATI vorhanden ist, was bedeutet das die ATI "mehr" zutun hat als die NV
Da kann Nvidia nichts für. Denn für ein paar Sekunden verschwindet die Leuchtschrift in dem Spiel einfach - bei jeder Karte :)
 
:lol: Da hat sich aber wer ne Mühe gemacht alle zu kommentieren :D

Find ich gut, dass der Chef auch Mal die Kommentare kommentiert :) Denn das mit Widescreenauflösungen hatte ich auch schon mal gepostet bei nem anderen Test.
 
Meiner Meinung nach wird AA in modernen Spielen immer weniger wichtig. Sah man früher noch KRASSE Unterschiede, so ist mittlerweile in Bewegung nicht mehr soooooo viel vom AA zu sehen.
 
Wolfgang schrieb:
[...]

Trotz der anderen Bezeichnung ist der neue Launch-Treiber der neuste Treiber, den ATi zur Verfügung stellt. Und dieser Launch-Treiber ist nur für die Presse gedacht. Und der ist der einzige, der das möglich macht. Dies hat ATi so auch bestätigt.
[...]

Was ATI bestätigt ist mir ehrlich gesagt ziemlich egal ;). Welches Compilierungsdatum haben die Dateien? Der Hotfix ist wirklich taufrisch vom 11.1., das geht kaum neuer. Oder ist der 23. wirklich das Datum des Compilats (Treiberdateiendatum und Datum in der .inf)? Die X2 Treiber sind denke ich getestet im Gegensatz zum Hotfix, deshalb vermute ich ja auch, dass sie wohl älter sind.
 
Zuletzt bearbeitet:
Die Geforce 8800 Ultra hat doch nur einen Chip wenn ich mich nicht irre, deswegen finde ich den vergleich auch nicht ganz so passend, da die X2 ja 2 hat.
Bin mal gespannt wie Eine DualChip Karte von NVidia aus sähe mit 2x 8800 Ultra Chip^^.
 
@HOT
Der Treiber ist gute zehn Tage neuer als der Hotfix ;)
Der ist zu frisch aus der Treiberschmiede von ATi gekommen um viel getestet zu werden. Da wurde der Hotfix-Treiber sicherlich mehr getestet.
 
Zuletzt bearbeitet:
Scheiße sehen alle Modi aus, nur das NV jetzt den besseren 8xAA-Modi hat ist wohl nen Scherz.
Schaut euch mal allein oben die Rohre an die über die Straße gehen, bei dem NV 8xAA sind wesentlich mehr Treppen zu sehen.
 
Wer sagt denn, dass NV den besseren 8AA Modi hat?

Schau dir die News noch mal an. Dort steht deutlich, dass NV beim 4AA punkten kann und ATI beim 8AA.
 
Die Geforce 8800 Ultra hat doch nur einen Chip wenn ich mich nicht irre, deswegen finde ich den vergleich auch nicht ganz so passend, da die X2 ja 2 hat.
Bin mal gespannt wie Eine DualChip Karte von NVidia aus sähe mit 2x 8800 Ultra Chip^^.

Tja, das mag schon sein, das Problem ist nur, dass die Ultra teurer ist als die X2. Also ist es mir eigentlich egal wieviele Chips da drauf sind, solange die Preis/Leistung stimmt.
Klar, mal schauen ob die 9800X2 was wird.
 
@LatinoRamon

Nur sind bei solchen Karten die kleinen Auflösungen völlig uninteressant.

1600x1200
X2 72,6 - 178%
Ultra 40,9 - 100%

Auch bei der 2560er Auflösung ist die Radeon Karte deutlich schneller.
Wenn man dann noch bedenkt, dass sie auch noch günstiger ist...

AMD hat da wieder ein ganz heisses Eisen im Feuer zu einem absolut beeindruckenden Preis.
 
Joa hohe auflösungen:
HIER

ZITAT:
Zumindest theoretisch könnte die Radeon HD 3870 X2 eine Geforce 8800 Ultra problemlos schlagen – preislich wäre die X2 sogar rund 100 Euro günstiger als die 550 Euro teure Ultra. In der Praxis wird daraus aber aufgrund von Treiberproblemen nichts. Und dass sehr schnell deutlich bessere Treiber kommen, wäre zwar wünschenswert, ist aber unwahrscheinlich.

Im Februar zieht Nvidia mit einem ähnlichen Konzept nach. Die Geforce 9800 GX2 basiert auf zwei Geforce 8800 GTS 512 . Diese wird dann wiederum den 3870er-Doppeldecker hinter sich lassen, denn Nvidias G92-Prozessor ist deutlich schneller als AMDs Spitzenchip. ZITAT ENDE.
 
Zuletzt bearbeitet:
Bitte nicht mit den PC-Welt Test. Über dessen Qualität wurde ja nun auch hier in diesem Thread geschrieben. Wir sind hier auf Computerbase und können sogar die hier gemachten Tests vergleichen.
Das hast Du ja auch gemacht, solange die Ergebnisse in Deine Argumentation gepasst haben.

Fakt ist - die AMD Radeon HD 3870 X2 ist die schnellste zur Zeit erhältliche Grafikkarte (und kostet dafür nicht die Welt).
Ich denke das können auch Nvidia-Freunde neidlos anerkennen.
 
ich kann dir auch 10 weitere foren links geben wo das gleiche beschreiben wie pcwelt.
Fakt ist, das ATI unausgereift ist und der treiber Müll ist.

@JaXasS
jo wenns einem nicht in den kram passt dann gibt man immer solche komments wie du ab.
:lol:
das der treiber müll ist, sag nicht nur ich, das sind fakten wo viele andere foren dies wiederlegen und nicht nur ein forum.
 
Zuletzt bearbeitet:
Jetzt mal kurz was anderes:
Der R600 die auf dem R6xx basierenden GPUs brechen doch mit AF verhältnismäßig zur Nvidia Konkurrenz stark ein (Hab ne 2900XT).
Müsste dann der Vorsprung in 4 oder 8 fachem AF zur Nvidia nicht noch extrem größer werden?
 
LatinoRamon schrieb:
ich kann dir auch 10 weitere foren links geben wo das gleiche beschreiben wie pcwelt, wenns euch nicht in den kram passt ist alles unrealistisch, unausgereift oder bei der quali stimmt was nicht.

Fakt ist, das ATI unausgereift ist und der treiber Müll ist.

Was für ein unqualifiziertes Kommentar. Der R6xx Chip ist ja erst mit der 3870 X2 erschienen :evillol: (Hat jemand meine Ironie bemerkt?)

Die treiber sind spätestens seit dem 7.9er absolut in Ordnung. Zur Info: Ich habe meine 2900XT mit dem erscheinen von selbiger gekauft.
Und jetzt kommst du mit deinem Mist, den du irgendwo gelesen hast.
 
Zuletzt bearbeitet:
AA ist eigentlich ziemlich irrelevant. zumindest für leute, die noch flüssig spielen wollen
ebenfalls sollte man IMMER zuerst die auflösung raufschrauben, bevor man sich an AA traut. da schaut wenigsten gleich der ganze schirm besser aus, nicht nur die kanten
 
Zurück
Oben