Test Test: ATi Radeon X1800, X1600 und X1300

Deinorius schrieb:
Ich verstehe, was du meinst.
Aber die Shader einer Graka als US zu verwalten, selbst wenn es keine US sind, find ich irgendwie unrealistisch.


Auch in DX10/WGF2.0 ist ein Vertex immer noch ein Vertex und ein Pixel immer noch ein Pixel, auch wenn von der API das gleiche Featureset für Vertex- und Pixeloperationen vorgesehen wird. Der Grafiktreiber weiss also immer, ob er einen Shader an eine Vertexshader- oder eine Pixelshader-Einheit übergeben muss. Es ist also überhaupt kein Problem, hier weiterhin mit physikalisch unterschiedlichen Einheiten zu arbeiten.
 
Deinorius schrieb:
Schließlich muss nur die API und der Treiber das verwalten können. Denk ich jedenfalls.
Sollte US noch für WinXP kommen, kann mich Vista mal kreuzweise. ;) Jedenfalls für eine Weile. :D
Eine US-Architektur arbeitet vollkommend unabhängig von DirectX.
So kann der Chip auch ohne irgendwelche Anpassungen des Spieles die US benutzen, ansonsten bräuchte er ja noch die "klassischen" Pipelines, was wohl die Transistoren ins unendliche befördern würde.

Somit wird es US auch für Win XP gegen, ebenso noch für Win 98 und dabei ist es auch egal, ob man DX10, DX9, DX8 oder DX5 auf dem Rechner hat.
 
Zuletzt bearbeitet:
Mal zu was ganz anderem: Ich meine hier in diesem Thread gelesen zu haben, dass der Treiber, mit dem getestet wurde, noch verbugt war und die Karten deswegen im Idle Mode mit zu hoher Geschindigkeit angesteuert wurden, so dass der Stromverbrauch dem entsprechend eher erschreckend hoch war - finde nur die Stelle nicht mehr. Ist da was dran oder gilt es als gesicherte Erkenntnis, dass sämtliche Karten auch im Ruhezustand als Heizwerk fundieren?
 
Das stimmt ausserdem soll ATi angelich nahezu fertig sein mit dem neuen OGL treiber, was die perf. in OGL Spielen sicher einen Riesensprung verpasst. Wenn man noch träumen kann, und der Treiber wirklich so gut wird, und nVidia uch die OGL Spiele an ATi verliert, wäre das schon krass :D

Dazu kommt es aber nicht..........trotzdem wird der final schneller sein, und die XTs nochmals schneller machen, vor allem in Aoe3, und CoR wo es probleme gibt mit dem aktuellen treiber
 
Wurde eigentlich mal verglichen, ob die Texturen in Games bei den X1xxx Karten auch so flimmern bei eingeschaltetem AF wie bei en Geforce 7800 Karten?
Das ist bei einer 450 EUR Karten schon eine Sauerei, oder? Bei den 6800er Karten konnte man das über den Treiber mit HighQualy Einstellungen wegmachen.

Hat jemand so eine 7800 Karte und kann darüber was sagen?
 
Die neuen X1000er sind bisher die einzigen, bei denen auf Wunsch AF auch so genutzt wird wie sich das gehört. Absolut kein Flimmern und keine Winkelabhängigkeit mehr, sprich die beste AF Qualität.:D
 
Das habe ich auch gelesen MOB. Das finde ich bei ATI wirklich geil, dass die Bild-Qualy extrem gut ist und die Performance nicht extrem weniger ist.

Langsam wird der Kampf wieder etwas härter und verlagert sich auf andere Dimensionen. :cool_alt:
 
The_Jackal schrieb:
Wurde eigentlich mal verglichen, ob die Texturen in Games bei den X1xxx Karten auch so flimmern bei eingeschaltetem AF wie bei en Geforce 7800 Karten?


Dazu bedarf es erst genauerer Untersuchungen, es laesst sich derzeit nichts genaues darueber sagen.
 
Ihr sagt hier alle ati hätte die beste Bildqualität dat stimmt net. Nvidia hat se immernoch mti der geforce 4ti reihe das war bisher die beste Bildqualität.

ICh hoffe nvidia geht wieder bck to the roots also die geforce 4 bildqualität mit er power der geforce 7800 ud den stromverbrauch der 2mx. Das wäre meine Traumkarte^^
 
Derart pauschalisierte Behauptungen sind eigentlich immer falsch.

Das beste AF haben die Geforce-Chip ab NV20 bis NV38 (GF3 bis FX5950U), das beste Multisampling AA (bis 6x) hat ATI seit dem R300 (Radeon 9500/9700), NVidia bietet nur bis max. 4x MS hat aber zusaetzliche MS+SS Mischmodi im Programm.
 
Tja und wieder haben wir Tests unter einer Windoofs Umgebung, aber wie siehts unter Linux aus ?
Wahrscheinlich wieder so das alle 3D Spiele unter ner Ati Karte mit allerhöchstens 30 FPS laufen (UT2004) und das mit einer Qualität die ich als Pixelsalat umschreiben würde, Dann greife ich doch lieber zu NVidia auch wenn da die BildQualität und Windoofs schlechter ist, denn besser als das was Ati mit seinem Linux Treibern abliefert ist es allemal.
 
Kurz und knapp: Die 7800GT/GTX ist die beste Graka auf dem Markt! Und wird sie auch

bleiben auch wenn ATI irgendwann mal Liefern kann. Das ist Tatsache ändern kann man da nix. Besser ist halt besser!

Mag das Bild doch besser sein das fällt beim Zocken eh nit auf! Also mir ist das wurst ich lauf nicht durch das Game bleibe stehen und guck mir die schöne gegend an! lol

Also Leute aufhören zu zoffen ich habe gesprochen! :evillol:
 
ThePeacemaker19 schrieb:
Kurz und knapp: Die 7800GT/GTX ist die beste Graka auf dem Markt! Und wird sie auch

bleiben auch wenn ATI irgendwann mal Liefern kann. Das ist Tatsache ändern kann man da nix. Besser ist halt besser!

Mag das Bild doch besser sein das fällt beim Zocken eh nit auf! Also mir ist das wurst ich lauf nicht durch das Game bleibe stehen und guck mir die schöne gegend an! lol

Also Leute aufhören zu zoffen ich habe gesprochen! :evillol:

Nur intressiert hier keinen dein Fanboy gelaber.:evillol:
Was du denkst ist mir scheissegal.:evillol:
 
Leider nicht lieferbar.

Ich habe gerade mal bei 2 Distributoren nachgefragt und keine Karte ist auf Sicht lieferbar. :( Man muss dazu wissen, dass Distris normalerweise ca. 14 Tage im voraus die Liefertermine kennen wenn auch manchmal nicht bestätigt. Dies bedeutet, und wurde mir auch so bestätigt, dass innerhalb der nächsten 14 Tage keine Lieferungen der Karten zu erwarten sind.:( :( Somit ist wahrscheinlich mit einem eintreffen der XL Karten erst in frühestens 14 Tagen bzw. Ende Oktober zu rechnen und die XT Versionen werden wohl erst Mitte Ende November kommen.

Ich bin darüber selbst nicht begeistert, der eine Distributor hat aber wie schon erwähnt Top-Kontakte zu TUL und hatte bisher imme eine Handvoll Karten vorab für gute Kunden :D :D Aber bisher ist da nischt in Sicht und nicht mal was unter der Hand angekündigt für gute Kunden. Schade. Ich hoffe, dass ich in kürzester Zeit Lügen gestraft werde, glaube das aber nicht.

Gruß
 
Es sollte sowieso dem Rat von 3DCenter gefolgt werden.

Die deutschen Computer-Sites und ausländische Partner-Sites sollten sich endlich mal darauf einigen statt der Avarage-fps nur noch die Min-fps gemessen wird.

Liebe Redakteure, es wäre so toll, wenn ihr euch nicht die Arbeit machen würdet die Benchmarks einfach nur durchlaufen zu lassen um die Framerates rauszukriegen. Es wäre so gut, wenn ihr eure Position mit der vielen Hardware nutzen könntet, um ordentliche Leistung zu zeigen.

Ich würde mir wünschen, dass ihr in den Benchmarks die Min-fps statt der Avarage-fps hinschreibt, weil es uns dann zeigt, ob das Spiel spielbar ist.

100 fps sehe ich nicht, aber wenn ein Game mal unter 30 oder 20 fällt, dann merkt man das deutlich. Was bringt es mir also, wenn ich 50 fps Durchschnitt habe, wo viele 100 fps Szenen Ruckelorgien mit 20 fps und weniger aufwiegen. Das sagt dann nix über die Spielbarkeit aus :(

Ich hoffe, dass ihr euch mal mit 3DCenter, Hardwareluxx, Tom's Hardware, PC-Welt und vielen anderen in Verbindung setzt und ihr euch zusammen für die Min-fps entscheidet. Damit würdet ihr uns Usern endlich sinnvoll zeigen, was die Karten können.
Es wäre praxisnah.
 
Da geb ich The_Jackal recht. Macht es wie PCGH da hat man voll den überblick und weiß genau kann ich das spielen oder nicht!

Der Durchschnitt sagt uns genausowenig über die geschwindigkeit wie der 3Dmark. Da ist ATI um einiges schneller als nVidia und wie schauts bei den Games aus? Tja da siehts wieder "meistens" anderes aus auch wenn mit ner "schlechteren" Qualität!
 
Zurück
Oben