News Chat mit ATi um 21:00 Uhr

ich finds einfach ziemlich derb wie hier einige abgehen, obwohl jeglicher PRAKTISCHE beweise, dass die bildqualität visuell SCHLECHTER wird fehlen !!

bleibt mal auf dem teppich, jetzt wo der "filter-trick" theoretisch bewiesen ist, werden sicher alle magazine, ob online oder print, ganz genau schauen ob es zwischen einer nVidia Geforce 6800 und einer ATI Radeon X800 bei, im treiber maximal einstellbarer bildqualität, einen visuell wahrnehmbaren unterschied gibt...
ich wage das mal stark zu bezweifeln... aber die TESTS und die PRAXIS werden zeigen ob ATI wirklich eine schlechtere bildqualität als andere karten liefert !!

ich bin ziemlich zuversichtlich, dass die bildqualität von auge gesehen identisch ist wie mit nVidia produkten...
ich würde mir höchst ungern so ein ungetüm von grafikkarte wie es nVidia anbieten verbauen... aber falls bei ATI's produkten die bildqualität tatsächlich schlechter ist (was noch nicht bewiesen ist), wird ATI sicher selbst der grösste verlierer sein ;)
 
Beim Direkten Vergleich faellt mir auf dass:
-verschiedene Texturen beim nV40 schaerfer sind, abhaengig vom Winkel
- im Uebergang zwischen den MipMaps (oder glaube dass er ist) sehe ich keinen Unterschied
- was auffaellt ist dass beim R420 der Draht und der Baeume viel detaillierter sind
Monitor LG 1810B, Matrox G450 Max. Sollte ich woanders suchen, bitte ich jemanden mich aud die Stelle hinzuweisen.
 
Wollt Ihr hier etwa nen Flamewar veranstalten oder was?

Staubwedel?
XtDoN?
 
Zuletzt bearbeitet:
Auf die Signalqualitaet der Grakahersteller hat Ati aber keinen Einfluss
 
@zwicky
wer denn sonst?
Die Hersteller müssen sich doch alle an die Vorgaben (Referenzdesign) halten.
Das ist doch auch der Grund warum TerraTec sich aus dem Geschäft zurückzieht.
Es ist auch davon auszugehen das bei anderen Herstellern die Signalqualität ebenfalls auf kosten des Referenzdisign auf der Strecke bleibt.
 
ich sag nur es darf keine geheimnisse geben..! wenn ich ne karte für nen haufen geld von ati kaufe dann will ich alles wissen, und nicht wenns dann mal rausgefunden wird zu sagen: ahh super feature..mehr leistung bei nicht merkbarer verschlechterung der qualität, wollten wir eigentlich sagen aber wir habens wohl vergessen!

so nicht ati

ihr habt mirs graud ausgschütt!
 
Referenzlayout m= Platinendesign, Takrates und aehnliches. Ati ist verantwortlich fuer den Chip inklusive Ramdac, und eben das Referenzlayout. Der VGA Ausgang und die dafuer verwendeten Komponenten sind dem Hersteller ueberlassen.
 
cool dann gibts die DVI/VGA Connectoren ja vielleicht auch irgendwann mal in bunt.

Ne im Ernst - als Publisher würde mir ein erzwungenes Referenzdesign auch auf den Zehen drücken.
 
"
Ehrlich gesagt kann ich nicht nachvollziehen, was ATI von einigen hier vorgeworfen wird. Jeder will doch beste IQ und beste Performance und am besten gleichzeitig. Mit ATIs Optimierung sind wir dem ein Stück näher gekommen. Bravo!

Und wer dann den Mangel an Fairness in Tests anprangert, sollte sich überlegen, ob nicht das TESTVERFAHREN falsch ist und nicht die Optimierung. Beides muss sich doch an den Kundenwünschen orientieren, wir sind hier schließlich nicht beim Sport sondern in der freien Wirtschaft.. Niemanden interessiert ein Test mit Audioencodern ohne lossy compression, wenn man kleine Dateien mit guter SQ will, niemanden interessiert jetzt noch ein Elchtest mit der A-Klasse ohne ESP, wenn man ein kompaktes, sicheres Auto haben will
"

Lol an dem Testverfahren kann doch gar nichts falsch sein.
Das wird doch genauso von ATI empfohlen mit der gleichzeitigen Bitte jegliche Optimierung bei der Konkurenz abzustellen und das ganze mit den Testprogrammen zu überprüfen.
Wer das Ganze Außmaß von ATIs dreckiger Taktik sehen will sollte mal hier genauestens vorbeischaun.
http://techreport.com/etc/2004q2/filtering/index.x?pg=1

Da gibt es ein paar herrliche Folien von ATI zum R420 Launch. Ich würde sagen mit denen haben sie doch voll in die Scheisse gegriffen.

Und zum Punkte man sieht es nicht und blah.
Das ist alles Käse. Man sieht es genauso wie Nvidias Brillinear bei der FX Reihe oder wenn Nvidia einen Shader mit FP16 oder FX12 ersetzt.. soll ich weitermachen?

Die ganzen kack Noobs im Netz die jetzt labern alles nicht so schlimm. Ist doch toll wenn ich mehr Performance habe waren die ersten die bei Nvidia geschrieen haben.

Ne ne Junx so nicht. ATi hat gecheatet und ist erwischt worden. So das ist mal der Fakt und deshalb sind die bisherigen Benchmarks total für die Tonne.
ATI sollte schleunigst einen Schalter für diese Optimierung anbieten ansonsten dürfte kein Reviewer den Crap den die da produzieren noch testen.
 
Blödsinn.
ASUS hat sogar Cheater-Treiber für jedermann in Umlauf gebracht und ist deswegen auch nicht ausgeschlossen worden.

Also übertreib mal nicht.
 
@Shagrath
Was willst du mit deinen blöden Post´s eigentlich bewirken?
Oder bist Du so Naiv?
 
Dann zeig mir mal wo ich Naivität zum Ausdruck bringe.
Ob die Posts nun blöd sind oder nicht steht nicht zur Debatte.

Ich lasse mich nur nicht auf diese ATI-darf-Cheaten-weil-nVidia-das-auch-tat und nVidia-hat-zuerst-beschissen-Diskussion ein - ist das denn so verwerflich?
Muss man immer ohne Hirn durch die Gegend laufen?
 
@Shagrath
Wenn Du nicht von selbst drauf kommst, dann kann ich Dir auch nicht helfen.
 
Und wenn Du mir nicht beitragen kannst/willst brauchst Du auch nicht Posten.
Ich kann mir schon denken welche Stelle der letzten Posts Du meinst - dazu sage ich dann nur: Besser Lesen, vielleicht auch mal die zweite Zeile!
Danke
 
Zurück
Oben