Bericht Bericht: nVidias G70 (Update 31.08.05)

MCC schrieb:
Ich hoffe der kleine Tobias123 fühlt sich nun wohl. Zum Thema beitragen konnte er ja nix.

Tzzzzz.....

Diese Private-Nachrticht habe ich gerade von User "MCC" bekommen:

>>So wie du schreibst paßt du voll in das Bild des frustrierten Users, der "un-objektiv" >>seine eigenen abgeschlossenen Handlungsschritte versucht zu rechtfertigen... Ist ein >>Phänomen aus der Psychologie... such mal bei Google nach "Psychologie und Framing"...

>>Junge komm erstmal in mein Alter ich hatte schon Grafikkarten da bist du noch mit der >>Laterne um den Weihnachtsbaum gelaufen. Soviel dazu. Offensichtlich hast du ein >>Problem damit deinen Ati Grafikkartenkauf zu rechtfertigen und musst jedem deine >>Meinung aufdrängen. Getroffene Hunde bellen, danke dafür.

>>Und belehrende Aussagen ohne Grundlage wie "Es geht aber nicht um die 6800. Hast es >>endlich begriffen?" zeugen von Hilflosigkeit bei der Argumentation...

>>Nein du bist einfach zu dämlich um den Thread richtig zu erfassen! ES GEHT UM DAS >>FLIMMERN DES G70!!!!
>>Und da juckt es niemanden ob du ein X800,6800GT oder einen Voodoo1 hast oder nicht , >>wo nix flimmert.

>>Ich mag keine Leute die außer nur dumm labern und keine Belege liefern.

>>Ich habe fertig.


Mal abgesehen von der persönlichen Beleidigung ist das genau das Niveau das ich erwartet habe... danke für die Bestätigung...

Wollen wir unser Computerwissen und unseren Bildungsstand vergleichen? Hört sich ja so an als wenn du ein echter Profi bist ;-)
 
Thargor schrieb:
Nur sieht mans da angeblich nicht so deutlich.

Dafür sieht man wieder andere Sachen deutlich, die einem nicht gefallen.
Schau bespielsweise mal Doom3 oder Trackmania Surprise ( http://rage3d.com/board/showthread.php?t=33820524&highlight=Trackmania ) an, der Unterschied zu einer Nvidia Karte ist überdeutlich. Das traurige ist ja das dann Leute wie Tobias123 kommen und das nicht sehen wollen oder anders gesagt sich daran gewöhnt haben, und es nicht mehr wahr haben wollen.
Ich mache mir mal die nächsten Tage die Mühe und poste ein paar Screenshots um mal einigen hier die Augen zu öffnen.

Tobias123 schrieb:
Mal abgesehen von der persönlichen Beleidigung ist das genau das Niveau das ich erwartet habe... danke für die Bestätigung...

Danke , da war meine Ansicht ja doch genau richtig , daß du es nötig hast dich mitzuteilen.
Lies dir mal deinen Thread zuvor genau durch, bevor du das Wort Beleidigung nochmal erwähnst. Wer A sagt...
Hab keine Lust mit so welchen Ati Fanboys wie dir, meine kostbare Zeit zu verschwenden.
 
Zuletzt bearbeitet von einem Moderator:
MCC schrieb:
Danke , da war meine Ansicht ja doch genau richtig , daß du es nötig hast dich mitzuteilen.
Lies dir mal deinen Thread zuvor genau durch, bevor du das Wort Beleidigung nochmal erwähnst. Wer A sagt...
Hab keine Lust mit so welchen Ati Fanboys wie dir, meine kostbare Zeit zu verschwenden.

;-)

Ich sitze gerade übrigens an meinem 2ten Rechner... Da ist eine GF4 drinnen... hab noch nie was gegen NVidia gehabt...

Dann wünsche ich dir mal eine "effektive Zeiteinteilung"...
 
Die Frage ist doch gar nicht, ob Optimierung oder nicht, sondern ob danach die Bildqualität noch stimmt. Ich bin auch gerade von einer Ati 9800 auf eine 6800GT umgestiegen, habe immer mit vollen Optimierungen gespielt und war mittelmäßig enttäuscht über die Bildqualität der Nvidia Karte. Erst mit hoher Qualität hat man ein gutes Bild, vom AA mal abgesehen, das erst auf 8s ähnliche Bilder liefert wie ATI auf 4-fach. Dann sind aber alle Performancevorteile der neuen Karte dahin.
Es ist ja schön, dass man nun bei der 6800er alle Optimierungen ausschalten kann, und vielleicht bald auch bei der 7800er, aber das kostet eine Menge Performance, bei UT2004 etwa 20 Prozent. Und genau deshalb ist ATI bisher immer besser als Nvidia gewesen, denn die erreichen bei gleicher Bildqualität eine bessere Performance.
Wer das abstreitet, leidet offensichtlich an kognitiver Dissonanz. Ich bin jedenfalls kein Jünger irgendeiner Firma, sondern benutze abwechselnd beide, um ein Bild auf meinem Monitor darstellen zu können. Und als Endnutzer sehe ich auf meinem Monitor, dass Nvidia sich seit der 5700 nur noch über mehr Frames seine offensichtlich betriebsblinde Kundschaft hält. Oder über massive Preissenkungen, wie in meinem Fall ;-)
 
Besteht die Möglichkeit wieder zurück zum Thema zu kommen, oder wird das jetzt euer "Ich weiß mehr wie du" Thread?

@topic
Also meine Meinung ist eigentlich das die ganze Flimmer Geschichte etwas hoch gebauscht wird und für den Enduser weniger Bedeutung hat (Ich habe jedenfalls noch kein Flimmern so stark wahr genommen das es mich gestört hätte) Ich habe vor diesem Bericht auch noch NIE einen Thread gesehen wo ein User gepostet hat "Hilfe meine neue 7800GTX flimmert". Kommt mir irgenwie so vor wie wenn einer sagt er hatte Läuse und der ganze Kopf hat gejuckt......kurze Zeit später kratzen sich dann alle am Kopf :)
 
dahum schrieb:
Die Frage ist doch gar nicht, ob Optimierung oder nicht, sondern ob danach die Bildqualität noch stimmt. Ich bin auch gerade von einer Ati 9800 auf eine 6800GT umgestiegen, habe immer mit vollen Optimierungen gespielt und war mittelmäßig enttäuscht über die Bildqualität der Nvidia Karte.

Die Frage ist sehr wohl Optimierung oder nicht. Ich zocke grundsätzlich ohne Optimierungen! Mit Optimierungen enabled ,bekom ich weder bei Ati noch bei Nvidia ein vernünftiges Ergebnis!


Erst mit hoher Qualität hat man ein gutes Bild, vom AA mal abgesehen, das erst auf 8s ähnliche Bilder liefert wie ATI auf 4-fach. Dann sind aber alle Performancevorteile der neuen Karte dahin.

MegaLOL! Das 8xS der Nvidia ist dem 4xAA der Ati haushoch überlegen und hat SupersamplingAnteil. Natürlich kostet das Leistung dafür ist das Bild auch deutlich homogener! Man kann es auch krasser ausdrücken und sagen das Ati mit Multisampling immer flimmert , während man bei Nvidia die Wahl des deutlich besseren Supersampling AA hat. Zudem unterstützen alle neueren Forceware Treiber GC AA wie es auch die Atis können und ist daher gleichwertig.

Es ist ja schön, dass man nun bei der 6800er alle Optimierungen ausschalten kann, und vielleicht bald auch bei der 7800er, aber das kostet eine Menge Performance, bei UT2004 etwa 20 Prozent. .

Bildqualität kostet immer Leistung. Manche geben sich auch mit weniger zufrieden, meinetwegen. :rolleyes:

Und genau deshalb ist ATI bisher immer besser als Nvidia gewesen, denn die erreichen bei gleicher Bildqualität eine bessere Performance..

Wo denn z.b.?
 
dahum schrieb:
Die Frage ist doch gar nicht, ob Optimierung oder nicht, sondern ob danach die Bildqualität noch stimmt. Ich bin auch gerade von einer Ati 9800 auf eine 6800GT umgestiegen, habe immer mit vollen Optimierungen gespielt und war mittelmäßig enttäuscht über die Bildqualität der Nvidia Karte. Erst mit hoher Qualität hat man ein gutes Bild, vom AA mal abgesehen, das erst auf 8s ähnliche Bilder liefert wie ATI auf 4-fach. Dann sind aber alle Performancevorteile der neuen Karte dahin.
Es ist ja schön, dass man nun bei der 6800er alle Optimierungen ausschalten kann, und vielleicht bald auch bei der 7800er, aber das kostet eine Menge Performance, bei UT2004 etwa 20 Prozent. Und genau deshalb ist ATI bisher immer besser als Nvidia gewesen, denn die erreichen bei gleicher Bildqualität eine bessere Performance.
Wer das abstreitet, leidet offensichtlich an kognitiver Dissonanz. Ich bin jedenfalls kein Jünger irgendeiner Firma, sondern benutze abwechselnd beide, um ein Bild auf meinem Monitor darstellen zu können. Und als Endnutzer sehe ich auf meinem Monitor, dass Nvidia sich seit der 5700 nur noch über mehr Frames seine offensichtlich betriebsblinde Kundschaft hält. Oder über massive Preissenkungen, wie in meinem Fall ;-)

Dito! Genau so sehe ich das auch...
Ich habe generell nichts gegen Optimierungen, wenn sie einen guten Kompromiss zwischen Bildqualität und Performance sind. Und die X800 ist mit Optimierungen 1. sehr schnell und 2. sind so gut wie keine Artefakte erkennbar. Bei der 6800'er war es so, dass sie per Default (also mit Optimierungen) deutliche Artefakte produzuerte, die sofort (zumindest mir) aufgefallen sind. Also muss man die Karte mit "HighQuality" betreiben... und hier geht die Performance dann (wie bei UT2004) bis zu 20% runter. Das finde ich unbefriedigend...
Und wie gesagt, früher (ohne Clamp-Option im Treiber) waren die Artefakte auch unter HighQuality sichtbar, so dass es überhaupt keine Möglichkeit gab ein "ruhiges Bild" zu erhalten.
Deshalb habe ich letztendlich die GF6800 wieder zurückgegeben und mir die X800 geholt...

Und wenn die GF7800 tatsächlich eine Steigerung bzgl. des Flimmerns mit sich bringt, ist das nicht mehr akzeptabel.
Schon damals bei der GF6800 war es ja nicht so, dass man mit der Lupe danach gesucht hat, nein, es fiel sofort auf (vorher Radeon 9800). Es hat quasi 1 Minute gedauert, bis ich mich gefragt habe, was da bei Gothic2 nicht stimmt als die Pflastersteine in der Stadt angefangen haben zu blinken... und das ging dann bei jedem Spiel so weiter....

Und es gab ja genug Leute, die das Problem relativ schnell erkannt haben:
http://www.nvnews.net/vbulletin/showthread.php?t=35592
http://www.mitrax.de/?cont=artikel&aid=24&page=14
...

Ich fand dieses "Schimmern" auf jedenfall extrem schlimm... also nicht nur leicht störend, sonder es war für mich ein KO-Kriterium...
Und deshalb kann ich nun auch nicht akzeptieren, dass die GF7800 anscheinend ähnlich oder sogar noch schlechter filtert....
Vielleicht braucht man ein lang nachleuchtendes TFT um diesen Effekt nicht zu erkennen, aber auf jedem Röhrenmonitor fällt es sehr stark auf...

MCC schrieb:
hat. Zudem unterstützen alle neueren Forceware Treiber GC AA wie es auch die Atis können und ist daher gleichwertig.

Ja, die GF7800 hat AA mit GC.... die GF6800 nicht.... ist ein Hardware-Feature und hat nichts mit Treibern zu tun...
 
Zuletzt bearbeitet von einem Moderator:
@Ralf0_1 du weisst ja noch nichtmall was high quality bedeutet also erzähle hier kein stuß das bei dir nichts flimmert,:rolleyes: .Auf quality flimmerts sogar auf einer 6800.
 
Zuletzt bearbeitet:
Tobias123 schrieb:
Ja, die GF7800 hat AA mit GC.... die GF6800 nicht.... ist ein Hardware-Feature und hat nichts mit Treibern zu tun...

Natürlich funktioniert GC AA auch mit 6800er Karten! Und das schon seid langer Zeit.
 
Ich habe jedenfalls noch kein Flimmern so stark wahr genommen das es mich gestört hätte
Hab heute mal mit einem Freund gesprochen, der Besitzer einer 7800GTX ist. Ihm zumindestens ist es schon aufgefallen, daß die Qualität stellenweise bescheiden ist.
Und nein, er hat in keinem Forum deswegen einen Thread eröffnet.

Die Frage ist wohl, warum darf der User nicht entscheiden, ob er auf Kosten von etwas Performance dafür eine optimale Qualität haben möchte. Kann man die Karte dann nicht mehr so hochjubeln, drückt das den Preis? Wen's nicht stört, der kann's doch weiter flimmern lassen und glücklich sein.

Den Effekt der Deaktivierung der Optimierungen mittels High Quality bei der 6800 kann ebenso erreicht werden durch die entsprechenden Korrekturen im Treiber und dem Belassen auf Quality. Dadurch wird der Performancerückgang deutlich geringer.

Dieses geht ja nun leider bei der 7800 nicht mehr, nicht einmal bei High Quality, Nvidia bevormundet den User erneut, indem er ihm keine Wahl lässt. Gratulation.
In einem halben Jahr gibt's dann wohl wieder Treiber mit den passenden Optionen, hoffentlich.

Mal sehen, was ATI beim 530 so optimiert, wenn er denn überhaupt noch mal rauskommt.

Ansonsten kann ich Dahum nur beipflichten.
 
Ich kann mich noch an ein Interview erinnern, wo man einen Nvidia Verantwortlichen nach den AF-Optimierungen im Treiber befragte. Daraufhin sagte er: Alle User schrien bei der 5900 Serie auf , das sie so langsam sei und viele User kauften sich darum eine 9700 Pro Karte weil viele User mit dem verminderten AF zufrieden seien...
Nun haben wir den Salat der Kunde hat entschieden , er will längere Balken.
Bleibt nur zu hoffen das Nvidia es beim 7800GTX ermöglicht wieder den sehr guten HighQuality Modus der 6800 Karten anzubieten, dafür verzichte ich gerne auf etwas Speed.
 
MCC schrieb:
Natürlich funktioniert GC AA auch mit 6800er Karten! Und das schon seid langer Zeit.
Ja, jedoch wird das Gamma angepasste AA nicht in der Hardware, sondern per Treiber auf einem NV4x relaisiert, was recht viel Performance klaut.
 
Mal eine andere rechtliche Frage:

Berechtigt ein "solcher" Mangel der Karte eigentlich zur "Wandelung"?

Wenn man sich einen neuen Fernseher kauft, dazu noch ein "High-End Gerät"
und der flimmert oder das Bild ist unscharf, würde ihn doch jeder normale Kunde
zurückgeben wollen, oder? - man kann den Kunden doch nicht damit vertrösten, dass irgendwann in der Zukunft vielleicht ein Treiber / Bios Update rauskommt?
 
_Grisu schrieb:
Mal eine andere rechtliche Frage:

Berechtigt ein "solcher" Mangel der Karte eigentlich zur "Wandelung"?

Wenn man sich einen neuen Fernseher kauft, dazu noch ein "High-End Gerät"
und der flimmert oder das Bild ist unscharf, würde ihn doch jeder normale Kunde
zurückgeben wollen, oder? - man kann den Kunden doch nicht damit vertrösten, dass irgendwann in der Zukunft vielleicht ein Treiber / Bios Update rauskommt?

Gute Frage...
Würde mich auch mal interessieren...

Zumal: Eigentlich bezahlt man ja bei Grafikkarten ausschließlich ihre "Aktualität", sprich: das Neuste und Schnellste ist immer das Teuerste. Im Laufe der Zeit wandelt sich dann ein ursprünglich teures Produkt in ein Low-Cost Produkt...

In 1-2 Jahren wird eine GF7800 womöglich eine Einsiegskarte sein, ähnlich wie eine ursprüngliche High-End-Karte wie die Radeon 9800 es jetzt ist...

Deswegen kann ich damit auch nicht leben, dass es umfangreiche Nachbesserungen an einem Produkt gibt, dessen Kosten einzig und allein durch den Zeitwert bestimmt wird.

Wer sich ein Produkt für 500€ kauft und 10 Monate warten muss (wie bei der GF6800 bzgl. Clamp-Option und Videoprozessor) bis es einigermaßen das tut was man beim Kauf ohnehin erwartet hat, hat mal eben ein paar hundert Euro in den Sand gesetzt..
 
Kann bei diesem Thema Tobias123 nur zustimmen - viele Nvidia Besitzer wollen es halt einfach nicht wahr haben - was ist aber so schlimm daran, wenn jemand seine sachliche Meinung und imho auch die Wahrheit sagt !?!
Sogar Nvidia selbst hat das Problem mit dem Texturflimmern der GeForce 7800 Serie (welches viele Besitzer einer solchen Karte hier verleugnen) eingestanden und versuchen (!) daran zu arbeiten (was allerdings fast sicher auch zu Performance verlust führen wird). :mad:

Zitat:
19.08.2005, 10:32
"NVidia arbeitet am Flimmerfehler
Problem mit Texturflimmern ist identifiziert, Lösung in Aussicht gestellt

Bei aktiviertem anisotropen Filter neigt vor allem die neueste Generation der GeForce 7800 Serie zu Texturflimmern, wenn sich der Betrachtungswinkel ändert. Jetzt hat nVidia aber Besserung gelobt
.

Auf Anfrage von nV News erklärte Brian Burke von nVidia, dass man das Problem identifiziert hat und an einer Lösung arbeitet. Man hofft, in Kürze einen Bugfix bereit stellen zu können.
Über die Ursache des Problems und die Form der Lösung schweigt sich Burke leider aus. Vermutlich wird es eine neue Treiberversion geben, in der dann in der High-Quality Einstellung das Texturflimmern abgestellt ist"
.
http://www.hartware.de/news_38301.html

MfG
 
Zuletzt bearbeitet:
Wolfgang schrieb:
Ja, jedoch wird das Gamma angepasste AA nicht in der Hardware, sondern per Treiber auf einem NV4x relaisiert, was recht viel Performance klaut.

Das kostet genauso viel oder weniger Performance wie mit der 7800GTX auch! Ich nutze GCAA schon seid langer Zeit mit den 6800 Karten und von Performanceeinbußen hab ich nix mitbekommen. Das wird alles im Treiber realisiert und nicht in der Hardware.
 
Zuletzt bearbeitet:
MarvLeo schrieb:
Kann bei diesem Thema Tobias123 nur zustimmen - viele Nvidia Besitzer wollen es halt einfach nicht wahr haben - was ist aber so schlimm daran, wenn jemand seine sachliche Meinung und imho auch die Wahrheit sagt !?!
Sogar Nvidia selbst hat das Problem mit dem Texturflimmern der GeForce 7800 Serie (welches viele Besitzer einer solchen Karte hier verleugnen) eingestanden und versuchen (!) daran zu arbeiten (was allerdings fast sicher auch zu Performance verlust führen wird).
MfG

Hallo? Natürlich flimmert die 7800GTX das zweifelt hier auch niemand an. Aber hier gehts um das Flimmerproblem des G70 und nicht eines NV40 (der völlig anders filtert!).
 
MCC schrieb:
Das kostet genauso viel oder weniger Performance wie mit der 7800GTX auch! Ich nutze GCAA schon seid langer Zeit mit den 6800 Karten und von Performanceeinbußen hab ich nix mitbekommen. Das wird alles im Treiber realisiert und nicht in der Hardware.
Nope, das kann eigentlich nicht sein. Das gamma-angepasste AA kann eine GeForce 6800 nicht in Hardware, so wie du das auch sagst. Darum muss der Treiber das übernehmen, jedoch sinkt die Performance stellenweise recht stark. Das habe ich eben nochmal auf meinem System nachgemessen, das stimmt.

Die GerForce 7800 GTX behersscht das gamma-angepasste AA jedoch in Hardware, ebenso alle ATi-Chips ab dem R300. Dort geht keine Performance mehr verloren.
 

Ähnliche Themen

Zurück
Oben