höhere Frequenz = Bild unschärfer

X__

Lieutenant
Registriert
Okt. 2002
Beiträge
647
Hi.

Wenn ich die Bildwiederholfrequenz erhöhe wird das Bild unschärfer. Es liegt nicht am Monitor (getestet mit 2. Monitor und 2. Computer).

Bei 60 Hz ist das Bild sehr scharf und bei 85 Hertz sehr unscharf.
Die Karte ist eine Gf2 MX 400. Hat jemand eine Ahnung, woran das liegen kann ? Der Bildschirm ist richtig installiert (Hersteller-*.inf).


X__
 
Welche Auflösung hast Du eingestellt ?
Von welcher Firma ist die Graphikkarte un der Monitor ?
 
Das ist eigentlich ein normales Verhalten, da die Elektronik näher an ihren Grenzen betrieben wird. Bei handelsüblichen Auflösungen und Refreshraten sollte das aber noch nicht zu nennenswerten Einbußen bei der Bildqualität führen. (bis ca. 1280 bie 85Hz).

Wie es scheint, hast du eine minderwertige MX erwischt. Versuche mal, die umzutauschen.
 
Unschärfen bei hohen Auflösungen und Wiederholfrequenzen liegen bei der GF2 am von Nvidia im Referenzdesign, welches von den meisten Herstellern übernommen wird, verwendeten analogen Tiefpassfilter.
 
Zuletzt bearbeitet:
Agesehn von schlechten Signalwegen,Abschirmungen oder Bauteilen hin zu DVI oder D-Sub Ausgnag der Grafikarte :

Hängt auch vom Monitor ab welche Lochmaske in milimeter er hat, wobei weniger gleich besser ist . 0.21milimeter Lochabstandt sind schon spitze und bei 21Zoll für saubere 1600x1200 meiner Meinungnach Minimum. (hat z.b. der 21" Syncmaster 1100p plus denn auch ich verwende)

Auch nicht unwichtig das VGA-Kabel, sollte gut abgeschirmt sein, keine Billig-Anschluskabel verwenden - die sind meist schlecht geschirmt was Reflektionen zu Nachbarletiungen im Kabel oder Einstrahlungen von aussen provoziert (Kabel wird quasi zur Antenne)

So typische "Schattenfragmente" im Bild sind meist Reflektionen weil dadurch Signale leicht doppelt geflankt werden.

Ein gutes Super-VGA-Kabel sollte es schon sein, ein guter Monitor mit wenig Lochabstandt und was die Grafikkarte betrifft ist hier ATI etwas besser.

Aufgrund besserer Signalwege empfiehlt es sich laut techannel.de bei NVidia-Karten mit DVI-Ausgang diesen per DVI->D-Sub - Adapter zu verwenden, hingegen bei ATI-KArten besser auf den D-Sub

Der Adapter sollter natürlich auch gut abgeschirmt sein, am besten ein Metallstück als "Vollgus".

cu ;)
 
Sorry für den Soppelthread jetzt, aber nicht uninteressant : Für alle die sich fragen wofür bei der ATI Radeon9700pro eigentlich die kleine Metallplate auf der Rückseite bei den Monitor-Ausgängen ist, einige behaupten es sei zwecks Kühlund - da die Platte aber keineswegs heiss wird - nicht mal richtig warm vermute ich da sie der Abschirumung dient (da auch in der näher der Bauteile für die Monitor-Ausgänge)
 
@HaPeLo:
nVidia verwendet höchstens auf ihren Mustern Tiefpassfilter, die im Handel erhältlichen Karten werden aber von anderen Herstellern gefertigt. Mit Pauschalisierungen ist keinem geholfen.

@Riptor:
Mit Pauschalisierungen ist keinem geholfen, s.o. Der steigende Kostendruck im unteren und mittleren Preissegment hat sich zuerst und mit am stärksten ab der MX-Serie ausgewirkt, mittlerweile ist aber auch Matrox kein Unschuldslamm mehr...


@DJDino:
Wenn du dich endlich mal registrieren würdest (*schubs, drängel*) könntest du deine Postings auch editieren......anmelden tut nicht weh.

Das Metallplättchen, dem du Abschirmfunktionen zuschreibst, wird bei mir zumindest doch ziemlich warm. Ob das eine oder andere jetzt die Primärfunktion ist weiss ich nicht, aber gut 45° bei offenem Betrieb sind nicht von schlechten Eltern IMO. :)
 
Zuletzt bearbeitet:
Original erstellt von Carsten @Riptor:
Mit Pauschalisierungen ist keinem geholfen, s.o. Der steigende Kostendruck im unteren und mittleren Preissegment hat sich zuerst und mit am stärksten ab der MX-Serie ausgewirkt, mittlerweile ist aber auch Matrox kein Unschuldslamm mehr...

Ändert trotzdem nichts an der Tatsache, dass eine GF2MX keine scharfen Bilder bei hohen Auflösungen liefert. Von einer OnBoard TNT2M64 will ich jetzt gar nicht reden.

Was Matrox angeht: Was meinst du mit "Matrox ist kein Unschuldslamm mehr"?
 
Eine schlechtere Darstellung der Grafikkarte kann wirklich an der Grafikkarte liegen, ich hatte da 3 Grafikkarten mit einem Nvidia-Chip in meinem Rechner.

GeForce1 SDR-RAM von Elsa - eine klare Darstellung, keine Probs bei hoher HZ-Rate.

GeForce3Ti500 von Inno3D - deutlich schlechter, bei hoher Hz-Rate absolut miserabel! Pixeln waren unscharf und flimmerten kräuselig. GraKa wieder verkauft, kurzweilig wieder die Elsa-Karte drin gehabt.

GeForce4Ti4200 von Leadtek - eine bessere Darstellung als bei Elsa bei hohen Hz-Raten, ist ja aber auch 3 Generationen weiter.

Ausserdem hat Nvidia immernoch noch nicht das im Frühjahr versprochene Zertifizierungsprogramm für GraKa-Hersteller gestartet, die eine gute Signalqualität bei Nvidia-Karten versprochen soll.
Hat Nvidia Angst dass ihre Chips nicht mehr so gut verkaufen wenn einige/viele Hersteller durchfallen würden und kein Etikett bekommen? Oder befürchten sie eine Teurerung von GraKas wenn sie nun bessere Bauteile verlötet werden müssen? Nvidia lebt ja hauptsächlich von Low-Budget Produkten.
 
Zuletzt bearbeitet:
Original erstellt von Riptor
Ändert trotzdem nichts an der Tatsache, dass eine GF2MX keine scharfen Bilder bei hohen Auflösungen liefert. Von einer OnBoard TNT2M64 will ich jetzt gar nicht reden.

Was Matrox angeht: Was meinst du mit "Matrox ist kein Unschuldslamm mehr"?

Was du hier als Tatsache hinstellst, trifft tatsächlich auf viele Karten auf Basis der GF2MX zu, ist aber kein gottgegebenes Faktum.

Mit dem letzten Satz Matrox betreffend meine ich die Signalqualitätstests betreffs der Parhelia. Diese haben deutlich gezeigt, dass Parhelia wohl deutlich gegenüber der G550 nachgelassen hat.
 
Original erstellt von Carsten
Was du hier als Tatsache hinstellst, trifft tatsächlich auf viele Karten auf Basis der GF2MX zu, ist aber kein gottgegebenes Faktum.[/b]

Habe ich auch nie irgendwo behauptet. Ich habe nur gesagt, dass die GF2MX "allgemein" ein schlechtes Bild liefert.

Mit dem letzten Satz Matrox betreffend meine ich die Signalqualitätstests betreffs der Parhelia. Diese haben deutlich gezeigt, dass Parhelia wohl deutlich gegenüber der G550 nachgelassen hat.


So? Interessant, hast du dazu nen Link oder einen Vergleich? Denn eigentlich sollte die Parhelia ein ganz vorzügliches Bild liefern, jedenfalls nach Aussagen von großen Hardware-Pages. Dass ich aber noch nie nen Test dazu gesehen habe, war ich mir da sowieso noch nicht so sicher... :)
 
Original erstellt von Riptor
Habe ich auch nie irgendwo behauptet. Ich habe nur gesagt, dass die GF2MX "allgemein" ein schlechtes Bild liefert.

Und genau dieses "allgemein" wird leicht zu einem Pauschalurteil, welches so nicht richtig ist.


So? Interessant, hast du dazu nen Link oder einen Vergleich? Denn eigentlich sollte die Parhelia ein ganz vorzügliches Bild liefern, jedenfalls nach Aussagen von großen Hardware-Pages. Dass ich aber noch nie nen Test dazu gesehen habe, war ich mir da sowieso noch nicht so sicher... :)

Bitte sehr. Ein kleiner Auszug:
Matrox überzeugt mit seinem jüngsten Chip Parhelia-512 nicht. [...] Die einstigen Stärken und Vorteile wie gute Signalqualität und Mehr-Monitor-Betrieb sind verpufft oder wurden von der Konkurrenz eingeholt.


Traurig, aber wahr, auch in der c't hat Parhelia nicht so dolle abgeschnitten.
 
Zuletzt bearbeitet:
Original erstellt von Carsten
Und genau dieses "allgemein" wird leicht zu einem Pauschalurteil, welches so nicht richtig ist.[/b]

? Also komm, jetzt wirds Erbsenzählerei... :D Ich verstehe ja, was du meinst, aber urteilen muss noch jeder selbst. Und ich denke, bei einer GF2MX kann man allgemein davon ausgehen, dass die 2D-Leistung ein wenig bis ganz arg hinkt... ;)

Traurig, aber wahr, auch in der c't hat Parhelia nicht so dolle abgeschnitten.

Nun, dass die Parhelia nicht sonderlich gut abgeschnitten hat, liegt wohl an der Performance, aber dass die 2D-Qualität schlechter geworden ist, kann ich jetzt NICHT bestätigen. Jedenfalls geben die Tests keinen Anlaß dazu. Klar ist, dass die Konkurrenz in Sachen Bildqualität aufgeholt hat, aber Matrox ist keinesfalls stehengeblieben.

"Die Darstellungsqualität will der Parhelia-512 mit der 10-Bit-GigaColor-Technologie verbessern. Statt wie bisher 8 Bit Farbtiefe pro RGB-Kanal bietet der Parhelia-512 10 Bit pro Kanal. Der Chip erzeugt rund eine Milliarde Farben (30 Bit). Damit sind weichere Farbübergänge ohne Stufen-Effekte möglich. Bislang konnten Grafikkarten für PCs maximal 16,8 Millionen verschiedene Farben (24 Bit) darstellen."

"Für die Verbesserung der 2D-Textqualität ist der Parhelia-512 in der Lage, mit der Glyph-Antialiasing-Technologie Schriften Hardware-beschleunigt zu glätten und eine variable Gammakorrektur durchzuführen. Betriebssysteme wie Windows XP und 2000 erledigen diese Aufgabe in Software, allerdings mit Performance-Verlusten."

"Durch die Verwendung hochwertiger Filter verspricht Matrox eine bessere Signalqualität des VGA-Ausgangs. Filter fünfter Ordnung und ein optimiertes 8-Layer- PCB-Design sollen den Signalpegel über den gesamten Frequenzverlauf des RAMDACs konstant auf optimalen 700 mV halten und Farbverfälschungen und Schatteneffekte mindern."

Mit dem FAZIT

"Die einstigen Stärken und Vorteile wie gute Signalqualität und Mehr-Monitor-Betrieb sind verpufft oder wurden von der Konkurrenz eingeholt."

wird gemeint: Matrox hat keinesfalls in den Domänen (2D)Bildqualität und Signalqualität nachgelassen, aber die Konkurrenz hat aufeholt. Und deshalb hat die Parhelia noch weniger Gründe, gekauft zu werden. Schlechter wurde die Karte in den oben genannten Bereichen aber wohl nicht.
 
@Crazy_Bon:

Full ack.

@Riptor:
Auf einmal geht's um die 2D-Leistung?? Naja, ich denke, zur Bildqualität ist alles gesagt, die kann schlecht sein, kann aber auch gut sein.

Was deine absolutistische Interpretation des Tecchannel-Fazits angeht, bin ich dann wohl zu dumm eine so offensichtlich eindeutige Aussage zu erkennen. Deine ersten drei Teilquotes sind jedoch mitnichten im Fazit, sondern eine Beschreibung der Features und dessen, was sie bewirken sollen, nicht dessen, was im Endeffekt davon auch ankommt.


Jedoch schrieb die c't (14/02, S.22)da wiederum ganz andere Dinge. Im Endeffekt erhielten die VGA-Signalqualität ein "zufrieden stellend" und die Video-Signalqualität ein "schlecht", wobei die VGA-SQ bei 1280 und 85Hz noch als sehr gut bezeichnet wurde, darüber aber auf den Level handelsüblicher GF4- und R8500-Durchschnittskost abfiele, die Video-Bandbreite fiele am Composite-Ausgang auf den halben Wert der Marvel G450 und läge auch nur auf dem Niveau der GF4-Karten. Das meinte ich u.a. mit "Diese haben deutlich gezeigt, dass Parhelia wohl deutlich gegenüber der G550 nachgelassen hat.".
 
Wenn es um die 2D-Leistung geht, vom ganzen Chip sind gerade mal etwa 2% von den ganzen Transistoren für den Bereich 2D zuständig, habe ich mal irgendwo gelesen. Bei einem Koloss wie der ATi Radeon 9700 mit 100 Millionen Transistoren verpufft der Anteil geradezu.
Bei moderenen Chips ist die Leistung bei allen gleich, die Zeiten sind vorüber als die 2D-Leistung noch ein Kaufargument war.
Ich hoffe, dass eines Tages das gleiche auch für 3D gilt, bis dahin gibt es schon Holodecks alá Star Trek. :lol:
 
Radeon9700pro kaum besser

Da ich die Radeon9700pro + guten Monitor (Samsung Syncmaster, 0,21 Lochabstand)+ doppelt geschirmtes SVGA-Kabel habe kann ich sagen das diese Karte im Gegensatz zur einer Geforce4Ti nur wirklich etwas bessere Schärfe bei über 1280x960 liefert.
 
Na, danke erstmal an alle.

Dann wird es wohl die Karte selbst sein.
Ich habe unter 1024x768 getestet. Da sind 85 Hz schon
unglaublich!! unscharf. Am Kabel liegt es nicht, die habe ich mit den Monitoren getauscht

Ach ja: Monitore u. a. der Belinea 107035. Der macht an einem anderen Computer ein gestochen scharfes Bild.

:(
 

Ähnliche Themen

Zurück
Oben