Frage zu CRT-Monitoren, Thema Lochmaske

Status
Für weitere Antworten geschlossen.
Hallo,

ja mein Dozent referiert leider sehr gerne über alte Technik.

Bei mir geht es eher drum, eine ordentliche ppp zu präsentieren. das thema wurde ausgelost. andere haben "modernere" Themen.

Er schrieb:

Hier noch eine Gedankenaufgabe:

Warum ist die Auflösung (1024x768) bei 17“ Monitoren auf diese krumme Zahl begrenzt ? (Thema Lochmaske)

Ich hätte wirklich gerne eine gute Note auf meine ppp (eine 2 wäre genug für mich)
Aber an diesem Punkt hänge ich fest. Teilweise verstehe ich leider eure antworten nicht.
Ich bin wirklich technisch nicht fit.
 
mein Diamondtron P1230 als auch der 514 pro können weitaus höhere Auflösungen als angegeben, das ist aber abhängig von Frequenz und Pixelclock vom Wandler.
möglich sind laut Datenblatt 2048 x 1536 @ 85Hz, allerdings war mein Sweetspot eher so bei 1600x1200, was aber auch völlig ausreichend ist bei 20".

https://www.lindy-international.com/USB-Type-C-to-VGA-Converter.htm
https://www.amazon.de/IB-SPL1031-3-fach-DisplayPort-Splitter-Verteiler/dp/B01NAWRQF1
https://hardforum.com/threads/24-wi...ived-comments.952788/page-435#post-1044652495

vielleicht hilft dir das weiter: https://www.amdtown.com/2OBXD4JP/
musst dich halt reinlesen
 

Anhänge

  • d6cc9379c30577b5.jpg
    d6cc9379c30577b5.jpg
    151,7 KB · Aufrufe: 174
schnuckihase16 schrieb:
Ich hätte wirklich gerne eine gute Note
Dann schreib deinen Dozenten eine Email oder geh in die Sprechstunde. Du hast dich ja jetzt ausgiebig mit dem Thema auseinandergesetzt und kannst mit ihm eine runde fachsimpeln, anschließend fragen was er denn überhaupt will. Vielleicht hat sich dann ja das Thema schnell geklärt.
 
  • Gefällt mir
Reaktionen: GokuSS4 und Incanus
ich versuche es mal mit der letzten Antwort von AGB-Leser

die verstehe ich fast.

Für mich ist vieles hier wie chinesisch

danke für die viele Hilfe
 
Ich würde wohl dann auch nochmal mit deinem neuen Wissen den Dozenten kontaktieren und nachfragen. Er möge dass doch zumindest etwas erläutern.
Zudem zeigt schon deine Nachfrage, dass du dich interessierst. Und das sollte jeder Dozent anerkennen.
 
schnuckihase16 schrieb:
ich bin wirklich technisch nicht fit.

Ich habe gerade mal versucht passende Links für Dich zu finden, aber es geht sehr schnell wirklich tief ins elektrotechnische Detail. Daher versuche ich es mal mit eigenen Worten:

Das Grundprinzip der Ansteuerung von CRT Monitoren ist seit der Erfindung des Fernsehens ungefähr gleich:

Wie Du glaube schon verstanden hast, wird das Bild der Röhre von einem Eleketronenstahl (bzw. im Falle von Farbe von drei Strahlen) gezeichnet. dieser Strahl beginnt in der linken, oberen Ecke der Röhre und geht dann Zeilenweise von oben nach unten, die Zeilen werden von Links nach rechts gezeichnet. Die Steuerung des Strahls erfolgt über zwei Magnetfelder, das eine bewegt den Strahl horizontal, das andere Vertikal.
Dabei muss man beachten, das der Strahl nicht "springen" kann, d.h. er bewegt sich auch nach jeder Zeile wieder nach links und am Ende des Bildes auch nach oben. Die Geschwindigkeit dieses "Rücklaufes" ergibt sich aus der Zeit wie sich das jeweilige Magnetfeld in den Spulen wieder abbaut. Der Rücklauf ist schneller als der Vorlauf, aber eben nicht unendlich schnell.

Nun hatte man früher analoge Elektronik die nichts "speichern" konnte, also hat man das Bild exakt so übertragen wie sich der Strahl bewegt hat, dabei stellt das Videosignal über den Spannungspegel die Helligkeit des Bildes an der jeweilen Stelle dar.
Für jede Zeile des Bildes sieht das Signal so aus:
https://www.eecg.utoronto.ca/~tm4/htiming.jpg

Zwischen den Zeilen befindet sich jeweils das "Blanking Intervall", das ist genau der Zeitraum indem der Strahl wieder nach links zurücklaufen kann.
Genauso gibt es eine Vertikale Austastlücke (engl. Blanking Intervall):
https://www.eecg.utoronto.ca/~tm4/vtiming.jpg, in der läuft der Strahl wieder nach links oben.

Das Timing der Videostandards ist historisch gewachsen und orientiert sich daran, was technisch möglich bzw. oft auch ökonomisch war:

So hat man sich bei der Erfindung des Fernsehens einen Zeitgenarator für das vertikale Timing sparen wollen, und hat daher einfach die immer vorhandene, und sehr genaue, Wechselfrequenz des Stromnetzes genommen. Daher hatten amerikanische Fernseher 60 (Halb)Bilder pro Sekunde, europäische 50. Da man aber die gleiche Horizontalfrequenz (15,625 Khz) verwendet hat, hat ein NTSC Bild 480 Zeilen und ein PAL Bild in Europa 576 Zeilen. Wenn man nachrechnet, passen diese Zeilen nur zur Hälfte in die 50/60 Bilder pro Sekunde, daher hat man früher einen Trick angewandt, und das Bild in zwei Halbbildern der halben Auflösung übertragen und den Strahl horizontal um eine Zeile versetzt.
Für Fernseher war das ok, aber für Computer unbrauchbar. Beim VGA Adapter hat IBM dann einfach die horizontale Frequenz verdoppelt (31,25 Khz, die genaue Frequenz bei IBM war leicht abweichend 31,469Khz) und konnte die 480 Zeilen in 60 Vollbildern übertragen.
Die 640 Pixel bei VGA horizontal kommen daher weil man früher 80 Textzeichen in einer Zeile darstellen wollte (Standard bei IBM Großrechner Terminals, die dann auch "Industriestandard" wurden), da die Zeichen 8 Pixel breit waren, kommt man auf 640 Pixel. Die 8 Pixel Zeichenbreite daher, weil die entsprechenden Bitmuster in einen der damals üblichen ROM/EPROM Chips gespeichert wurden: (https://de.wikipedia.org/wiki/Erasable_Programmable_Read-Only_Memory)


Wie IBM jetzt genau auf XGA gekommen ist kann ich Dir nicht sagen. Aber auch da werden entsprechende Optimierungs-Überlegungen eine Rolle gespielt haben.
Hier gibt es einen Artikel zu diesem Teil: http://www.os2museum.com/wp/the-xga-graphics-chip/

Aber die Frage Deines Dozenten macht für mich trotzdem keinen Sinn...

schnuckihase16 schrieb:
ja mein Dozent referiert leider sehr gerne über alte Technik.
Die ist auch durchaus faszinierend und interessant, und manches hilft auch beim Verständnis heutiger Technik oder auch Gebräuchen und Standards in der IT, aber man sollte es nicht übertreiben.
 
  • Gefällt mir
Reaktionen: andi_sco und SaxnPaule
Hallo nochmal

Ich hab mit meinem dozenten telefoniert.

Die lösung seiner meinung nach ist, dass man damals nur so viele löcher in der lochmaske aus platzgründen hatte, da die abstände zwischen den löchern nicht zu schmal sein durften.

Heutzutage gäbe es schon bessere
 
schnuckihase16 schrieb:
Warum ist die Auflösung (1024x768) bei 17“ Monitoren auf diese krumme Zahl begrenzt ? (Thema Lochmaske)

Dann ist die Frage aber falsch formuliert. Wie bereits mehrfach angemerkt wurde ist die Auflösung (Eingangssignal) nicht begrenzt sondern die Anzahl an tatsächlich dargestellten Bildpunkten. Du kannst die Auflösung im OS in den allermeisten Fällen deutlich höher einstellen als 1024x768 und der Monitor gibt dennoch ein Bild aus. Nur fehlt dann eben ein großer Anteil an Bildinformationen. Siehe Beitrag #6
 
  • Gefällt mir
Reaktionen: TomH22
So falsch ist die Frage nicht formuliert, denn egal was man theoretisch hineinschicken könnte, die Auflösung ist dennoch begrenzt. Ist ja wie bei der Fotografie, das ankommende Signal, die Wirklichkeit also, hat eine viel höhere Auflösung, als der Kamerasensor hinter dem Objektiv darzustellen vermag.
Nicht eindeutig formuliert ist die Frage allerdings, hinsichtlich der allgemeinen Festlegung 17"-Monitor, denn der Lochabstand wurde dabei nicht angegeben. Bei einem Abstand von 0,28mm wären bei theoretisch voll nutzbaren 345,44mm Breite eines 17"-Monitors ca 1.234 Pixel möglich, bei 0,25mm dagegen ca. 1.382 Pixel.
Die Festlegung auf 1.024x768 Pixel ist daher eher eine softwarebedingte, wie schon weiter oben mehrfach erwähnt, nicht aufgrund der Hardware.
 
schnuckihase16 schrieb:
Die lösung seiner meinung nach ist, dass man damals nur so viele löcher in der lochmaske aus platzgründen hatte, da die abstände zwischen den löchern nicht zu schmal sein durften.
Ja das ist schon klar. Und da der Elektronenstrahl auch einen gewissen Durchmesser hat und die Phosphor-"Pixel" auch eine gewisse Größe haben, gibt es natürlich technische Beschränkungen. Aber das ergibt nicht zwingend die Zahl 1024x768. Im Gegenteil, beim Röhrenmonitor war es eigentlich gar nicht üblich, dass die Auflösung der Lochmaske und die digitale Auflösung exakt übereinstimmten. Es passte nur ungefähr.

Aber da eventuell kannst Du bei Deinem Dozent ein wenig mit den historischen Aspekten punkten, die ich oben genannt habe, da findet sich auch weiteres Material zu im Internet.

Ein weiterer historischer Aspekt ist, dass selbst die heutigen Flatscreens und deren Schnittstellen (HDMI und Displayport) sich noch zu teilen an den alten analogen Standards orientieren. Das Timing der Signale mit den horizontalen und vertikalen Synchronimpulsen ist immer noch genauso, natürlich an die höheren Auflösungen angepasst. Und 60hz ist immer noch eine sehr beliebte Standard-Bildwiederholrate.
 
naja, ohne jetzt redundant in irgendwelche details zu gehen...
1024x768 waren schon in den 90ern bestenfalls bei wenig hochwertigen monitoren angesagt.
1600x1200 war auch bei hochwertigen geräten eher nicht ratsam, weil das ein zuviel war.

/edit: gemeint ist 17"

"die" gscheite auflösung für hochwertige 17er war 1280x1024 mit 85hz bildwiederholfrequenz.
waren aber sehr teuer, weil für die vertikalen 85hz eine hohe horizontalfrequenz (zeilenfrequenz), ~96khz nötig waren. und >90khz war die ausnahme, die mehrzahl war deutlich schlechter.

ich hab noch einen sony CPD-G200P mit .24er lochmaske, flat trinitron, jahr 2000/2001.
wunderschöne farben, auch heute noch.
und für den ist die ideale auflösung 1280x1024@85hz.
1600x1200 wirkt eher angestrengt.

die factory presets dieses modells:
1600 x 1200 / 75 Hz
640 x 480 / 60 Hz
800 x 600 / 85 Hz
720 x 400 / 70 Hz
1280 x 1024 / 85 Hz
832 x 624 / 75 Hz
640 x 480 / 85 Hz
1280 x 1024 / 75 Hz
1024 x 768 / 75 Hz
1024 x 768 / 85 Hz
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: andi_sco
whats4 schrieb:
ich hab noch einen sony CPD-G200P mit .24er lochmaske, flat trinitron, jahr 2000/2001.
wunderschöne farben, auch heute noch.
und für den ist die ideale auflösung 1280x1024@85hz.
1600x1200 wirkt eher angestrengt.

1280x1024 (5:4)? wieso nicht 1280x960 (4:3)?
 
Dann hat er aber ein ungewöhnliches Seitenverhältnis, denn bei CRTs war doch eher 4:3 üblich und daher bei 1.280x960 (oder den erwähnten 1.600*1.200) der Kreis rund.
 
schnuckihase16 schrieb:
Warum ist die Auflösung (1024x768) bei 17“ Monitoren auf diese krumme Zahl begrenzt ?
siehe unten

TomH22 schrieb:
über Rollkugel-Mäuse referiert
Weiß halt nicht jeder, das die Maus nicht unbedingt von Xerox kommt, sondern aus Good Old Germany von Telefunken

TomH22 schrieb:
Die ist auch durchaus faszinierend und interessant, und manches hilft auch beim Verständnis heutiger Technik oder auch Gebräuchen und Standards in der IT, aber man sollte es nicht übertreiben.
Ja, gerade war im Fotografie Forum hier die Diskussion, warum ein 1 Zoll Sensor keine 1 Zoll hat

SaxnPaule schrieb:
Du kannst die Auflösung im OS in den allermeisten Fällen deutlich höher einstellen als 1024x768 und der Monitor gibt dennoch ein Bild aus. Nur fehlt dann eben ein großer Anteil an Bildinformationen.
:confused_alt: Kann mich nur dran erinnern, das dann überhaupt kein Bild ausgegeben wurde

whats4 schrieb:
"die" gscheite auflösung für hochwertige 17er war 1280x1024 mit 85hz bildwiederholfrequenz
Jupp, 1024 war doch eher die 15 Zoll Riege
 
  • Gefällt mir
Reaktionen: whats4
An dieser Stelle ist dann jetzt auch Schluss.
Bitte beachte, dass hier natürlich ein Hilfeforum ist, wir allerdings nicht dazu da sind, um deine Aufgabenstellungen zu bearbeiten.

Die gegebenen Antworten reichen bereits mehr als aus bzw geben Ansatzpunkte und gehen ein ganzes Stück über das hinaus, was hier erlaubt ist.

https://www.computerbase.de/forum/threads/fragen-hausaufgaben-co.1767679/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: cartridge_case, paccoderpster und knoxxi
Status
Für weitere Antworten geschlossen.

Ähnliche Themen

E
Antworten
5
Aufrufe
3.551
E
Zurück
Oben