Bericht C:\B_retro\Ausgabe_33\: Apples iMac G3 war vieles, aber nicht mausgrau

Also jeder CRT aus der letztrn Serie dürfte einen besseren Schwarzwert als ein LCD bzw. QLED haben. Wobei letzteres eh nur Marketinggewäsch ist.

Ob ein CRT an einen OLED rankommt, schwer zu sagen. Hab einen OLED aber keinen CRT zum Vergleich.

Das einzige was ich vergleichen kann ist mein TFT Monitor gegen den OLED TV und da ist der Unterschied schon extrem.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Grund des Vorschlags ist übrigens dieses Video hier:


Die handeln zwar eigentlich schon alles ab aber eben nur auf englisch.
 
  • Gefällt mir
Reaktionen: netzgestaltung
Wo bekomme ich jetzt einen FW900 her um das selbst zu Testen? Ich habe das Bild von CRTs nämlich als sehr unruig im Kopf weshalb ich nie lange drauf schauen konnte den Letzten CRT den ich gesehen habe war vor 1 Jahr (Ausbildung, Media Wagen in der Berufsschule, während in der Werkstatt 6 55" FHDs liegen und niemand etwas damit anzufangen wusste... und 2m hinter dem CRT hängt ein FHD Beamer welcher ebenfalls ein Super Bild liefert.) Damals habe ich den Raum verlassen weil ich nach kürzesster Zeit Kopfschmerzen hatte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: netzgestaltung
Warum erinnert mich das MacOS9 in dem Video so krass an AmigaOS b.z.w. die Workbench für den Amiga damals ?!??

Gruss HL
Ergänzung ()

Affenzahn schrieb:
Grund des Vorschlags ist übrigens dieses Video hier:


Die handeln zwar eigentlich schon alles ab aber eben nur auf englisch.
Leider kann man CRT's ja an aktuellen Grafikkarten nicht meht betreiben, hab hier noch nen guten IYama auf Ende der 90er.
Also das noch ging hab ich den auch immer mal wieder angeklemmt und gestaut wieviel toller das Bild auf dem ist, aber Auflösung kommt halt nicht mehr hinterher, FullHD solls dann schonn sein und die CRT's sind ja nunmal leider bei 1280x1024 oder sowas stehen geblieben.
Sobald da HDReady draussen war mit 1650x1080 oder so, haste da keine Lust mehr drauf.

Es sei denn natürlich es gab/gibt da Geräte die mit digitalem aus DVI was anfangen können, analog über D-Sub geht da nichts mehr. bei NV seit der 1000er Pascal Serie schon nicht mehr.
An einer 7870 beispielsweise ging es noch.

Gruss HL
 
Zuletzt bearbeitet:
HasseLadebalken schrieb:
Warum erinnert mich das MacOS9 in dem Video so krass an AmigaOS b.z.w. die Workbench für den Amiga damals ?!??

Gruss HL
Ergänzung ()


Leider kann man CRT's ja an aktuellen Grafikkarten nicht meht betreiben, hab hier noch nen guten IYama auf Ende der 90er.
Also das noch ging hab ich den auch immer mal wieder angeklemmt und gestaut wieviel toller das Bild auf dem ist, aber Auflösung kommt halt nicht mehr hinterher, FullHD solls dann schonn sein und die CRT's sind ja nunmal leider bei 1280x1024 oder sowas stehen geblieben.
Sobald da HDReady draussen war mit 1650x1080 oder so, haste da keine Lust mehr drauf.

Es sei denn natürlich es gab/gibt da Geräte die mit digitalem aus DVI was anfangen können, analog über D-Sub geht da nichts mehr. bei NV seit der 1000er Pascal Serie schon nicht mehr.
An einer 7870 beispielsweise ging es noch.

Gruss HL

Und AMD ab Polaris, da waren GCN 2(?) und Maxwell die letzten mit DVI-I.
Ansonsten gibts Adapter von DP auf VGA.

@High Definition Ganz meine Meinung, zudem stagniert es optisch seit Jahren, auf dem Übersichtsbild am besten an der Seite zu sehen, die Front ist seit 2007 dieselbe, wird mal Zeit für Tri Bezel-Less.
Und die Farben sind mir auch zu blass/Pastell (bunt gibts aktuell auch nur bei iPhone, iPod touch und Watch), etwas mehr Intensität so wie früher beim iPod nano wäre ganz gut.
Dieses mMn absolut hässliche Staub-/Mausgrau bei Microcrap Surface ist da allerdings noch schlimmer, weniger bei den Geräten, die eher silbern sind, als viel mehr bei der Peripherie, Mäuse, Tastaturen, Kopfhörer.

Und die Ladegeräte in nach wie vor weißem Plastik passen mMn auch nicht mehr zu den Geräten, fände mal was sowas mit Alu ähnlich wie RavPower mit F.A. Porsche interessant: https://www.teltarif.de/porsche-powerbank-ravpower-test/news/71114.html
https://i0.wp.com/blog.ravpower.com...VPower-Studio-F.-A.-Porsche-Charger.png?w=768
Beispielsweise zum MacBook dann in der bestellten Farbe (gegen 50-100€ Aufpreis :daumen: würde mich nicht mehr wundern bei 350€ für ein paar popelige Füße, 850€ für nen Satz Rollen und 1000€ für nen Monitorständer, nicht zu vergessen knapp 400€ für ne "magische" Tastatur, mit der das große iPad Pro dann mehr als ein MacBook Air/Pro(?) gleicher Diagonale wiegt).
Aber zumindest den Pro Stand für den iMac einfach vom Pro Display XDR übernehmen (und nur ein paar kleine Teile verändern) wäre keine schlechte Idee, da kommen sie auf deutlich größere Stückzahlen und können den Preis erheblich senken, wobei sie wohl eher noch mehr rausquetschen würden als den Preis zu senken...

Ach ja, gab dann von eMachines mit dem eOne nen recht ähnlichen, der dann allerdings durch Klagen vom Markt genommen wurde, obwohl es mMn ganz klar kein 1:1-Klon/Plagiat ist, sondern nur stark inspiriert:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: joshy337
blange schrieb:
Was im Artikel nicht erwähnt ist. Nach dem Update auf OS X hat das Arbeiten mit dieser alten Hardware nicht mehr wirklich Spaß gemacht. Alles ruckelte und auf einmal war verzögert.
Du meinst Cheetah, 10.0?
Ja, das war etwas unfertig und ohne DVD-Player, lief mit genug RAM aber nicht mal soo schlecht.
Bedenke, der iMac G3 war von '98/'99 und hatte oft nur 32-64MiB vorinstalliert..
Mit Puma, 10.1,welches oft kostenlos für Cheetah-Anwender war, ging es schon besser. 🙂
 
HasseLadebalken schrieb:
Leider kann man CRT's ja an aktuellen Grafikkarten nicht meht betreiben, hab hier noch nen guten IYama auf Ende der 90er.
Also das noch ging hab ich den auch immer mal wieder angeklemmt und gestaut wieviel toller das Bild auf dem ist, aber Auflösung kommt halt nicht mehr hinterher, FullHD solls dann schonn sein und die CRT's sind ja nunmal leider bei 1280x1024 oder sowas stehen gebliebene.

Gruss HL
Mein letzter CRT war ein 21" von Hitatch, habe den mit 1600x1200 @75Hz
Und ich weiß das es IBM Geräte gab die noch höhere Auflösungen bei 75Hz schafften.

Es gab ja sogar einige HD Röhren TVs.
 
AlphaKaninchen schrieb:
Also genau die Zielgruppe auf die Apple unteranderem abzielt.

Aber darum gehts ja, das ist ein Problem ohne Grund. Wo soll denn ein VGA-Stecker so rein, wenn nicht am VGA-Anschluss? Wo soll USB rein, wenn nicht an USB? Was soll passieren? Selbst wenn eine Karte zwei VGA-Anschlüsse hätte könnte man nichts falsch machen.
Wie bringen diese Leute eigentlich ihren Kindern Bauklötze bei? Haben die dann Angst, weil sie nicht wissen, ob der viereckige Klotz ins viereckige Loch muss? ;)

SV3N schrieb:
Wir würden uns freuen, eure Meinung zu hören: Welches Thema soll in der nächsten Ausgabe von C:\B_retro\ behandelt werden?

Wie wärs mit Joysticks? Quickshot II, der immer kaputt ging, Competition Pro (silber), der Unzerstörbare, Sidewinder, der Joystick der 90er, usw. Und ab den 2000ern hat keiner mehr sowas benutzt...
 
Turrican101 schrieb:
Aber darum gehts ja, das ist ein Problem ohne Grund. Wo soll denn ein VGA-Stecker so rein, wenn nicht am VGA-Anschluss? Wo soll USB rein, wenn nicht an USB? Was soll passieren? Selbst wenn eine Karte zwei VGA-Anschlüsse hätte könnte man nichts falsch machen.
Mein PC hat vier DisplayPort und drei HDMI Anschlüsse, zwei HDMI und ein DisplayPort hängen an keiner GPU.
An einem Notebook kann man Platz bedingt nur einen sehr Begrenzte Anzahl an Anschlüssen unterbringen, was ist da besser USB C mit USB + DisplayPort + PowerDelivery so das man einfach alles überall rein Stecken kann oder ein VGA, ein HDMI, drei USB A, damit geht dann ein 4K Monitor, ein FHD und 3 Beliebige USB Geräte. LPT, COM etc benutzt heute ja auch kaum noch jemand im Privatbereich, warum? Weil USB mehr Flexibilität ermöglichte, mit USB C kommt jetzt halt Displays und bald PCIe hinzu, womit dann wirklich alles über USB geht.
Turrican101 schrieb:
Wie bringen diese Leute eigentlich ihren Kindern Bauklötze bei? Haben die dann Angst, weil sie nicht wissen, ob der viereckige Klotz ins viereckige Loch muss? ;)
🤣
 
Gegen Vereinfachungen auf technischer Basis (wozu drei Anschlüsse für den gleichen Typ Gerät, wenn auch einer geht) und bezüglich Platz im Gerät spricht ja nichts, sofern das nicht an der Realität vorbei geht. Aber da schießt Apple für mich halt auch oft übers Ziel hinaus, siehe Macbook mit nur noch einem USB-Anschluss, was viele halt auch für zuwenig hielten. Oder Klinke. Da hat dann das Marketing erzählt, dass ein eckiger Adapter oder BT-Kopfhörer ja genauso gut seien. Und ohne Klinkenwegfall ists ja quasi unmöglich ein Gerät wasserdicht zu bekommen. Blabla. Witzig ists eher, dass Apple nichtmal selber ne einheitliche Linie fährt.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
@Tulol @HasseLadebalken

schaut doch das Video komplett, über das ihr euch unterhaltet. :D Der erwähnt später Specs von dem Sony. Der kann sogar 80 Hz bei 1440p.

Glaub das schafft auch kein VGA mehr, daher dürfte der nen DVI Port haben. Was auch die eingesetzte 2060S erklärt ;)

7EA2DA74-A1E8-46D2-B3AE-0F70BEAD7E2C.jpeg


Und HDMI auf analog VGA Adapter gibt’s übrigens auch. Die haben nen Chip drinnen, der von digital auf analog moduliert. Dürfte allerdings zu Lasten der Latenz gehen. Naja, jedenfalls hinfällig wenn der Sony DVI hatte. Da geht HDMI nativ drüber und dürfte somit kein Problem darstellen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AlphaKaninchen
Fand die Dinger damals mega hässlich und irgendwie viel zu bunt... waren aber bei Druckereien und im Repro Bereich verbreitet... aber zum Spielen taugten die eher nicht
 
aber Bugdom lief gut :)
und Ghost Recon, damals der coolste Strategie Shooter überhaupt, und Medal of Honor
 
Zuletzt bearbeitet:
Tulol schrieb:
Mein letzter CRT war ein 21" von Hitatch, habe den mit 1600x1200 @75Hz
Und ich weiß das es IBM Geräte gab die noch höhere Auflösungen bei 75Hz schafften.

Es gab ja sogar einige HD Röhren TVs.

Für einen Crt braucht man gar keine höhere Auflösung. Da es keine harten Pixelkanten gibt kann das Bild mit guter Kantenglättung auch in dieser "niedrigen" Auflösung super aussehen.
Ergänzung ()

Btw auch wenn es jetzt langsam offtopic wird. Mein letzter Grundig Röhren Fernseher hatte FullHD, DVBC Tuner und digitale Eingänge. War für mich der perfekte Fernseher aber ist irgendwann kaputt gegangen. Leider wurde die Produktion dieser Geräte irgendwann zugunsten der Flachbildfernseher eingestellt.
 
  • Gefällt mir
Reaktionen: HasseLadebalken
Sun_set_1 schrieb:
@Tulol @HasseLadebalken
...
Glaub das schafft auch kein VGA mehr, daher dürfte der nen DVI Port haben. Was auch die eingesetzte 2060S erklärt ;)

Und HDMI auf analog VGA Adapter gibt’s übrigens auch. Die haben nen Chip drinnen, der von digital auf analog moduliert. Dürfte allerdings zu Lasten der Latenz gehen. Naja, jedenfalls hinfällig wenn der Sony DVI hatte. Da geht HDMI nativ drüber und dürfte somit kein Problem darstellen.

Kein HDMI, DB15 (VGA) und RGB+H+V getrennt via BNC only. VGA geht schon extrem weit. Eigentlich nur durch die Kabelqualität und -Länge begrenzt, solange die Videobandbreite des Zuspielers und des Ausgabegerätes nicht überschritten wird (meist 300-400Mhz Ausgang, <300 am Monitor). Der FW dürfte bei 275MHz schlapp machen, was ziemlich genau den 2394*1440*80 entspricht. Direkte Digitaleingänge hatten z.B. die Mac Studio Displays. Da aber ADC.
 
  • Gefällt mir
Reaktionen: HasseLadebalken
Ich kann mich noch erinnern damals hatte ein Klassenkamerad einen dieser Mac‘s. Bei ihm auf dem Mac haben wir immer „Metal Slug“ gespielt zu zweit auf der Tastatur. :daumen:

Aber ich frage mich gerade wie ging das ? :confused_alt:
Gab es damals schon Arcade-Emulatoren und war der Mac überhaupt leistungsstark genug für sowas ... muss ja, ich kann mich daran erinnern. Bin aber etwas erstaunt im Nachhinein... Oder haben die das Spiel für den Mac rausgebracht?
Ich weiß noch, dass die Oberfläche des Emulators (?) wie RetroArch (heute) aussah.
 
Sun_set_1 schrieb:
@Tulol @HasseLadebalken

schaut doch das Video komplett, über das ihr euch unterhaltet. :D Der erwähnt später Specs von dem Sony. Der kann sogar 80 Hz bei 1440p.

Glaub das schafft auch kein VGA mehr, daher dürfte der nen DVI Port haben. Was auch die eingesetzte 2060S erklärt ;)


Und HDMI auf analog VGA Adapter gibt’s übrigens auch. Die haben nen Chip drinnen, der von digital auf analog moduliert. Dürfte allerdings zu Lasten der Latenz gehen. Naja, jedenfalls hinfällig wenn der Sony DVI hatte. Da geht HDMI nativ drüber und dürfte somit kein Problem darstellen.

Ahso

Öhm nein es gab früher zwei DVI's, es gab DVI-I und DVI-D und lass mich lügen DVI-I war das wo es auch analoge Signale darüber gab und die musste man bloss Pinbelegung halt auf d-sub adaptieren, das war also eine rein mechanische Sache.
Deswegen kann man an heute üblichen Karten bei Nvidia beispielsweise 1000er Serie GT/X aufwärts ja keine CRT's mehr betreiben.

Solche Wandellei dann hat oft eher nur Nachteile, also wenn dann sollte man schon fertig analoges Signal in analoges reinschicken.
Wenn dann braucht man auch da wieder so ein Nischenprodukt, wie "Framemaster", als es den noch gab war der sündhaft teuer und wenn man jetzt einen haben will, guckt man wieder in die Röhre...die hat aber kein Bild xD :P

Fand das erst interessant, aber die sind ja extrem selten, wenn dann völlig überteuert und seiner Zeit schon ein totales Nischenprodukt gewesen offenbar.

Gruss HL
 
Ein Framemeister ist aber das komplette Gegenteil von dem was du da erwähnst. Der wandelt (lagverbunden) von analog nach Digital, nicht von Digital nach Analog.

HDMI auf VGA Adapter gibt es für einen 10er an jeder Tanke, und die sind gar nicht mal so mies.

PS: wenn man wirklich alternativen zum Framemeister sucht (also um analoge Quelle wie eine Dreamcast oder ein Mega drive an einem modernen Flachbildschirm anzuklöppeln) dann sind OSSC (open source, einige recht preiswerte [<180, selbst auf Amazon] Umsetzungen verfügbar) oder der Retrotink 2 Scart für <100 anzuraten. Lagfrei, easy, gut verfügbar.
 
Zurück
Oben