News Im Test vor 15 Jahren: Der Mac mini war Apples Rechner für jedermann

jooo apple kommte damals noch keine mondpreise wie heute aufrufen ..... hatten ja da noch nicht so ne Religion wie heute

wobei auch geil war, hatte sich die Software mal verabschiedet und es war ne CD im laufwerk ..... kk hf beim auseinanderbauen :P
 
Klassikfan schrieb:
Ob es geht, hängt aber meines Wissens davon ab, ob der HDMI mit aktivem HDCP daherkommt. Wegen der bösen Raubmordkopierer! Da wird das Signal erst nach einem "digitalen Handshake" der beiden Geräte ausgegeben, zu dem ein DVI-Monitor nicht in der Lage ist.
Kommt auf den Monitor an, mein Dell U2311h hat kein HDMI, kann aber HDCP am DVI. HDMI entspricht exakt einem Single-Link DVI-D, nur mit anderem Stecker. Deswegen geht das auch mit dem Ton über DVI, das sind einfach nur zusätzliche Datenpakete auf der Verbindung (und keine extra Verbindung nur für den Ton)
 
  • Gefällt mir
Reaktionen: AlphaKaninchen, Klassikfan und Schorsch92
Sc0ut3r schrieb:
Das stimmt nicht. Der 2005er Mac mini hat ab Werk eine 2,5" IDE Festplatte. Es gibt mSata auf IDE Adapter, die die Festplatte ersetzen. In meinem Mac Mini habe ich so eine 256GByte SSD ohne jede Probleme verbaut. Den RAM kann man über den einzigen Sockel auf max. 1GByte DDR-1 aufrüsten.

EDIT: Grad sah ich, dass bei deinem Post nicht um den Mac Mini 2005 aus dem Newsartikel sondern ein 2018er Modell geht, bei dem die SSD verlötet ist.
 
Augen1337 schrieb:
Auch jeder MA, der sich auf einem Amt oder einer Firma an einen VGA only Monitor setzt und dem Chef nicht den Vogel zeigt, hat es auch nicht anders verdient.

Du weißt aber schon, dass die Schnittstelle nicht wirklich viel über den Monitor aussagt, oder? Klar, so billige 1024x768 Kästen will natürlich niemand mehr, aber es gibt ja auch genug FullHD Monitore mit VGA. Haben dann halt wahrscheinlich keine 24+ Zoll, aber wieso man das bei FullHD braucht ist mir sowieso bis heute ein Rätsel.

NDschambar schrieb:
Davon hab ich hier auch einen, dank Macos9lives mit meinem heißgeliebten MacOS Classic! Mit den dort angewendeten Hacks ist er der letzte Mac, der das System nativ booten kann.

Krass, das wusste ich noch gar nicht. Ich hab hier nur zwei G4 (Die blauen mit AGP und 400MHz CPU), da läuft Mac OS 9 sogar noch ohne Tricksereien. Sind natürlich deutlich langsamer, aber selbst da läuft OS 9 schon gefühlt mit Lichtgeschwindigkeit :D (OS X läuft so la-la). Ich hab auch ne SSD eingebaut, mit so einem 3€ IDE auf SATA Adapter, konnte aber beim besten Willen keinen Geschwindigkeitsvorteil feststellen - könnte aber natürlich am Adapter liegen.
 
  • Gefällt mir
Reaktionen: NDschambar
Den VGA-Hate kann ich nicht so ganz nachvollziehen. Wenn die Hardware funktioniert, wieso soll ich die nur wegen des Anschlusses in die Tonne treten? Mein leider nun defekter V7 D22W1 hat es trotz VGA prima als Zweitmonitor getan - und war mit 1680x1050 garnicht mal so übel aufgelöst.

Bis FullHD bei 60Hz hat man durch DP, HDMI oder DVI doch keine Nachteile. Bildqualitätsunterschiede zwischen DVI und VGA konnte ich nie feststellen - weder an Monitoren mit beiden Anschlüssen, noch an reinen VGA-Monitoren. Der V7 D22W1 war zwar wirklich nich dolle, das war aber auch ein 22“-16:10-TFT von 2009 für nur 160€ - bei den Preispunkt lag die durchschnittliche Bildqualität wohl eher nicht an VGA.

Wenn ich dann so Aussagen lese wie „Würde mich mein Chef vorn VGA-only-Monitor setzen würde ich ihm den Vogel zeigen“ kann ich mir nur an den Kopf fassen.

FullHD bei 60Hz ist abseits von uns Nerds immernoch die Brot- und Butterauflösung. Gerade in Büros. Wo ist VGA nun das Problem?

Und wenn VGA so teuer ist... Wieso gibt es dann kaum billige Monitore mit HDMI, DVI oder gar DP? Kurioserweise sieht man selbst bei PC-Monitoren HDMI häufiger wie DP, obwohl letzterer sogar lizenzkostenfrei ist.

Keine Frage, einen rein analogen VGA-Port als Bildausgang brauchts aber nun auch wirklich nicht mehr. Über DVI-I gibts bei Bedarf wenigstens noch ein digitales Signal, sodass der Platz ohne entsprechende analoge Geräte nicht verschwendet wäre.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: AMDHippster
silentdragon95 schrieb:
Du weißt aber schon, dass die Schnittstelle nicht wirklich viel über den Monitor aussagt, oder? Klar, so billige 1024x768 Kästen will natürlich niemand mehr, aber es gibt ja auch genug FullHD Monitore mit VGA. Haben dann halt wahrscheinlich keine 24+ Zoll, aber wieso man das bei FullHD braucht ist mir sowieso bis heute ein Rätsel.
...

iGameKudan schrieb:
Den VGA-Hate kann ich nicht so ganz nachvollziehen. Wenn die Hardware funktioniert, wieso soll ich die nur wegen des Anschlusses in die Tonne treten? Mein leider nun defekter V7 D22W1 hat es trotz VGA prima als Zweitmonitor getan - und war mit 1680x1050 garnicht mal so übel aufgelöst.

Bis FullHD bei 60Hz hat man durch DP, HDMI oder DVI doch keine Nachteile. Bildqualitätsunterschiede zwischen DVI und VGA konnte ich nie feststellen - weder an Monitoren mit beiden Anschlüssen, noch an reinen VGA-Monitoren.
...
Bei FullHD ist das Bild per VGA, zumindest bei den Meisten Onbord GPUs, doch deutlich schlechter als per DVI/HDMI/DP.
Ich hatte ein Neuer Laptop mit Dock beim Kunden Mal vorübergehend mit einem VGA Kabel angeschlossen da ich kein passendes digitales Kabel dabei hatte und dann hat der Kunde gemeint der Monitor Flackert bei hellen inhalten. Nachdem das Kabel gegen ein DP Kabel getauscht war gab es keinen Grund mehr sich zu beschweren. Und auch bei anderen PCs bei denen ich das VGA Kabel gegen ein digitales Kabel getauscht habe war das Bild danach deutlich besser.
VGA ist nur noch im Serverraum sinvoll da den Herstellern wohl ein brauchbarer DAC meist zu teuer ist sollen sie den Anschluss am besten gleich weglassen wer VGA noch benötigt da er ein VGA Only Monitor hat kann sich ja ein DP auf VGA Adapter kaufen.
 
  • Gefällt mir
Reaktionen: konkretor
@Schorsch92 Das Problem hatte ich persönlich bis jetzt nie, und ich benutze heute noch manchmal VGA, wenn ich schnell mal einen Rechner zum Testen am Fernseher im Bastelraum anschließen will. Aber ich höre immer wieder, dass das Bild mit VGA schlechter sei. Entweder ich bin also blind oder meine Kabel sind irgendwie besonders :D

Aber klar, theoretisch kann das bei einer analogen Schnittstelle natürlich passieren. Persönlich wünsche ich mir ja bis heute manchmal DVI zurück, das hat wenigstens funktioniert. DisplayPort ist toll, aber der ganze "smarte" Kram sorgt halt dann doch immer wieder mal dafür, dass etwas nicht anständig funktioniert. Dass ich meinen Monitor "neustarten" musste, damit dieser ein anständiges Bild zeigt, hatte ich jedenfalls mit DVI nie :D
 
iGameKudan schrieb:
FullHD bei 60Hz ist abseits von uns Nerds immernoch die Brot- und Butterauflösung. Gerade in Büros. Wo ist VGA nun das Problem?
Das man für 50€ mehrfach geschirmte Kabel braucht damit man bei der Auflösung n halbwegs scharfes Bild bekommt. Wer den unterschied nicht sieht sollte mal die Brille putzen oder über eine Nachdenken... (bei den 1680x1050 mags noch gehen)
 
  • Gefällt mir
Reaktionen: Schorsch92
iGameKudan schrieb:
Wenn ich dann so Aussagen lese wie „Würde mich mein Chef vorn VGA-only-Monitor setzen würde ich ihm den Vogel zeigen“ kann ich mir nur an den Kopf fassen.

Dieser "Hate" hat aber durchaus Gründe. VGA ist nie pixelgenau, ja, kann das nicht sein. Und selbst geringe Verschiebungen des Bildes können eine deutliche Verringerung der Schärfe mit sich bringen. Erst recht, wenn, wie das bei der VGA-Ausgabe vor allem in der Zeit der Röhrenmonitore üblich war, das Bild mit einem gewissen "Overscan" ausgegeben wurde. Das heißt, es wurden die Bildränder abgeschnitten, um auf der Röhre unangenehme Randstörungen zu vermeiden.

TFTs aber sind nur dann wirklich scharf, wenn sie nativ angesprochen werdne, also pixelgenau. Das geht nur über den digitalen Eingang. Bei VGA muß der Monitor das Bild aus dem analogen Singal heraus neu berechnen und interpolieren. Dabei treten je nach Qualität dieser Prozessoren Unschärfen auf, die nirgendwo so anstrengend sind, wie im Büro, wo man 8 Stunden am Tag vor einem Bildschirm sitzt.
 
  • Gefällt mir
Reaktionen: ZeusTheGod, JanTenner, greeny112 und 2 andere
Dass VGA immer weiter zurückgedrängt wird, geht von der Hardware-Industrie aus: Aus technischer Sicht sind digitale Verbindungen nicht nur besser, sondern die GPU-Hersteller haben schon vor Jahren angefangen, immer weniger Anschlüsse mit VGA (auch als DVI-I) unterzubringen. Selbst DVI gilt als veraltet und an manchen Karten fehlt er komplett, oft aber noch mittels Passivadapter (z.B. DP->SL-DVI) nutzbar.
Nur zur Bildausgabe, damit man überhaupt was sehen kann, ist VGA zu gebrauchen, aber höhere Auflösungen funktionieren damit eben nicht.

OnT: Die PPCs waren keine Raketen und nichtmal ein Jahr später hat Apple alle Macs auf Intel umgestellt. Der Mini hier hat noch die G4-CPU, im iMac und Power Mac werkelten bereits G5, die für Mobilcomputer und den Mini zuviel Verlustleistung hatten.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Naja... wozu noch nen RAMDAC verbauen wenn man ihn eigentlich wirklich nicht mehr braucht? TFTs die nur VGA haben sind entweder voll alt oder ne Fehlkonstruktion. Wozu extra nen analog zu digital-Wandler einbauen wenn man auch direkt mit nem digitalen DVI Signal arbeiten könnte?
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Schalk666 schrieb:
Eigentlich wäre es mir egal, ob ein neues Mobo noch einen VGA-Anschluss hat oder nicht.
Die Monitore, die auf den Anschluss angewiesen sind / waren fangen wohl eh langsam an zu sterben.. (oder sind /waren trash-Produkte)
Hi, ich will eigentlich nicht länger auf dem Thema rumreiten, aber dazu möchte ich noch was sagen.
Der große 4k Fernseher mit Android OS im Wohnzimmer meiner Eltern hat neber USB 3, HDMI, usw. auch VGA und SCART (!)..
Ist also alles andere als alt. 😉
Ergänzung ()

Jesterfox schrieb:
Naja... wozu noch nen RAMDAC verbauen wenn man ihn eigentlich wirklich nicht mehr braucht? TFTs die nur VGA haben sind entweder voll alt oder ne Fehlkonstruktion. Wozu extra nen analog zu digital-Wandler einbauen wenn man auch direkt mit nem digitalen DVI Signal arbeiten könnte?
Wozu der Aufwand? RAMDACs sind doch eh integriert.
Woher kommt bei eurer Sorte User der Wunsch, immer alles Bewährte zu zerstören bzw. ausgelöscht zu sehen?
Denkt doch mal ein bißchen über euren kleinen Horizont hinaus!
Audio über Klinkenstecker, UKW-Radio. VGA, Composite..
All das sind Standards, die man in 100 Jahren noch nachvollziehen kann.
Obskures Digitalzeug, wie DAB+ und HDMI sind in 40 Jahren bereits so gut wie vergessen.
Die Adapter und Bildschirme im Müll.
Wenn irgendwann mal ein Archiologe oder Archivierer eine altes Gerät in Betrieb zunehmen versucht, hat er mit VGA/Composite weit höher Erfolgschancen..

Edit: Ich entschuldige mich für den Wortlaut.
Ich wollte dich persönlich keinesfalls damit verletzen.
Ich bin nur etwas entrüstet/verwundert, warum oft gegen alte Standards gewettert wird, obwohl sie nicht stören.
RGBHV können ja auch per DVI-I transportiert werden.
Daher schade, dass die Nachfolger HDMI und Display Port keine 6 Leitungen mehr dafür erübrigen konnten..
Ergänzung ()

Klassikfan schrieb:
TFTs aber sind nur dann wirklich scharf, wenn sie nativ angesprochen werdne, also pixelgenau. Das geht nur über den digitalen Eingang
Nein. Nein, das Gegenteil ist aber manchmal der Fall!
Mein alter Samsung SyncMaster (1080p) hatte ein furchtbare Ausgabe per HDMI, aberscharfes Bild per VGA.

Grund: Signale per HDMI wurden immer automatisch "optimiert".
Bei VGA lief der Monitor im "PC Modus" und hat das Bild unverändert angezeigt.

Moral von der Geschichte: Theorie≠Praxis.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Cr@zed^
@joshy337

Da haben die bei Samsung dann aber mal wirklich Mist gebaut! Zumal das ja noch nicht mal einer von den frühen TFTs gewesen sein kann, da bei deren Einführung noch gar kein HDMI existierte.
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
Sebbi schrieb:
[...]

wobei auch geil war, hatte sich die Software mal verabschiedet und es war ne CD im laufwerk ..... kk hf beim auseinanderbauen :p
Auch nicht richtig. Um eine CD beim Systemstart auszuwerfen, musste man nur F12 gedrückt halten.

Die Dinger hatten übrigens sowas wie eine grub-Commandline als BIOS-Interface - gennant OpenFirmware - gehabt. Damit konnte man damals z.B. Bootoptionen verändern und sogar im Dateisystem herumwerkeln. Es war zwar nicht übermäßig komfortabel, aber sehr mächtig und zuverlässig. Schon damals wurden dort USB-Keyboards
erkannt, während beim PC noch PS2-Tastaturen fürs BIOS Pflicht waren.

Viele Optionen hielten beim PC erst viel später über das UEFI Einzug - als Beispiel seien hier NVRAM und auf die Festplatte ausgelagerte BIOS-Bestandteile genannt.

Man kommt übrigens in die OpenFirmware, indem man Command+Option+O+F (bzw. Win +Alt +O+F) beim Starten gedrückt hält.
 
Zuletzt bearbeitet:
Der Mac Mini der ersten Generation meines Bruders ist heute noch im 'Produktiveinsatz'. Die Rechenintensiveren Sachen laufen bei ihm zwar seit einigen Jahren auf einer Windows Kiste, aber einiges macht er immer noch mit dem Mac. Was mit dem alten Betriebssystem halt noch läuft.
Habe ihm mal vorgeschlagen, einen neueren (gebrauchten) Imac zu kaufen, aber mit der aktuellen Gesamtlösung ist er immer noch sehr zufrieden.
 
joshy337 schrieb:
All das sind Standards, die man in 100 Jahren noch nachvollziehen kann.
Obskures Digitalzeug, wie DAB+ und HDMI sind in 40 Jahren bereits so gut wie vergessen.
Die Adapter und Bildschirme im Müll.
Wenn irgendwann mal ein Archiologe oder Archivierer eine altes Gerät in Betrieb zunehmen versucht, hat er mit VGA/Composite weit höher Erfolgschancen..
Sie Tun Ja so als wäre HDMI unendlich kompliziert bloß weil es digital ist, es ist VGA aber nicht so unähnlich. Bei VGA gibt es 5 Pins für das Bild VSync, HSync, Rot, Grün und Blau da VSync und HSync Analog kann es nicht Pixelgenau sein. Bei HDMI gibt es 1 Clock Signal (Jedes High/Low ein Pixel) und wieder Rot, Grün und Blau. Mehr dazu finden sie hier:
https://www.fpga4fun.com/HDMI.html
Ergänzung ()

DisplayPort wiederum ist dann wirklich Kompliziert... Da ein Kabel einfach nur Lanes nach dem gleichen Schema wie PCIe Bereitstellt (deshalb baute Thunderbold auf DP auf...) überdiese wird dann ein Kodiertes Teils Komprimiertes und Verschlüsseltes Video gestreamt.
 
Zuletzt bearbeitet:
joshy337 schrieb:
RAMDACs sind doch eh integriert.
Schon lang nicht mehr... die sind schon vor einigen Jahren aus den Grafikchips rausgeflogen. Wenn ne Grafikkarte oder Mainboard VGA anbietet dann haben die da nen aktiven Wandler verbaut, geht gar nicht anders.
joshy337 schrieb:
Audio über Klinkenstecker, UKW-Radio. VGA, Composite..
Für Audio über Klinke gibt es in einigen Fällen keine bessere Alternative, vor allem weil die Zielgeräte grundsätzlich analog sind. Aber auch bei Audio kann eine digitale Übertragung sinnvoll sein (z.B. 7.1 per HDMI, ok, manche stehen wohl auf die dicke Kabelpeitsche mit den 8 Cinch-Leitungen ;-) ) und spätestens bei der Ansteuerung eines TFT der digitale Daten benötigt ist es eben komplett sinnfrei die Übertragungsstrecke analog zu fahren, das macht das Bild nur unscharf.

Der große Vorteil digitaler Daten ist das man sie durch das hinzufügen von Fehlerkorrektur unglaublich robust machen kann. Während man bei analoger Übertragung immer mit Störeinflüssen und Verlusten zu kämpfen hat. Aber manche halten wohl ein unscharfes Bild und verrauschten Ton für ein Stilmittel das man unbedingt braucht...
 
  • Gefällt mir
Reaktionen: AlphaKaninchen
silentdragon95 schrieb:
Aber ich höre immer wieder, dass das Bild mit VGA schlechter sei.
@silentdragon95 @Schorsch92
Meine Erfahrungen mit VGA sind so, das man durchaus, je nach Grafikausgabe und Monitor ein gutes Bild, auch in Full HD erreichen kann. Pixelgenau kann man es sich dann im Monitormenü einrichten, ja, das geht.

Genauso gibt es aber auch Monitore deren VGA Einheit einfach Dreck ist. Weil ich bisher eher mit den meisten Grafikausgaben an guten Monitoren auch ein gutes VGA Bild erreichen konnte würde ich sagen das es eher vom Moni abhängt, was angezeigt wird.
 
Die Qualität bei VGA steht und fällt mit der Qualität des RAMDACS und des Kabels (einzeln geschirmte Adern sind da Pflicht) und natürlich auch des Monitors. Wenn alles sehr gut ist dann ist FullHD tatsächlich erträglich.
 
  • Gefällt mir
Reaktionen: Schorsch92, AlphaKaninchen und AMDHippster
Zurück
Oben