News Im Test vor 15 Jahren: Goliath Pentium 4 vs. David VIA C3 im HTPC

Ich will ein Gerät, das alles kann. Da geht maximal (minimal?) Mini-ITX, und da muss ich schon sehr wählerisch sein.

Der 0815-PC ist heute genau so groß wie früher, das wollte ich mit dem ursprünglichen Post sagen.
 
Wenn man mal überlegt wie grottenlangsam damals alles war, hauptsächlich wegen HDD's - die Top Erfindung überhaupt der letzten 20 Jahre sind für mich immer noch SSD's - damit bekommt man selbst Uralt-Systeme zu nie geahnten Geschwindigkeiten überredet.
 
  • Gefällt mir
Reaktionen: dister1, andi_sco und Alphanerd
@esqe
Du widerspricht dir selbst. Erst redest du vom "Alleskönner", im nächsten Satz ist dann wieder alles "0815" ... :rolleyes:
 
Alles können sie auch im Kleinformat. Die Frage ist nur wie schnell.
Und nicht alles ist schon in HW gegossen. Siehe AV1 oder h265.

Und echte Krücken waren die ersten Atom Netbooks auch.
Aber Schuld war auch MS die diverse Einschränkungen vorgaben.

Und je schneller und stromsparender die Teile wurden umso kleinere Akkus wurden verbaut.
Klare Kundenverarsche und geplant für Wegwerfprodukte.

Dabei hätten die Netbooks noch immer Potential.
Aber die Hersteller schauen auf Gewinnmaximierung und verkaufen lieber sauteure Profibooks im Kleinformat.
 
Zuletzt bearbeitet:
ITX-Fan schrieb:
@esqe
Du widerspricht dir selbst. Erst redest du vom "Alleskönner", im nächsten Satz ist dann wieder alles "0815" ... :rolleyes:

Kann ich mit einer Kiste kleiner als Mini-ITX AC:Origins zocken? Kann ich ein 0815-PC dahin aufrüsten?

Wer will hier nicht verstehen?
 
Kein Wunder denn solche Spiele sind schlecht optimiert oder auf zukünftige Generationen ausgelegt.

Grafikblender halt. Und irgendwo muss deine gtx1070+ (3xSlot) ja auch Platz finden.
 
[wege]mini schrieb:
also ich installiere ja immer mein windows neu, ....

Ich habe mich vielleicht falsch ausgedrückt. Also ich verwendete ebenfalls mehrere geclonte C-Partitionen die ich per Bootmanager umschalte. Der Bootmanager aktiviert die ausgewählte Partition und versteckt die anderen. Nennen wir das mal Win A, Wind B und Win C. Wenn ich Win A gebootet habe, dann kann ich natürlich die versteckten Win B und Win C Partitionen löschen und per Acronis True Image das Backup darauf wiederherstellen. Aber ich kann natürlich nicht die gerade aktive Windows-Partition Win A löschen. Dazu bedarf es eines Neustarts.
 
  • Gefällt mir
Reaktionen: [wege]mini
Viele boards dieser generation hatten die option "PCI IDE Busmaster" oder so, damit lief der Datentransfer auch unter DOS sehr schnell.
PCI INT sharing wae eine layout sache des mainboardherstellers, bedingt durch fähigkeiten des Chipsatzes.
Die Leistungsfähigkeit des PCI Bus bei VIA war teils merkwürzig langsam, da gab es mal so einen (Raid?) performance Treiber der dem PCI Beine gemacht hat.
Die Soundblaster waren bekannt für unnötig hohe Last auf dem PCI Bus, etwas das den VIAs sauer aufstieß.
 
esqe schrieb:
Der 0815-PC ist heute genau so groß wie früher
Nur dass der 0815 PC von früher leistungstechnisch vom Intel Compute Stick in Grund und Boden gestampft wird..
Ergänzung ()

Denniss schrieb:
Die Soundblaster waren bekannt für unnötig hohe Last auf dem PCI Bus, etwas das den VIAs sauer aufstieß.
Ob unnötig oder nicht kann man diskutieren... keine andere Soundkarte hatte die Fähigkeiten einer Soundblaster, von daher hat man da nicht wirklich einen Vergleichswert. Aber es war der VIA Chipsatz der den Fehler hatte, das was der EMU Chip trieb war innerhalb der Spezifikation.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: esqe
Schöner Artikel ist zu dem Zeitpunkt damals an mir vorbei gegangen.
 
cbtestarossa schrieb:
Ausserdem braucht man für PQ-DriveImage nur HIMEM.SYS sonst startet es u.U. nicht.
War perfekt, im Gegensatz zu heutiger Schrottsoftware.

Und mit PQ-Magic warst du der King was partitionieren angeht.

Diesen ganzen Imaging-Workflow mit proprietären Programmen wie Norton Ghost, Drive Image und Co. habe ich schon ab Mitte/Ende der 90er Jahre, also kurz nachdem ich Linux entdeckt hatte, nicht mehr mitgemacht. Diese oft DOS-basierten Tools taugten alle nichts. Langsam, da ohne vollständige Unterstützung neuerer Hardwaretechniken und unzuverlässig waren die -- die heutigen sind oft nur noch schlimmer. Ich habe damals schon mit Linux-Standardtools wie dd gearbeitet und konnte daher vor wenigen Jahren alle meine alten Installationen von damals problemlos mit einem heutigen Debian GNU Linux System aus ihren Images in virtuelle Maschinen auf meinen aktuellen Systemen verwandeln, so dass ich sie heute einfach mal als VM anstarten kann, wenn ich Lust darauf habe mal wieder mit einem meiner alten Systeme zu arbeiten ohne die alte, zugehörige Hardware auch nur einschalten zu müssen. Alte Norton Ghost Images von Bekannten aus derselben Zeit kann ich hingegen auf einem heutigen System nicht einmal mehr aufspielen und das nicht nur weil das Diskettenlaufwerk oder gar das DVD-Laufwerk bei vielen neueren Systemen fehlt und die alten Tools darauf so nicht mehr problemlos zu booten sind.

Noch dazu konnte ich die dd-Images in entpackter Form schon in den 90er Jahren einfach per Mount-Kommando als Loop-Device wie eine Festplatten-Partition mit Daten darauf ins Linux-Dateisystem einhängen und so auf meinem Rechner bei Bedarf einfach einzelne Dateien aus so einem Image herauskopieren, wenn etwa eine Treiberinstallation nur diese ausgetauscht/beschädigt hatte und die alten zurückzukopieren ausreichte um mein System wieder zum Laufen zu bekommen ohne das ganze Image zurückzuspielen. Das konnte Norton Ghost zu der Zeit noch lange nicht und auch als es das dann konnte war das Image nicht als normales Laufwerk im Windows-Explorer einzuhängen, sondern nur in einem speziellen Programmfenster mit viel weniger Such- und Manipulations-Möglichkeiten als meine dd-Images zu browsen und das auch nur nach Installation der Norton-Ghost-Image-Viewer-Software auf einer von dieser unterstützen Windows-Version und nicht, wie bei meinen dd-Images, mit praktisch jedem x-beliebigen Linux-System inklusive Linux-Systemen von einer Live-CD oder Boot-Diskette.

Ich habe übrigens bei meinen privaten Rechnern noch nie ein Image auf dieselbe Festplatte zurückgespielt von der ich es erstellt habe. Keine meiner Installationen inklusive der Windows-Installationen habe ich jemals noch einmal auf dieselbe Festplatte neu installieren oder per kompletter Recovery-Image-Rückspielung wiederherstellen müssen. Meine Installationen gehen nicht kaputt, da ich gemeinhin weiß was ich tue. Ich habe meine heute noch problemlos laufende DOS 3.0 Installation aus den 80ern und meine Windows 98 SE Installtion vom Ende der 90er Jahre genauso wie meiner erste Windows XP Installation von Ende 2001/Anfang 2002 noch in komplett arbeitsfähigem Zustand sowohl in einer virtuellen Maschine als auch auf der Original-Hardware von damals verfügbar. Die Original-Installationen auf der alten Hardware sind niemals neu installiert und auch niemals aus dem selbstverständlich vorhandenen Sicherungsimage zurückgespielt worden.

Heute geht bei mir erst recht kein System mehr kaputt, weil ich einfach virtuelle Maschinen zum Ausprobieren neuer Software verwende und diese bei Problemen einfach binnen weniger Sekunden auf einen früheren Snapshot zurücksetze.

Das Windows-Rechner alle paar Monate oder Jahre neu installiert oder aus der Sicherung zurückgespielt werden müssen kenne ich nur von den Rechnern meiner Verwandten, Freunde und Bekannten, die es mit ständigen, öfter mal fehlerhaften Updates, Beta-Versionen und Herumspielen an ihren System ohne das sie genau wüssten was sie tun auch heute noch ihre Systeme regelmäßig beschädigen und dann nicht wissen, wie sie sie ohne Neuinstallation/Imagerückspielen retten sollen. Ich persönlich mache keine Updates wenn ich keine neue Funktionalität zwingend zum Arbeiten brauche die mit einem Update kommt. In den ganzen Jahren von 2001 bis heute habe ich auf meinen Windows XP Installationen vielleicht eine Hand voll einzelner, handverlesener Updates aufgespielt. Eines davon war etwa der 48bit-LBA-Patch um größere Festplatten adressieren zu können. Ein anderes ein DirectX-Update das ich für Battlefield brauchte. Ich habe nie auch nur ein einziges Service-Pack oder andere kumulative Updates auf meinen Windows-XP-Systemen aufgespielt. Deshalb liefen diese auch immer zuverlässig und ohne böse Überraschungen, wo Bekannte von mir teilweise erst Wochen und Monate nach einem ,,Rundum-Update`` per Servicepack oder heute per Autoupdate eine lange nicht benutzte Software anstarten, weil sie sie dringend brauchen und diese dann auf einmal nicht mehr läuft und sich nach langem Testen und Haareraufen dann herausstellt, das diese mit einer damals beim Update ausgetauschten, neuen Dateiversion von Microsoft nicht mehr läuft. Wer da mit der Software nur eben unter Termindruck etwas erledigen wollte ist danach erledigt, weil er oft Stunden damit zubringen muss bis er diese Software wieder zum Laufen bekommt. Updates sind daher nicht meine Baustelle...wenn ich mir nach über 30 Jahren ohne von mir oder einem Virenscanner erkennbarer Malware auf meinen PCs doch einmal eine Malware einfangen sollte, weil ich keine Security-Patches installiert habe, benutze ich halt zum ersten Mal in der ganzen Zeit mein Backup und bügele damit das infizierte System über...No big deal im Austausch gegen nun 30+ Jahre zuverlässig und vorhersagbar laufender statt, wie bei meinen Bekannten, nach Updates gerne mal anderes, fehlerhaftes Systemverhalten zeigender Systeme.

P.S. Das PQ Magic, das angeblich ..der King was Partitionieren angeht`` war, hat übrigens in Tateinheit mit Microsofts CHKDSK.exe (Checkdisk) in meiner Bekanntschaft noch bis weit ins neue Jahrtausend hinein bei Partitionieraktionen Daten von meinen Bekannten, die solche proprietären Tools gerne nutzten, ins Nirvana geschickt, da es bei Umpartitionieraktionen je nach Beschaffenheit von umzupartitionierender Festplatte und verwendeter Hardware gelegentlich einfach mal mitten in einer Aktion einfror und Festplatte und darauf befindliche Partitionen und Dateisysteme dann in einem unbrauchbaren Zustand zurückließ oder aber durchlief und lediglich Fehler im Dateisystem verursachte, die Checkdisk dann beim nächsten Start zu beheben versuchte, wobei dann häufig Nutzerdateien verschwanden und teilweise als tausende der Reihe nach durchnummerierte, von Checkdisk gefundene Dateifragmente wieder auftauchten. Diese Fälle waren in meinem Bekanntenkreis bis weit ins letzte Jahrzehnt hinein Legion. Grauslich.

Ich habe zum Umpartitionieren immer Linux-Tools verwendet oder gleich meinen auf Linux verwendeten Hex-Editor genommen, der auch direkt auf Festplatte schreiben konnte, und das Umpartitionieren direkt von Hand erledigt. Das erfordert mehr Wissen über den Aufbau der Partitionierung einer Festplatte, aber so wusste ich dann zumindest genau was an der jeweiligen Partition oder der Partitionstabelle geändert worden war und konnte es notfalls korrekt zurücksetzen wenn etwas nicht funktionierte, wo man bei PQ Magic keinerlei Anhaltspunkt hatte was dieses vor einem Freeze alles geändert hatte und man damit kaum eine Chance hatte die nicht abgeschlossenen Änderungen rückgängig zu machen und seine Daten auf der nicht korrekt umpartitionierten Festplatte zu retten. Ich habe noch niemals Daten dabei verloren -- das spricht wohl für meine Methode. ;-)
 
  • Gefällt mir
Reaktionen: [wege]mini
cbtestarossa schrieb:
Alles können sie auch im Kleinformat. Die Frage ist nur wie schnell.
Und nicht alles ist schon in HW gegossen. Siehe AV1 oder h265.

H.265 HEVC und alles über 720p-HD-Material auflösendes Videomaterial kann man sowieso getrost vergessen. Das verbraucht auf Mobilgeräten bei der Videowiedergabe nur unnötig viel Energie (und deutlich mehr Speicherplatz pro Videominute) für ein dann auch noch durch die höhere Komprimierung kompressionsartefaktverseuchteres, lediglich pseudo-höherauflösendes Videobild.

Obwohl meine Videokamera und ActionCam in FullHD aufnehmen können, nehme ich daher für gewöhnlich maximal mit 720p bei meiner Videokamera und 960p bei meiner ActionCam auf und schneide noch dazu die unnützen äußeren Bildecken des 16:9-Formats ab um ein 4:3-Format und so handlicher zu speichernde Videos zu erhalten. In den Bildseiten des unnatürlichen 16:9-Sichtschlitzes (meine Augen sehen jedenfalls in der Natur keinen 16:9-Sichtschlitz meiner Umgebung, sondern einen Umriß der wesentlich näher an einem 4:3-Bild liegt) passiert ohnehin nie etwas, da meine Hauptmotive für Videos (Menschen, spielende Kinder, Windsurfer, Kiter, Skater, Snowboarder, Skifahrer) alle mehr hoch als breit sind. Warum sollte ich also unnütze Bildinformationen über deren Umgebung speichern die ich nie benötige?

Das so viele Menschen mit ihrer Handykamera den 16:9-Sichtschlitz senkrecht anstatt waagerecht wie im Kino nutzen, weil man so Menschen besser groß ins Bild bringen kann ist meiner Meinung nach eine direkte Folge des zum Filmen von Menschen unpraktischen 16:9-Breitbildformats. Bei letzterem hat man immer ein winziges Menschlein in der Mitte des 16:9-Sichtschlitzes und sieht auf kleinen Mobilgerätedisplays daher kaum was dieses Menschlein dort tut. Stattdessen sieht man massenweise uninteressante Umgebung im Bild, die außer einen Landschaftsfilmer wirklich niemanden interessiert. Da Landschaften für gewönlich weitgehend unbewegt sind, nehme ich für solche ohnehin lieber meine Hasselblad H4D-40 Mittelformatkamera und keine Videokamera, denn bei der Fotokamera habe ich in jedem Fall mehr Details im Bild und kann das Bild zudem problemlos auf einen 16:9-Sichtschlitz zurechtschneiden, wenn ich einen solchen unbedingt möchte und habe danach immer noch mehr Auflösung und trotzdem weniger Speicherplatzbverbrauch als wenn ich die Landschaft auch nur 30 Sekunden lang mit einer 4K-16:9-Videokamera abgefilmt hätte.

Fazit: Ich komme vielleicht bei meinen neuesten selbstgedrehten Videos nicht mehr mit einem HTPC von vor 15 Jahren zurecht, aber problemlos mit einem von vor 10 Jahren und werde daher in meinem Vorführraum auch bei einem solchen, in einem schönen Silverstone-Gehäuse mit in der Alu-Frontblende eingelassenem Touchscreen residierenden HTPC und meinem alten, inzwischen zur Darstellung von Auflösungen bis knapp über FullHD aufgebohrten Laserbeamer bleiben, weil letzterer für ausnahmslos alle Auflösungen gute Resultate bringt, da er im Gegensatz zu einem heutigen Flat-TV, das nur seine native Auflösung hochqualitativ im Vollbild wiedergeben kann, keine feste Auflösung hat und daher kein einziges Video verlustbehaftet hochskalieren muss.

Mehr Auflösung als beim 720p-HD-Format brauche ich für eine Bilddiagonale bis zu drei Metern in meinem neuen, nun 14 Meter langen Vorführraum nicht und werde ich auch nie brauchen. So nah, dass ich eine höhere Auflösung bräuchte sitzt man dort ohnehin nie am Bild, da man sonst das ganze Bild gar nicht mehr überblicken könnte und sich erst wieder ein paar Schritte davon entfernen müsste um es in Gänze erfassen zu können. FullHD ist in meinem Vorführraum nicht nötig und 4K oder gar 8K sind geradezu absurd -- pure Energie und Speicherplatzverschwendung, da ohne sinnvolle Bildqualitätssteigerung für den Zuschauer, der ja niemals nur 50cm vor der Leinwand sitzt, weil er sonst das ganze Bild gar nicht überblicken könnte und der bei größerer Entfernung zum Bild in meinem Vorführraum schon wegen der begrenzten Auflösung seiner eigenen Augen keine Pixel auf der Leinwand mehr ausmachen kann.
 
  • Gefällt mir
Reaktionen: [wege]mini
Funkeclan schrieb:
Gott waren die Teile hässlich. 😄
HTPC sind wie Smarthome. Nett aber unausgereift und nichts für den Mainstream. 😉
Haha, ja, da ist schon was dran. ^^
Andererseits.. So hübsch sind die heutigen Modelle meist auch nicht. ;)
Der Schwarz/Silber Billig-Look ist immernoch Mode.


Positiv fand ich damals jedoch die Erweiterbarkeit/Möglichkeit der Individualisierung (Slots, RAM, etc).
Heute ist da eher alles fummelig klein und verklebt. Und ganz krass: Die Leute finden's auch noch toll. Naja.

Der C3 war auch auf den beliebten Epia-Boards verbaut, so weit ich mich erinnere.
Für Bastler damals so eine Art Pre- Raspberry-Pi Plattform, oder so ähnlich..
Brauchte wenig Strom und hatte jede Menge Hardware on-board.
https://de.wikipedia.org/wiki/EPIA
 
deo schrieb:
Der C3 war noch langsamer als mein AMD K6-III+/450ACZ, der sich ohne Spannungserhöhung mit 600MHz takten lies und eine TDP von 18 Watt hatte. ...

Ein E-450 lag auch noch bei 18W, mittlerweile hat ein Quad Core ab 6W. schon Wahnsinn, wie die Technik da vorangeschritten ist.
Ergänzung ()

esqe schrieb:
Ich will ein Gerät, das alles kann. Da geht maximal (minimal?) Mini-ITX, und da muss ich schon sehr wählerisch sein.

...

Die Crysis zockende Briefmarke mit dem Verbrauch einer LED
 
Zuletzt bearbeitet:
@cliscan:

Selten so einen Schwachsinn gelesen. Erstmal zu deiner VM-Geschichte: Zeig mir mal eine VM, bei der man alle AAA-Games drauf laufen lassen kann, wobei alle, ausnahmslos alle bedeutet. Oder zeig mir eine VM mit voller Unterstützung aller Funktionen einer 7.1 Soundkarte, einer TV-Karte oder Videoschnittkarte. Das gleiche gilt für dein so hochgepriesenes Linux. Ein Gamer installiert Windows nicht weil er MS-Fan ist. Selbst wenn er so wie ich ein totaler MS-/Windows-Hater ist, installiert er Windows weil er die Spiele zocken will. Und selbst wenn er z.B. so wie ich, ein totaler Consolen-Hater ist, leiht er sich von seinem Schwager die XBOX aus, um ein überragendes Red Dead Redemption zocken zu können.

Zu der damaligen Zeit war PQMagic quasi der heilige Gral der Software überhaupt. Davor war es für den normalen DOS/Windows User überhaupt nicht möglich ohne Datenverlust Partitionsänderungen durchzuführen. Eine einfache Änderung der Partitionsgröße war davor eine Sache von Stunden wenn nicht sogar Tage. Und sehr oft einfach überhaupt nicht möglich wenn nur eine HDD zur Verfügung stand und diese zur mehr als 50% voll war.

Ich für meinen Teil habe viele Jahre lang das Partition Magic und DriveImage als die zwei wichtigsten Programme überhaupt angesehen, die ein (Windows-)Poweruser braucht.

In einer VM (wie auch unter Linux) kann man nur einen sehr eingeschränkten Teil von Software betreiben. Wenn man mit diesem Teil zufrieden ist, dann kann man sicher durchaus damit arbeiten, und vielleicht auch sicherer schneller oder besser als unter Windows.

Aber: das was ich damit machen kann ist maximal 10% von der Summe aller Möglichkeiten unter Windows. Und deshalb wird auch beides sich niemals durchsetzten, sondern ein Nischenprodukt bleiben.

Und in Sachen Linux ist das größte Hindernis das fehlende Monopol. Es gibt nicht das eine Linux, sondern gefühlt 1 Million Derivate. Solange es keine Reunion gibt, und sich alle Derivate wieder zu einem einzigen neuen Linux vereinigen, braucht es nicht mal ein MS, damit Linux keine Chance hat. Und wie utopisch das ist, dürfte das Einzige sein was völlig unstrittig ist. Sich selbst für die Masse aller Anwender ins eigene Knie zu ficken, und sich in Abseits zu stellen, das schafft die Linux Fangemeinde ganz allein.
 
Die Via Epia Boards, waren genial für den HTPC Bau. Dadurch, das der Grafikkarten Chipsatz MPEG 2 in Hardware unterstütze, musste man nicht mehr die teuren Full-Featured DVB-C TV Karten kaufen.
Die Auswahl, war eh bescheiden. Gab ja nur 3 Anbieter. (Siemens, Hauppauge, Technotrend).
Mit einem Epia M1000, war DVB-C, 5.1, Divix, MPG, MPEG, DVD, usw...... keine Grenzen gesetzt.
Filme konnten über das Netzwerk gestreamt werden.
Dank passiv Kühlung und Rom Speicher absolut lautlos. Für damalige Verhältnisse auch Recht zackig.
Zumindest angenehmer, wie die ersten Atom.
 
[
BlackWidowmaker schrieb:
Und in Sachen Linux ist das größte Hindernis das fehlende Monopol. Es gibt nicht das eine Linux, sondern gefühlt 1 Million Derivate. Solange es keine Reunion gibt, und sich alle Derivate wieder zu einem einzigen neuen Linux vereinigen, braucht es nicht mal ein MS, damit Linux keine Chance hat. Und wie utopisch das ist, dürfte das Einzige sein was völlig unstrittig ist. Sich selbst für die Masse aller Anwender ins eigene Knie zu ficken, und sich in Abseits zu stellen, das schafft die Linux Fangemeinde ganz allein.

Hehe, dass war einer ganz schön schlecht gelaunt am Frühstückstisch ;)

Auch wenn ich den Beiträge des ach so elitären und überlegenen cliscan reichlich eigenartig finde, hier bist du etwas schräge unterwegs.

Der Linux Kernel läuft auf allem was dich umgibt. Auf deinem Router, Sat receiver, Fernseher, AVR, Handy, Tablet, IP Kamera und alle anderen Smart Home Geräte die es so gibt.

Windows ist nur auf PC und Spielekonsolen stark verbreitet
Und PC leiden seit Jahren unter sinkenden Verkaufszahlen.

Microsoft hat in dieser Woche bekannt gegeben das sie 60k Patente für die Linux Community zur Verfügung stellen.

In Windows kann man ein Linux Subsystem von Microsoft installieren. In Microsoft Azure werden Linux Container angeboten.

Linux hat sich bereits vor Jahren durchgesetzt. Nur auf dem dahinsichenden PC Markt spielt Windows eine Rolle.
 
Sternengucker80 schrieb:
... das der Grafikkarten Chipsatz MPEG 2 in Hardware unterstütze, ...
Hatten die Ati Karten das nicht auch unterstützt?
 
Zurück
Oben