Fleischmann schrieb:
Aber brucht man im Jahr 2020 wirklich immernoch ständig neue Software und Hardware? Wenn man sich mal ernsthaft darüber Gedanken macht sind Hardware und Software bei Computern so gut, dass eigentich die allermeisten Nutzer für ihren Einsatzbereich keine Verbesserung mehr brauchen. Hardware und Software sind im Jahr 2020 so gut, dass man sie vermutlich auch noch in hundert Jahren nutzen kann ohne dass man Funktionalität oder Leistung für die meisten Anwendungsbereiche vermissen würde.
Naja, du scheinst da gerade rein aus einer Endverbraucher-Perspektive draufzuschauen, da stimmt es schon. Ich entwickel Software, z.B. für neue Industrieanlagen. Meinst du, da ist es auch ausentwickelt? Der Rest der Welt scheint das nicht so zu sehen, der deutsche Anlagenbau & auch die Entwicklung neuer Anlagen und Technologien läuft sehr gut.
Brauchen ist natürlich auch alles relativ. Klar könnte die Wirtschaft auch in großen Teilen die Produktion einstellen, niemand "braucht" wirklich einen neuen Gaming-PC, das zwanzigste Kissen auf der Couch oder sonstwas. Aber solang sich da unsere Gesellschaft und Wirtschaftssystem nicht massiv ändert, wird es da weitergehen - und auch neues brauchen.
Und was die PC-Hardware angeht: Es gibt soooo viele Probleme, allein in der Wissenschaft, die mehr Hardware-Leistung spielend ausnutzen können, ja, da braucht es noch mehr. Egal ob Grundlagenforschung, oder Medikamentenentwicklung oder sonstwas. Das ist noch lange keine Sättigung erreicht.
Computer sind in der Hinsicht ja auch noch eine sehr junge Technologie. Da kann es noch lange weiter gehen.
Fleischmann schrieb:
Man muss hier einfach der Logik den Vorzug geben: Jede technologische Entwicklung ist irgendwann an einem Punkt angelangt, an dem sie so gut ist, dass für den Einsatzbereich des Nutzers eine Weiterentwicklung nur noch wenig bis keine Vorteile mehr bringt und ab diesem Zeitpunkt sind Kriterien wie Kontinuität und Langzeitnutzbarkeit um ein vielfaches wichtiger.
Ja, "Point of diminishing returns". Wie gesagt - im End-User Bereich für die aktuellen Anwendungen(!) langsam erreicht, ja. In Industrie und Wissenschaft? Lange nicht.
Und wenn im End-User Bereich irgendein neuer Durchbruch kommt, kann auch da plöztlich wieder mehr Leistung nötig sein.
Fleischmann schrieb:
Man muss sich doch nur MS Office anschauen oder die Adobe Programme aber auch einfach nur Windows. Bei MS Office gibt es doch seit 2007 kaum bis keine neue Funktionen mehr, die aktuellen CC Versionen der Adobe Programme wie Photoshop, Illustrator und Indesign sind größtenteils identisch zu denen von CS4 und Windows 10 ist für die meisten Nutzer einfach unnnötig bzw. wären diese auch weiterhin mit WIndows 7 bestens bedient gewesen.
Alles End-User Anwendungen - dazu siehe oben.
Wobei sich z.B. bei Office auch einiges in den Details getan hat. Mittlerweile reibungslose Remote-Zusammenarbeit z.B., der Formel-Editor ist massiv besser geworden, in Powerpoint gibt's auch einige hübsche neue Sachen zur Formatierung, Grafikerstellung usw. Stillstand ist anders.
Fleischmann schrieb:
Unternehmen wie Apple aber auch Adobe und andere haben erkannt, dass für sie hiermit ein Problem ensteht, nämlich dass ein Nutzer der kein Upgrade braucht auch keines kauft. Daher wurden Mechanismen eingeführt um den Nutzer auch in Zukunft noch abhängig zu machen und zum Konsum zu bewegen. Bei Adobe ist das zB. das Abo-Modell (welches finanziell gesehen kompletter Schwachsinn ist), Bei Apple sind es Dinge wie der App-Store oder auch das verlöten von Hardware. Microsoft und Google hingegen möchten den Kunden gerne durch Cloud-Computing binden.
All diese Mechanismen sind nur zum Vorteil der Unternehmen und nicht zum Vorteil der Kunden.
Stimmt auf jeden Fall.
Fleischmann schrieb:
Man darf sich hier durch geschickte Marketing-Psychologie nicht blenden lassen sondern. Allein schon wenn man sich die ganzen lückenhaften und subjektiven Influencer Videos zum M1 auf Youtube anschaut sollte einem klar sein, wie extrem man mittlerweile an allen Stellen manipuliert wird. Hier wird in KEINEM Video die Nachteile des M1 angesprochen, in keinem einzigen. Und das halte ich persönlich schon für sehr erschreckend (Influencer sind aber wieder ein anderes Thema). Alle zeigen wie geil die Leistung in bestimmten Anwendungen ist (natürlich nur die, wo dies zutrifft) und oft auch in Anwendungen in denen die CPU Performance überhaupt keine Rolle spielt, sondern die GPU, wodurch der Vergleich zwischen ARM und x86 überhaupt nichts damit zu tun hat.
Mag sein, das mancher Influencer das nicht so sauber auflöst, die schaue ich mir halt nicht an.
Das die GPU betrachtet wird, ist dagegen nun doch nix falsches. Die ist auch eine Eigenentwicklung, und tritt eben in der Low-Power Klasse größtenteils gegen iGPUs in den x86 Prozessoren an. Und hat für einen ersten Versuch erstaunlich viel Power.
Fleischmann schrieb:
Genauso wird nirgends erwähnt, dass Apples M1 in 5nm gefertigt wird und dann vergleicht man die Performance mit einem alten 14nm Intel CPU in einem Macbook Air mit unglaublich schlecht konzipierter Kühl-Lösung (man könnte schon fast sagen, dass sie absichtlich so schlecht konzipiert wurde um den M1 noch besser darstellen zu können).
Der Fertigungsprozess ist für den Endkunden aber völlig latte. Sie haben heute eben die Wahl zwischen Intel CPUs, die noch auf 14nm rumkrebsen, weil Intel an der Fertigung scheitert, AMD CPUs in 7nm, und Apple CPUs in 5nm.
Welcher Endkunde interessiert sich den kaufentscheident dafür, wie groß die Transistoren sind? Ich kaufe ein Gerät, das meine Leistungsanforderungen erfüllt. Dementsprechend interessieren mich vergleiche in der Leistung.
Fleischmann schrieb:
Und genau hier sehe ich x86 als Zukunftsweisend. Wenn ich davon ausgehe, dass ich den Computer den ich heute kaufen zB. mit einem AMD 7nm, der einfach so ubglaublich extrem gut ist auch noch in zehn Jahren nutzen möchte, dann möchte ich auch, dass ich Arbeitsspeicher und Massenspeicher und Akku tauschen kann (also Dinge die als Verschleissteile bei Computern gelten) und auch in zehn Jahren noch die Software nutzen können werde die ich mir heute kaufe, alleine schon um alte Dateien überhaupt in Zukunft noch öffnen zu können.
Nur, dass das nichts mit x86 vs ARM zu tun hat. Auch in einem x86 PC können Komponenten verlötet, oder verdongelt werden (und es geschieht in manchen Notebooks ja auch schon). Das hat einfach was mit der Firmenphilosophie zu tun - und in dem Punkt ist Apple echt schlecht unterwegs, dem stimme ich völlig zu.
Wird mit Right-to-Repair hoffentlich wieder etwas besser.
Fleischmann schrieb:
Es geht nicht mehr um Höher, Schneller, Weiter, es geht vielmehr um Langlebigkeit, Nachhaltigkeit und Kontinuität, nicht nur im Bezug auf die eigenen Daten sondern auch auf zB. die Umwelt. Denn auch hier ist es vollkommen irrisinng Geräte zu bauen, die nach durchschnittlich fünf Jahren zum Elektroschrott werden.
Ich sehe Apple hier absolut als Vorreiter all dieser für Kunden und Umwelt negativen Aspekte und daher ist dieses Unternehmen m.E. absolut zu byokottieren.
Zu undiffernziert. Im PC Bereich - ja. Würde ich niemandem einen Mac empfehlen, sondern eine hochwertige (und preislich daher in ähnlichen Regionen) Windows-Maschine, da hat man dann lange was von.
Mobilbereich? Da ist die Konkurrenz zu Apple halt so überhaupt nicht doll, was Langlebigkeit und Support angeht. Da ist Apple stand heute (eventuell noch neben Fairphone) der beste Anbieter, wenn es um Langlebigkeit & Support geht.
Und auch wenn Apple im Mac Bereich leider den Softwaresupport relativ schnell fallen lässt (verglichen mit Windows) - von der Hardware sind ihre Geräte meist sehr langlebig, ich kenne einige Leute, die 10+ Jahre alte MacBooks als einzigen PC haben. Läuft halt, und (Sicherheits)-Updates sind vielen Leuten leider nicht so wichtig, wie sie sein sollten.
Dagegen geben viele (vor allem günstigere) Windows-Geräte auch schonmal früher den Geist auf.