Wattwanderer schrieb:
Schon in meinem "Surf PC" steckt 64GB RAM. Mit Threadripper sind 128GB möglich. Mit Dual Sockel und RDIMMs ließe sich jetzt TB RAM knacken. Wie groß wäre da der Sprung zum beschriebenen "Workstation"? RAM? Rechenleistung? Mit viel Optimismus ließe sich ein Faktor 10 erreichen.
Wenn du mit dem PC wirklich nur Surfst und Office Arbeiten machst, waren die 64GB halt auch einfach nur Geldverschwendung. Mehr als 16-32GB RAM braucht man auch heute nur in wenigen speziellen Anwendungsfällen. Surfen gehört da aber sicher nicht zu, außer du hast ein paar hunderttausend Tabs offen.
Bonanca schrieb:
Wieso liegt das RAM-Limit eigtl bei 2 (jetzt 6) TB?
Das ist doch beides noch lange nicht die Grenze von 64-Bit.
Erfordert jedes Byte, das potenziell adressiert werden KANN einen höheren programmieraufwand im OS?
Nein, es ist vor allem eine Beschränkung, um Power-User zu zwingen, teurere Versionen (bisher: Windows Server) zu kaufen, damit sie nicht ihr Quad-Sockel System mit ein paar TB RAM mit Windows Home betreiben.
Wattwanderer schrieb:
Wahrscheinlich hat man einfach einen sinnvoll erscheinenden Wert willkürlich gewählt. Womöglich zu Zeiten wo 2GB RAM Module Standard war. Da konnte sich keiner vorstellen, dass jemand einen Rechner mit 1024 DIMMs vollsteckt.
Off-Topic...
Wie man so etwas versieben kann sieht man IMHO bei IPv6. 32BIT zur Adressierung reicht nicht mehr. Also müssen mehr Adressen her. Statt sagen wir mal 48BIT wie z.B. bei MACs was bisher für jedes bis heute jemals produzierte Netzwerkinterfaces ausgereichte, hat man 128BIT gewählt. Das wäre wie: Oh, uns gehen die Telefonnummern aus. Verlängern wir sie mal und setzen 29 Stellen (!!!) hinzu. Das reicht wohl, um unser ganze Galaxie mit IP Adressen zu versorgen aber ob wir immer noch Internet nutzen werden wenn wir alle Planeten in unser Galaxie besiedelt haben? Bereits Mars ist ja mit Pingzeiten zwische 6 und 40 Minuten keine Freude mehr.
Im Bereich von IPs geht es auch darum, dass man nicht nur einzelne Adressen, sondern oft ganze Netzsegmente an Firmen etc. vergibt. Da bleiben dann oft IPs ungenutzt etc., es hat aber fürs Routing große Vorteile, weil man z.B. einfach sagen kann "Oh, Paket kommt aus dem Netzsegment - ab zu Wallmart damit". Wenn man eng plant und sowas wie 48Bit nimmt, werden die Adressen am Ende wirklich one-by-one an die Kunden verteilt und man hat überhaupt keine Segmentierung des Netzes mehr. Da ändern sich die letzten 2 Bit, und man ist auf einem anderen Kontinent bei einer anderen Firma oder ISP - obwohl es von der IP her das gleiche Segment ist.
Es gibt dagegen sogar stimmen die sagen, selbst v6 ist zu klein - wobei das auch noch mit anderen Sachen zusammenhängt. Sehr große Firmen sind z.B. gerne ihr eigener ISP, weil sie dann auch über mehrere Standorte IPs etc. exakt managen können. Um ISP zu sein, braucht man aber schon ein relativ großes Netzsegment (/40? /48? Glaube ich?), und davon gibt es dann schon fast wieder zu wenige.
Dazu wollte man um jeden Preis NAT in Zukunft verhindern - v6 kann ja auch by design einfach kein NAT. Und bevor man sich verschätzt und so eine Umstellung wie von v4 auf v6 in 50 Jahren wieder machen muss, hat man hier lieber etwas großzügiger gearbeitet.