News Hardwareanforderungen von Windows Vista

Es gibt auch absolute Grenzen des Wachstums. Wenn dein Rechner 1000 Watt verbraucht, und das auch im Idle Modus dank Vista, dann ist die Grenze erreicht, unabhängig davon, ob wir das Jahr 2005 oder 2015 haben. Sicherlich wird die Leistung der Rechner in zwei Jahren soweit sein, aber ich möchte ersteinmal sehen, dass die ganze neue Hardware kühl, leise und stromsparend läuft. Das wäre in der Tat ein Evolutionssprung, den ich in den letzten 20 Jahren nicht erlebt habe. Daher bezweifele ich, dass das ganze nur eine Frage der Zeit ist. Solange es keine Fusionsreaktoren gibt und der Strom nicht billiger wird ist eine solche Energieverpulverung für einen popligen Heimpc völlig irrsinnig. Ein 1000 Watt Staubsauger hat vor 10 Jahren furchtbar viel Strom verbraucht und verbraucht immer noch verflucht viel Strom. Entsprechend wird ein Vista PC auch in 10 Jahren eine Zumutung sein, sollte es keine entsprechende Evolution bei der Hardware geben. Ich glaube allerdings nicht an Wunder.
 
Scotty4BMAN schrieb:
lol....ich gebs auf.
Du musst nicht aufgeben, reicht wenn Du das Gegenteil beweisen kannst.
Ich habe den entsprechenden Link gepostet welche meine "Behauptung" untermauert, nun bist du am zug Deine "Behauptung" zu beweisen und mich damit eindeutig zu widerlegen!:evillol:
 
@Dahum

Sag doch mal bitte wo ein Conroe mehr Energie verbrauchen werden soll als ein Athlon XP, tut mir leid aber der ist für 65 W spezifiziert und das ist mein Thoroughbred-B auch - Intel hat den Tejas nicht ohne Grund eingestampft, die Grenze des Prozessorverbrauchs ist aktuell erreicht, er wird für die nächsten Jahre nicht mehr steigen. Moderator Stromverbrauch hat sich mittlerweile als Verkaufsargument bewiesen und deswegen nutzt Intel auch die Erkenntnisse des Pentium-M-Experiments für Sossaman und Conroe/Woodcrest und Apple verkündet das neue Lebensmotto "Performance per Watt".

Wenn ich Hardware habe möchte ich sie auch benutzen, kuck mal Rezzo Schlauch von den Grünen fährt leidenschaftlich gerne Sportwagen - also was macht er um das grün zu tun? Er fährt einen flitzigen Sportwagen der auch bei sportlicher Gangart unter 5 l Benzin auf 100 km braucht, das ist wahr, das Ding hattense mal bei Auto Motor und Sport TV mit Fahrer vorgestellt und das Ding ist auch schon älter. Ich finde eben genau so muss man das nehmen, nicht teure Presskot-Ware kaufen und dann hinterher ewig die Nutzung verweigern, weils Strom kostet, sondern sich nen Winchester/Venice oder Sossaman oder Conroe holen oder wenn man grün ist eben gleich nur mit echten Notebook-Prozessoren (Pentium-M, Turion) arbeiten, den man dann auch benutzt.
 
Zuletzt bearbeitet:
ich weiß nicht so recht wie man die sache betrachten soll, hat seine vor und nachteile :

vorteile:
die leute werden gezwungen neue hardware zu kaufen, das ist wünschenswert. so sitzt man wenigstens nicht in 2 jahren noch auf alten 2 ghz ramsch - rechnern rum. der technologische fortschritt wird gepusht und die technik wird schneller entwickelt wenn man merkt dass es die leute auch kaufen und kaufen wollen. 2 gb ram sind heute schon erschwinglich, selbst bei gutem speicher. in 2 jahren werden diese 2gb für ein taschengeld auf dem markt sein. die qualität von HD ist atemberaubend, und wenn man dafür einen neuen bildschirm braucht, ist das in ordnung --> man bekommt ja leistung für sein geld. nichts ist unnütz angelegt !

nachteile:
man zahlt einen neuen rechner und einen neuen monitor. aber auch das ist machbar. und wer sich's nicht leisten kann, der bleibt eben auf nem alten stand, das ist ungerecht, aber schon immer so=) !
 
Oha, diese 2 GB RAM Sache scheint ja doch ne heikle Diskussion zu sein.
Also wie ich gelesen hab soll eine typische Anwendung das neue Office sein.

Halte ich imho dennoch für recht viel. Mich würde dann nämlich interessieren wie der Ablauf bei 1 GB RAM aussieht bzw. wie 'weniger wie optimal' aussehen würde.


Aber hier scheint diese 32/64 Bit Sache echt Fragen aufzuwerfen.
Ich glaub ich hohl hier mal etwas weiter aus...

Seit des vollen ASCII-Satzes waren 8 Bit gang und gebe. Damit liesen sich die 2^8=256 Zeichen Darstellen. Diese 8 Bit sind 1 Byte. Mit denen wird heute noch gerechnet.
Mit der Zeit wuchs eben die Anforderung der Größe der Blöcke um die Menge an Zeichen vergrößern zu können. Das sind zum großen Teil internationale Zeichen wie Maschinenzeichen (interessieren den Benutzer eher wenig, mehr die CPU).
In einem Dateisystem werden nun entweder 32 oder 64 oder sonst welche Speicherblöcke angelegt, jedoch eben immer nur eine bestimmte Bit-Block-Größe. Ich selber hab es noch nicht erlebt, dass ein Dateisystem variable Blockgrößen anlegte.

Es stimmt nun, dass 64 Bit exakt doppelt soviel auf der Magnetspur oder im Zwischenspeicher belegt wie 32 Bit. Aber:
Ich will in einem Speicherblock zB ein Zeichen der Ordnung 2^64-2 Speichern so wird der in einem 64 Bit System der Speicherblock komplett ausgenutzt, während ich bei einem 32 Bit System logischerweise 2 Speicherblöcke brauchen würde, die miteinander einen Pseudo 64er-Block bilden. Jedoch habe ich es noch nicht erlebt, dass irgendein Betriebssystem solche künstlichen Blockgrößen herstellt. Wäre auch glaube ich sehr instabil. Nichtsdestotrotz, würde ich bei beiden Systemen für dieses Zeichen 6 Byte verbrauchen.
Siehe da: identischer Speicherverbrauch.
Der Sinn hinter 64 Bit ist eher der bessere Datendurchfluss und dass die Referenzen zwischen Speicherblöcken nicht so immens werden, sprich: Die ganze Hash-Tabelle wird entlastet was einen Geschwindigkeitszuwachs zufolge hat (Im obigen Beispiel muss der Rechner irgendowher wissen, dass diese 2*32 Bit Blöcke zusammengehören).

Komplizierter wirds dann, wenn man etwas realistischer wird:
Es kann auch Anwendungen geben, deren fertig compilierter Maschinencode kein Zeichen über der 32 Bit Grenze hat. Hier macht ein 64 Bit System nur wenig Sinn, da für jedes zeichen ein 64 Bit Block angelegt wird, obwohl nur 32 reichen würden. Die Folge: höherer Speicherbedarf trotz des exakt gleichem Programms.
Und genau in so einem Fall hätte man einen größeren Speicherverbrauch von fast 100%, also dem doppelten.

Sollte man jedoch Anwendungen schreiben die die 64 Bit optimal nutzen, so lassen sich pro Speicherblock wesentlich mehr Informationen speichern. Jeder kann sich ausrechnen dass 2^64 weitaus mehr als das doppelte von 2^32 ist.
Ein theoretischer aber ziemlich unrealistischer Sonderfall wäre, noch weniger Speicher bei einem 64 Bit System zu verbrauchen als bei einem 32 Bit System. Aber wie gesagt... sehr unwarscheinlich.

Im 64 Bit Windows wirden nun 64 Bit Blöcke soweit wie möglich ausgenutzt, aber es entstehen nunmal auch Datenblöcke kleiner wie 32 Bit. Der Res ist eben 'verlorerener Speicherplatz'. Also je nachdem wie optimal die 64 Bit genutzt werden, brauchen zukünftge Windowsversionen etwas mehr bis vielleicht sehr viel mehr Speicher.


Als Fazit kann man sagen:
- realistisch auf physikalischen Speichern betrachtet heißt doppelte Bitzahl nicht gleich doppelter Speicherverbrauch. Je nach programm kann sich der zusätzliche Speicherbedarf zwischen 0% und 100% bewegen (mal rein grob statistisch gesehen).
- rein praktisch für den Käufer gesehen heißt dies i.d.R. meißt doppelten Arbeitsspeicher zulegen, was aber nicht grundsätzlich zutreffen muss.



So, soviel so gut. Wer Fehler findet (also zu dem Inhalt, nicht Rechtschreibfehler), soll bitte seinen Senf dazugeben. Hab ich auch was davon, wenn der gut ist.
 
Wenn dein Rechner 1000 Watt verbraucht, und das auch im Idle Modus dank Vista
Was scheinbar einige vergessen: nicht Software, sondern Hardware verbraucht Strom. Mein PC (inkl. 17" Monitor) braucht keine 100 Watt... Und wenn ein PC zu viel Strom braucht, dann ist wohl primär Intel daran Schuld, da sie dem GHz-Wahn der Kunden ein Angebot geschaffen haben. Aber spätestens ab nächsten Sommer ist das ja sowieso Geschichte, wenn die neuen Stromsparenden Prozessoren da sind.
 
so einen scheiß kann man doch nicht herstellen... solche anforderungen sind echt eine unverschämtheit... und dann noch geld dafür verlangen!
 
KL0k schrieb:
das winxp mit 128mb ram nicht schlecht läuft halt ich aber fürn gerücht, mit 128mb ist es ''ertragbar'' darauf könnten wir uns einigen. aber spass macht das arbeiten unter xp erst ab 256 bzw. 512mb.
allerdings läuft xp auch mit nur 96mb ram. zwar dauert alles in heutigen verhältnissen ewig aber es läuft.

und ich glaub das es bei den vorraussetzungen für vista ähnlich aussieht. ich denke die meisten rechner werden in 2 jahren mit der angepeilten power bei kompakt systemen die man in den kaufhäusern so vorfindet schon so ausgestattet sein. überlegt doch ma, vor 2jahren dacht ich noch mit 512mb komm ich locker hin. vor 2 jahren dacht ich noch meine radeon 9500pro ist der überhammer. vor 2 jahren hab ich mich über ne 2ghz cpu den arsch ab gefreut. heute steht sowas in der ecke abgestempelt als ''nicht-mal-mehr-standard''-kram, für aktuelle spiele eher untauglich.
und bist ende 2006 ist auch noch ne weile. die ganzen aktuell releasten grafikkarten werden bis dahin die standardkarten sein, wenn nicht schon lang wieder überholte modelle sein. selbes gilt für cpus festplatten und ram. der ram besonders. bei dem arbeitsspeicher wird sich denke ich noch einiges drehen in der zeit. einige fangen doch jetzt schon an ihr system mit 2gb auszustatten, obwohl viele der meinung sind das sei überdimensioniert.
und bis dahin wird so eine menge mit sicherheit standard sein.

ich freu mich jedenfalls auf das jahr im allgemeinen (vor allem auf kommende games die das alles nutzen können/sollen/müssen) und hoff das ich kohle genug hab meine kiste bis dahin recht uptodate zu halten :freaky:

sorry aber diese meinung teile ich nicht mit so nen pc kann man sehr gut noch 2 Jahre auskommen ohne Win Vista natürlich aber für XP und spiel ist das wohl wirklich kein problem.
 
Ähem, spiele auf so einem PC bitte mal die FEAR-Demo - trotz minimum Details und 640*480 rutscht FEAR schon bei mir auf AthlonXP 2600+ und Radeon 9700 vereinzelt unter 30 fps - und meine 9700 ist deutlich leistungsfähgier als die 9500Pro mit der älfte Pipelines und 128b Speicherbus...
 
sorry solche spiele spiele ich ja gar nicht , hab wohl die anderen vergessen !!! :D
Ich meinte mir reicht es wohl schon denn ego shoter oder sowas spiel ich fast überhaupt ned.sonder nur NHL und FIFA evtl mal emergency aber das war es dann eigentlich auch schon.:freaky:
 
Warte mal auf die Fifa- und insbesondere NHL-Versionen die für PS3-Only, also ohne Backport auf PS2, gemacht sein werden - da kommt einiges auf den PC zu. (die kommen freilich erst 2006 ein paar Monate vor dem launch von Vista) ;)
 
Zuletzt bearbeitet:
stachr schrieb:
sorry solche spiele spiele ich ja gar nicht , hab wohl die anderen vergessen !!! :D
Ich meinte mir reicht es wohl schon denn ego shoter oder sowas spiel ich fast überhaupt ned.sonder nur NHL und FIFA evtl mal emergency aber das war es dann eigentlich auch schon.:freaky:
Und exakt das ist der Punkt. Du spielst "alte" Spiele auf einem "alten" Rechner mit einem "alten" Betriebssystem.
Das ist nicht wertend gemeint, zeigt aber den Apfel-Birne Vergleich auf.
Der zu der Zeit neue Aldi-Rechner, der Vista vorinstalliert haben wird, wird sicherlich genug Rechenleistung haben, um Aero Glass ohne Stress darzustellen.

Sehts einfach als schickes Gimmick, das eure teuer erkaufte Hardware weiter ausreizt und euch beim normalen Arbeiten im Betriebssystem "mehr Spaß machen kann". Gezwungen wird niemand dazu. Vergesst das nicht.

Außerdem kann ich jetzt schon die Hand dafür ins Feuer legen, dass sich die meisten spätestens ein Jahr nach Vista Einführung einen Rechner besorgen, der das flüssig darstellen kann. Der "will ich auch" Effekt von Apple kombiniert mit Windows Kompatibilität wird viele in den Bann ziehen, die momentan Microsoft für total bescheuert erklären.

Aber das hatten wir bei 95, 98, 2000, XP und vielen anderen Versionen gesehen.
(Me lass ich aus. Das war wirklich nur ein Rotz.)
Erst großes Gemecker, dass es viele unnötige Sachen hat, ohne die man auch vorher ausgekommen ist, aber wenn mans dann mal hatte wollte man nicht mehr zurückwechseln.

Bei der Arbeit habe ich einen Win2k Rechner und vermisse jeden Tag ClearType. Das ist für mich eins der deutlichen Beispiele, dass Windows in den neuen Versionen zwar nicht viel neues bietet aber mindestens irgendwas, wegen dem man die alte Version nicht mehr haben will.

@ChiliConCarne:
Speicheradressierung im Ram und in Dateisystemen funktioniert Blockweise aber nicht in so winzigen Blöcken.
Beim RAM sinds aktuell 4KB, die ein Programm anfordern kann, bei Platten standardmäßig auch 4KB je Datei (Clustergröße), die kann man aber auch kleiner stellen glaube ich. Nagelt mich hier nicht fest :) Größer auf jeden Fall (64kb).
Die Beispiele gelten jetzt für NTFS.

Auch wenn du als Programmierer weniger als 4kb reintust, wird der Bereich für dich reserviert.

Kommen wir aber zum eigentlichen Problem mit dem doppelten Speicher:
ein int hat auf einem 16 bit System 16 bit, ein long 32 bit.
Auf einem 32 bit System hat ein int 32 bit, ein long auch.
Auf einem 64 bit System 64 bit.
Speicheradressen haben 64 bit. Pointer SIND Speicheradressen.

floats weiß ich jetzt nicht genau, die nutzen sicher auch mehr Speicherplatz und sind so genauer.

Du wirst auf jeden Fall mehr Speicher brauchen. Vielleicht nicht garantiert 2x mehr aber es ist doch einiges was dazu kommt, auch wenn du sehr optimiert programmierst oder der Compiler Wunder vollbringt.

Fummeleien, mehrere Register oder Speicherbereiche (die dann 32 bit breit auf einem 32 bit System sind und bei einem 64er entsprechend 64 bit) zusammenzubauen kommen recht selten vor und man versucht sie zu vermeiden.

Nur wenige Teile von den Programmen sind wirklich Text (der wird seit Windows NT als Unicode gespeichert und braucht 16bit pro Zeichen, das bezieht sich auf alle Texte innerhalb von WinNT und höher. Nicht unbedingt auf Textdateien, die nach wie vor ASCII oder andere 8bit Kodierungen sind/sein können).

64 bit wird einiges an Speicher mehr brauchen. Soviel ist klar. Das hatten wir aber beim Umstieg von 16 auf 32 Bit aber schonmal mitgemacht.
Damals gabs ähnliche Diskussionen (auch wenn nicht in einem öffentlichen Forum wie dem hier und das "öffentliche" Interesse von Nichtinformatikern hielt sich diesbezüglich auch in Grenzen) aber man hatte kurze Zeit danach die Vorteile gesehen.

Wir werden diese sehen, sobald mehr als 4GB Speicher (ob physikalisch oder virtuell) adressiert werden müssen und werden dankbar sein keine Krücken wie XMS EMS und ähnliche Widerwärtigkeiten von Assembler-Hackern nutzen zu müssen.

Mit 64 bit sollte auf jeden Fall länger Ruhe sein als beim Wechsel von 16 auf 32 bit.
Wobei man mit solchen Aussagen vorsichtig sein sollte, wie wir an der rasanten Entwicklung jeden Tag sehen.

so far, erazor
 
[UPS]Erazor schrieb:
@ChiliConCarne:
Speicheradressierung im Ram und in Dateisystemen funktioniert Blockweise aber nicht in so winzigen Blöcken.
Beim RAM sinds aktuell 4KB, die ein Programm anfordern kann, bei Platten standardmäßig auch 4KB je Datei (Clustergröße), die kann man aber auch kleiner stellen glaube ich. Nagelt mich hier nicht fest :) Größer auf jeden Fall (64kb).
Die Beispiele gelten jetzt für NTFS.
Kleiner stellen bin ich mir auch nicht sicher. Jedenfalls war in den Elektrotechnikvorlesungen wie Praktika über Speicherverwaltung von Betriebssystemen keine Rede davon. Aber wit der Clustergröße von 4kB hat meiner einer noch was dazugelernt :) .

[UPS]Erazor schrieb:
Auch wenn du als Programmierer weniger als 4kb reintust, wird der Bereich für dich reserviert.

Kommen wir aber zum eigentlichen Problem mit dem doppelten Speicher:
ein int hat auf einem 16 bit System 16 bit, ein long 32 bit.
Auf einem 32 bit System hat ein int 32 bit, ein long auch.
Auf einem 64 bit System 64 bit.
Speicheradressen haben 64 bit. Pointer SIND Speicheradressen.

floats weiß ich jetzt nicht genau, die nutzen sicher auch mehr Speicherplatz und sind so genauer.
Genau diesen 'Verlustspeicher' hab ich ja vorhin erwähnt ;) . Floats nutzen im Falle ohne Dezimalstelle genausoviel Speicher wie Integerzahlen. Ansonsten ist die Größe von Floats mit Dezimalstellen i.d.R. Anzahl der ganzen Ziffern + Anzahl der dezimalstellen + 1. +1 Wegen des Kommaseperators. Gilt aber nur für Gleikommazahlen die ins binäre System umgeschrieben werden. In den meißten Fällen werden alle Ziffern der Gleitkommazahlen Byteweise gespeichert. Sprich: Es handelt sich quasi um einen 'String'. Und der verbraucht wirklich mehr Speicher... ist aber dafür sicherer.


[UPS]Erazor schrieb:
Du wirst auf jeden Fall mehr Speicher brauchen. Vielleicht nicht garantiert 2x mehr aber es ist doch einiges was dazu kommt, auch wenn du sehr optimiert programmierst oder der Compiler Wunder vollbringt.

Fummeleien, mehrere Register oder Speicherbereiche (die dann 32 bit breit auf einem 32 bit System sind und bei einem 64er entsprechend 64 bit) zusammenzubauen kommen recht selten vor und man versucht sie zu vermeiden.
Jupp, eine Optimierung derart ist recht unrealistisch und das Referenzieren fürt halt eben irgendwann zu einer wahnsinns Fragmentur. Aber wie du schon meinst: 'nicht garantiert 2x'. Das war der Punkt.

[UPS]Erazor schrieb:
Nur wenige Teile von den Programmen sind wirklich Text (der wird seit Windows NT als Unicode gespeichert und braucht 16bit pro Zeichen, das bezieht sich auf alle Texte innerhalb von WinNT und höher. Nicht unbedingt auf Textdateien, die nach wie vor ASCII oder andere 8bit Kodierungen sind/sein können).
Wäre ja toll wenn der Rechner nur mit Lesbaren Zeichen agieren würde :) . Jupp, das meiste an Zeichen interessiert dann doch eher die Maschine.
Das mit 16bit pro Zeichen erfahr ich jetzt auch. Gut, hab ja noch ne Win98 Gurke hier stehen :) .

[UPS]Erazor schrieb:
64 bit wird einiges an Speicher mehr brauchen. Soviel ist klar. Das hatten wir aber beim Umstieg von 16 auf 32 Bit aber schonmal mitgemacht.
Damals gabs ähnliche Diskussionen (auch wenn nicht in einem öffentlichen Forum wie dem hier und das "öffentliche" Interesse von Nichtinformatikern hielt sich diesbezüglich auch in Grenzen) aber man hatte kurze Zeit danach die Vorteile gesehen.

Wir werden diese sehen, sobald mehr als 4GB Speicher (ob physikalisch oder virtuell) adressiert werden müssen und werden dankbar sein keine Krücken wie XMS EMS und ähnliche Widerwärtigkeiten von Assembler-Hackern nutzen zu müssen.

Mit 64 bit sollte auf jeden Fall länger Ruhe sein als beim Wechsel von 16 auf 32 bit.
Wobei man mit solchen Aussagen vorsichtig sein sollte, wie wir an der rasanten Entwicklung jeden Tag sehen.

so far, erazor
Auf den neuen Durchsatz bin ich auch gespannt. Ich hoffe dass zukünftige Windowsversionen damit aucvh schnell umgehen können, weil so viel Zwischenspeicher auf die Fesplatte und wieder zurück in den RAM werfen hört sich momentan nach ziemlich viel 'Festplattengeratter' an.

So long, Chilli (der sich über eine fachliche Diskussion freut :) )
 
Zuletzt bearbeitet:
Kommen wir aber zum eigentlichen Problem mit dem doppelten Speicher:
ein int hat auf einem 16 bit System 16 bit, ein long 32 bit.
Auf einem 32 bit System hat ein int 32 bit, ein long auch.
Auf einem 64 bit System 64 bit.
Speicheradressen haben 64 bit. Pointer SIND Speicheradressen.
Ein long hat auch im 32-Bit System 64 Bit, genauso wie ein double. Daran ändert sich nichts. ;)

In den meißten Fällen werden alle Ziffern der Gleitkommazahlen Byteweise gespeichert. Sprich: Es handelt sich quasi um einen 'String'. Und der verbraucht wirklich mehr Speicher... ist aber dafür sicherer.
Das ist nicht wahr, Gleitkommazahlen werden entweder in floats (4Byte), oder doubles (8Byte = 64Bit) gespeichert. Wer zum Himmel macht daraus Strings? :confused_alt:
Ich mein mit Strings rechnet es sich etwas, sagen wir, ineffizient. :daumen:

Ob man aus diesen Fakten nun den Speicherverbrauch von Windows Vista ableiten kann ist fraglich. :rolleyes:
 
Interessant, was microsoft da macht mit den Hardwareanforderungen...

Irgendwie lustig:
Nach so vielen Jahren weiss KLEINUNDWEICH (Microsoft) immernoch nicht wie man ein Betriebssystem richtig
programmiert...

Also ich werde mir dieses Betriebssystem bestimmt nicht holen.
Da lob ich mir mein MANDRIVALINUX!!!
 
Green Mamba schrieb:
Ein long hat auch im 32-Bit System 64 Bit, genauso wie ein double. Daran ändert sich nichts. ;)


Das ist nicht wahr, Gleitkommazahlen werden entweder in floats (4Byte), oder doubles (8Byte = 64Bit) gespeichert. Wer zum Himmel macht daraus Strings? :confused_alt:
Ich mein mit Strings rechnet es sich etwas, sagen wir, ineffizient. :daumen:

Ob man aus diesen Fakten nun den Speicherverbrauch von Windows Vista ableiten kann ist fraglich. :rolleyes:
Den Grund hab ich oben genannt:
Zwecks Genauigkeit. Jedoch lohnt sich diese Art und Weise der Speicherung nur bei monetären Werten. Wie und wann welche Speicherungsart genutzt wird, hängt meistens vom Betriebssystem und der Anwendung ab.
 
2 GB-Hauptspeicher?!? Ich nutze zwar WIndows, aber 2 GB sind -etwas- viel für Klicki-Bunti ;) Für XP waren damls doch auch nicht 1024 angesetzt...
 
Green Mamba schrieb:
Ein long hat auch im 32-Bit System 64 Bit, genauso wie ein double. Daran ändert sich nichts. ;)
Hmm... ich hatte da noch wirre Sachen mit 80 bit doubles im Kopf, die aber irgendwie nicht zusammenpassen.
Du kennst dich mit sowas besser aus, das weiß ich.

Green Mamba schrieb:
Das ist nicht wahr, Gleitkommazahlen werden entweder in floats (4Byte), oder doubles (8Byte = 64Bit) gespeichert. Wer zum Himmel macht daraus Strings? :confused_alt:
Ich mein mit Strings rechnet es sich etwas, sagen wir, ineffizient. :daumen:
Einige DB Systeme speichern Festkommawerte als Strings ab. Vor allem bei Geldwerten. Für den Alltagsgebrauch reichen aber meist doubles. Bei Floats kommt man schon recht schnell an die Grenzen.

Green Mamba schrieb:
Ob man aus diesen Fakten nun den Speicherverbrauch von Windows Vista ableiten kann ist fraglich. :rolleyes:
Man kann daraus nur ableiten, warum die x64 Version mehr Speicher braucht.

Das andere kann man aus noch mehr im Hintergrund laufenden Diensten, erhöhten Anfordernungen der "Standardapplikationen" und dem ganzen neuen Grafikschnickschnack.

Immer noch erstaunlich wie viele diese Hardwareanforderungen in den falschen Hals kriegen.

Die Originalmeldung in englisch sagt explizit, dass das die Anforderungen für optimale Leistung sind. Von Minimum war weit und breit nicht die Rede.

Umsonst ist nichtmal der Tod und Grafikeffekte schon garnicht. Die Rechenleistung kommt jetzt nur zum Glück von wo anders.

Zum Thema OpenGL, was vor einigen Posts aufgegriffen wurde:
Wer mit Aero Glass OpenGL benutzen will, sieht momentan alt aus, soweit ich die Meldungen und Statements richtig interpretiere.
Es gibt aber nach wie vor die Möglichkeit eigene OpenGL Treiber für volle Leistung zu schreiben. Dazu muss aber Aero Glass deaktiviert werden.
Wie das geschieht steht in den Sternen und wahrscheinlich einigen e-mails bei Microsoft. Auf jeden Fall wird OpenGL recht stiefmütterlich behandelt.
Das wurde es aber bisher auch. Wir werden sehen.

Zum Thema SATA2 mit NCQ: Das Zitat war, dass man sich so eine Platte wünschen wird wenn man mal gesehen hat, dass Vista damit bei Hintergrund-Plattenaktivität immer noch flüssig arbeitet, was bei XP und 2k nicht immer der Fall war.
Es gibt auch heute schon Treiber und Platten, die das unter XP schon können, es sind aber bei weitem nicht alle.
 
Zuletzt bearbeitet:
Hi!

Ist ja alles schön und gut, aber ich halte es dennoch für übertrieben, dass 2 GB Hauptspeicher verwendet werden, oder korekter erforderlich sind.
Normaler "standard" RAM von OCR, oder Corsair (ka was es noch gibt) ist ja erschwinglich - schade nur für Leute, die Systeme mit anderem RAM haben. (ECC, Buff'd, Regg'd).

Sonst empfinde ich die Anforderungen nicht als so brachial. Ich denke, es ist einfach eine Frage der Zeit, bis die PC systeme performant genug sind.

Gruß, GuaRdiaN
 
Hat mal jemand ein Video von AeroGlass gesehen? Mich würde mal interessieren wie das aussieht.
 
Zurück
Oben