Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
EspE
Lieutenant
- Registriert
- Feb. 2008
- Beiträge
- 674
warum?
weil die cpu über den bus mit ram komuniziert.
wie?
Stress levels available:
1 - Maximum stress
2 - Half stress (uses 1/2 of available memory)
3 - Low stress (uses 1/4 of available memory)
4 - Customize stress level
Please select desired stress level> 1
Using maximum available memory to stress test (2531 MB).
das ist wohl kein inPlace FFT
achja, ps.: endlich mal Linpack für windoof
weil die cpu über den bus mit ram komuniziert.
wie?
Stress levels available:
1 - Maximum stress
2 - Half stress (uses 1/2 of available memory)
3 - Low stress (uses 1/4 of available memory)
4 - Customize stress level
Please select desired stress level> 1
Using maximum available memory to stress test (2531 MB).
das ist wohl kein inPlace FFT
achja, ps.: endlich mal Linpack für windoof
Freeman_DIY
Lt. Junior Grade
- Registriert
- März 2008
- Beiträge
- 277
Hi Leute,
ich gebs inzwischen auch auf. Ich kann meine CPU sowohl mit IBT als auch mit P95 nicht sicher als "stabil" bezeichnen. Beide Tests habe ich über Stunden (ITB 13h - bei 8GB RAM echt krass und P95 24h) laufen lassen. Natürlich "stabil". Dann ne ganz normale FE-Berechnung angeschmissen. 2h später... Reboot. Alles wieder auf DEFAULT Werte gesetzt wiederholt... Rechnung lief. S***** auf diese P*** Tools.
Für Spiele reicht Prime, oder man verzichtet ganz drauf weils eh keine Rolle spielt. Bei ernsthaften CPU Anforderungen kann kein "Hilfstool" eine Abschätzung über die Stabilität der Übertaktungsergebnisses liefern. Leider.
Ich könnt
ich gebs inzwischen auch auf. Ich kann meine CPU sowohl mit IBT als auch mit P95 nicht sicher als "stabil" bezeichnen. Beide Tests habe ich über Stunden (ITB 13h - bei 8GB RAM echt krass und P95 24h) laufen lassen. Natürlich "stabil". Dann ne ganz normale FE-Berechnung angeschmissen. 2h später... Reboot. Alles wieder auf DEFAULT Werte gesetzt wiederholt... Rechnung lief. S***** auf diese P*** Tools.
Für Spiele reicht Prime, oder man verzichtet ganz drauf weils eh keine Rolle spielt. Bei ernsthaften CPU Anforderungen kann kein "Hilfstool" eine Abschätzung über die Stabilität der Übertaktungsergebnisses liefern. Leider.
Ich könnt
Zuletzt bearbeitet:
EspE schrieb:was ist eine FE-Berechnung?
Finite-Elemente-Berechnung meint er damit. Ist eine Möglichkeit zur Berechnung von komplexen Zusammenhängen nach der Finite-Element-Methode.
Da zählt wirklich alles an Rechenpower die man bekommen kann. Wenn ne Berechnung normalerweise 10 Stunden dauert lohnt es sich da schon wenn man durch übertakten nur noch 9 oder 8 brauch. Nicht jede Berechnung die man fährt ist ausserdem brauchbar.
@Freeman
Was lässten Tolles rechnen? Strukturverhalten, Strömungssimulation oder sonst was Exotisches?
@Topic
Mhh... Wenn ich mir dass hier so durchles' dann scheint IBT wohl doch nicht so prall zu sein.
Der Fall von Freeman erinnert mich genau an den AthlonXP den ich hatte. Den lies ich auch ne Weile auf 2,26GHz laufen (OC-Krücke) und weder P95 noch die damaligen Games brachten die Kiste zum wackeln. Allerdings kam dann irgendwann Crysis raus und ich lies ebenfalls ab und an mal eine FE-Berechnung drauf laufen. Leider schmierte mir die Mühle an einer Tour dabei ab . Takt etwas zurück auf 2,2GHz und schon war das Prob gelöst
Ist eben doch nicht unbedingt alles stabil was den Anschein erweckt stabil zu sein
Freeman_DIY
Lt. Junior Grade
- Registriert
- März 2008
- Beiträge
- 277
@ LKennedy: Habe mit/für Studenten einige Rechnungen zum Thema Topologieoptimierung mit Hyperworks machen dürfen/müssen.
Und ja... jedes GHz zählt. Weil die Rechenzeit 1:1 mit der CPU Leistung skaliert.
@cplpro: das problem ist, dass ich nen (also z.B. meinen) E8400 locker auf 4GHz takten kann, und dann damit zocken könnte. Nur will ich ernsthaft die Leistung nutzen (FEM), dann macht sich jedes kleine "umgekippte" Bit bemerkbar... sprich die Rechnung läuft nicht. Bei nem Spiel merkste das nicht. Selbst für geringstes Übertakten muss man für die 100% Stabilät um einiges mehr an Spannung geben als das für nen P95 oder IBT notwendig wäre. Oder aber man kann nicht so hoch übertakten.
Und ja... jedes GHz zählt. Weil die Rechenzeit 1:1 mit der CPU Leistung skaliert.
@cplpro: das problem ist, dass ich nen (also z.B. meinen) E8400 locker auf 4GHz takten kann, und dann damit zocken könnte. Nur will ich ernsthaft die Leistung nutzen (FEM), dann macht sich jedes kleine "umgekippte" Bit bemerkbar... sprich die Rechnung läuft nicht. Bei nem Spiel merkste das nicht. Selbst für geringstes Übertakten muss man für die 100% Stabilät um einiges mehr an Spannung geben als das für nen P95 oder IBT notwendig wäre. Oder aber man kann nicht so hoch übertakten.
Zuletzt bearbeitet:
Freeman_DIY
Lt. Junior Grade
- Registriert
- März 2008
- Beiträge
- 277
Was auch witzig ist: Die CPU Temperatur bei 100% Auslastung ist bei FEM Tools verhältnismäßig gering. Jedenfalls gut 15 bis 20K weniger als bei IBT. Trotzdem kackt der Rechner ab.
@Freeman
Mhh... Mit Topologieoptimierung hab ich selbst weniger zu tun . Hab mal verschiedene Stukturen auf ihre Eigenmoden hin berechnen lassen. Ist aber schon ne Weile her und muss mich demnächst mal wieder genauer damit beschäftigen
@Topic
Joah, Stabilität ist eben Ansichtssache und definiert sich von Fall zu Fall anders. Im einen Fall machen kleine Fehler nichts aus und in nem andren kommts eben auf die Richtigkeit von jedem Bit an.
Nebenbei machens die Hersteller doch auch vor. Nicht umsonst werden zB Xeon's oder Quadro's mit höheren Anspüchen selektiert.
Da selbst dann nie zu 100% ein Fehler ausgeschlossen werden kann, gibts noch die Möglichkeit redundater Rechensysteme. Dabei werkeln mehrere Systeme an der gleichen Aufgabe, vergleichen ihre Ergebnisse und lediglich das Ergebniss mit der höchsten Zuverlässigkeit wird ausgespuckt. Wird so zB in der Raumfahrt verwendet.
Also die Frage der Stabilität muss jeder für sich selbst stellen.
MfG
Mhh... Mit Topologieoptimierung hab ich selbst weniger zu tun . Hab mal verschiedene Stukturen auf ihre Eigenmoden hin berechnen lassen. Ist aber schon ne Weile her und muss mich demnächst mal wieder genauer damit beschäftigen
@Topic
Joah, Stabilität ist eben Ansichtssache und definiert sich von Fall zu Fall anders. Im einen Fall machen kleine Fehler nichts aus und in nem andren kommts eben auf die Richtigkeit von jedem Bit an.
Nebenbei machens die Hersteller doch auch vor. Nicht umsonst werden zB Xeon's oder Quadro's mit höheren Anspüchen selektiert.
Da selbst dann nie zu 100% ein Fehler ausgeschlossen werden kann, gibts noch die Möglichkeit redundater Rechensysteme. Dabei werkeln mehrere Systeme an der gleichen Aufgabe, vergleichen ihre Ergebnisse und lediglich das Ergebniss mit der höchsten Zuverlässigkeit wird ausgespuckt. Wird so zB in der Raumfahrt verwendet.
Also die Frage der Stabilität muss jeder für sich selbst stellen.
MfG
EspE
Lieutenant
- Registriert
- Feb. 2008
- Beiträge
- 674
LKennedy schrieb:Also die Frage der Stabilität muss jeder für sich selbst stellen.
ha, korrekt, nie wieder primescreens als beweis vorlegen müssen