Neues Stresstool IntelBurnTest

Na denn :D
 
Welchen Test bei Prime machst du denn ?
 
Zuletzt bearbeitet:
Wo taucht denn der Fehler auf bei welchem Test ?
 
Wie und warum soll der FSB getestet werden ? o_O
 
warum?

weil die cpu über den bus mit ram komuniziert.

wie?

Stress levels available:
1 - Maximum stress
2 - Half stress (uses 1/2 of available memory)
3 - Low stress (uses 1/4 of available memory)
4 - Customize stress level

Please select desired stress level> 1
Using maximum available memory to stress test (2531 MB).


das ist wohl kein inPlace FFT ;)




achja, ps.: endlich mal Linpack für windoof:utpulsegun:
 
Ja davon reden wir doch die ganze Zeit^^
 
Hi Leute,

ich gebs inzwischen auch auf. Ich kann meine CPU sowohl mit IBT als auch mit P95 nicht sicher als "stabil" bezeichnen. Beide Tests habe ich über Stunden (ITB 13h - bei 8GB RAM echt krass und P95 24h) laufen lassen. Natürlich "stabil". Dann ne ganz normale FE-Berechnung angeschmissen. 2h später... Reboot. Alles wieder auf DEFAULT Werte gesetzt wiederholt... Rechnung lief. S***** auf diese P*** Tools.

Für Spiele reicht Prime, oder man verzichtet ganz drauf weils eh keine Rolle spielt. Bei ernsthaften CPU Anforderungen kann kein "Hilfstool" eine Abschätzung über die Stabilität der Übertaktungsergebnisses liefern. Leider.

Ich könnt :kotz:
 
Zuletzt bearbeitet:
EspE schrieb:
was ist eine FE-Berechnung?

Finite-Elemente-Berechnung meint er damit. Ist eine Möglichkeit zur Berechnung von komplexen Zusammenhängen nach der Finite-Element-Methode.

Da zählt wirklich alles an Rechenpower die man bekommen kann. Wenn ne Berechnung normalerweise 10 Stunden dauert lohnt es sich da schon wenn man durch übertakten nur noch 9 oder 8 brauch. Nicht jede Berechnung die man fährt ist ausserdem brauchbar.

@Freeman
Was lässten Tolles rechnen? Strukturverhalten, Strömungssimulation oder sonst was Exotisches? ;)

@Topic
Mhh... Wenn ich mir dass hier so durchles' dann scheint IBT wohl doch nicht so prall zu sein.
Der Fall von Freeman erinnert mich genau an den AthlonXP den ich hatte. Den lies ich auch ne Weile auf 2,26GHz laufen (OC-Krücke) und weder P95 noch die damaligen Games brachten die Kiste zum wackeln. Allerdings kam dann irgendwann Crysis raus und ich lies ebenfalls ab und an mal eine FE-Berechnung drauf laufen. Leider schmierte mir die Mühle an einer Tour dabei ab :freak:. Takt etwas zurück auf 2,2GHz und schon war das Prob gelöst ;)
Ist eben doch nicht unbedingt alles stabil was den Anschein erweckt stabil zu sein :rolleyes:
 
Warum ist das Tool schuld daran, wenn die CPU nicht mehr weiter kann ? :D
Irgendwann ist halt mal Schluss.

Warum wundern sich Leute wenn der Q6600, der für 2,4GHz ausgelegt ist, bei 3,4 nicht mehr kann ?
 
Also das IBT ist unfug, da man nicht weiss wo die Fehler her kommen.

Wenn man aber mit Prime umgehen kann, ereicht man damit eine 99,9%ige stabilität.

MfG
 
@ LKennedy: Habe mit/für Studenten einige Rechnungen zum Thema Topologieoptimierung mit Hyperworks machen dürfen/müssen. ;)

Und ja... jedes GHz zählt. Weil die Rechenzeit 1:1 mit der CPU Leistung skaliert.

@cplpro: das problem ist, dass ich nen (also z.B. meinen) E8400 locker auf 4GHz takten kann, und dann damit zocken könnte. Nur will ich ernsthaft die Leistung nutzen (FEM), dann macht sich jedes kleine "umgekippte" Bit bemerkbar... sprich die Rechnung läuft nicht. Bei nem Spiel merkste das nicht. Selbst für geringstes Übertakten muss man für die 100% Stabilät um einiges mehr an Spannung geben als das für nen P95 oder IBT notwendig wäre. Oder aber man kann nicht so hoch übertakten.
 
Zuletzt bearbeitet:
Ja stimmt, aber Fehler ist Fehler.
 
Was auch witzig ist: Die CPU Temperatur bei 100% Auslastung ist bei FEM Tools verhältnismäßig gering. Jedenfalls gut 15 bis 20K weniger als bei IBT. Trotzdem kackt der Rechner ab.
 
@Freeman
Mhh... Mit Topologieoptimierung hab ich selbst weniger zu tun ;). Hab mal verschiedene Stukturen auf ihre Eigenmoden hin berechnen lassen. Ist aber schon ne Weile her und muss mich demnächst mal wieder genauer damit beschäftigen :rolleyes:

@Topic
Joah, Stabilität ist eben Ansichtssache und definiert sich von Fall zu Fall anders. Im einen Fall machen kleine Fehler nichts aus und in nem andren kommts eben auf die Richtigkeit von jedem Bit an. ;)
Nebenbei machens die Hersteller doch auch vor. Nicht umsonst werden zB Xeon's oder Quadro's mit höheren Anspüchen selektiert.
Da selbst dann nie zu 100% ein Fehler ausgeschlossen werden kann, gibts noch die Möglichkeit redundater Rechensysteme. Dabei werkeln mehrere Systeme an der gleichen Aufgabe, vergleichen ihre Ergebnisse und lediglich das Ergebniss mit der höchsten Zuverlässigkeit wird ausgespuckt. Wird so zB in der Raumfahrt verwendet.

Also die Frage der Stabilität muss jeder für sich selbst stellen. :)

MfG
 
Zurück
Oben