Was ist ein "Microruckler"

cf geht nicht nur in gothic nicht, sondern da gibts auch andere spiele. Hier wurden ja schließlich nicht alle spiele getestet, die es gibt;). Und ja das ist die beste karte bezüglich der leistung, wenn letztere auch abgerufen werden kann.

Und keiner versucht hier irgendeine karte grundlos schlecht zu machen. Cf und sli haben halt ihr nachteile. Da muss jeder selbst entscheiden, welche karte er sich holt. Ich persönlich würd mir auch keine x2 holen, weil einfach die summe der nachteile überwiegt.

- Hoher Stromverbrauch (der der leistung der karte nicht immer gerecht wird),
- manche x2s haben laute lüfter (bei denen wo 2900 xt lüfter verbaut werden),
- crossfire support (neue spiele profitieren unter umständen nicht sofort von cf und mann muss sich noch etwas gedulden)
- mikroruckler problematik (treten nicht nur bei 30 fps auf, sondern können u.U. auch schon bei 50 sichtbar sein)
- nur 512 mb speicher pro gpu (was bezüglich neuer spiele knapp werden kann bei hohen auflösungen, wofür die karte eigentlich auch gedacht ist)
usw.
 
Zuletzt bearbeitet:
Das sollen gravierende Nachteile sein? Es sind 1GB denn es ist ja 2x es wird ja nicht 1x gerechnet. Grade in hohen Auflösungen punktet die Karte doch.Wenn sie gefordert wird. Also das kannst du dir abschminken. Die alten Spiele interessieren mich kaum noch einen. Ich spiele nur neue Spiele und halt die Online Klassiker wie CS 1.6. Das ist aber ausreichend. Mikroruckler kann man eventuell beheben. Aber das es ab 50 FPS schon geben kann ist bestimmt wieder aus der Nvidia-Fanboy-Ecke. Erst sagen alle bei 30 FPS, dann sagt man die Karte kommt nie unter 30FPS, dann muss was neues her, dann sagt man einfach auch sogar bei 50FPS. :evillol: :rolleyes: CF Support ist völlig in Ordnung passt doch alles. Wie viele haben SLI und CF. Außerdem skaliert CF besser als SLI. Der Stromverbrauch ist im Idle weniger als die Ultra und unter Last nur 30 Watt über der Ultra da kann man nicht meckern da man ja heutzutage gute Netzteile kaufen kann für nicht allzu viel Geld. Die Laustärke ist ganz aktzeptabel. Im Idle weniger und unter Last ein wenig mehr als die Ultra. Es wird genug geben die die Karte kaufen. Ist die beste Einzelkarte auf der Welt. Was erwartet man. Bis die 9800 GTX kommt. :freaky: Dann wartet mal schön.
 
Andauernd sprichst du von nvidia fanboys, du bist wohl eindeutig ein ati/amd fanboy, was ;)
natürlich sinds 1 GB, aber jede Karte kann nur auf 512 MB zugreifen, du hast also keinen vorteil davon das es zusammen 1 GB sind. Die Speicherbandbreite ist allerdings höher. Mikroruckler kann man beheben? Bis jetzt ist da aber nix passiert. Und die gibts immernoch bei beiden MultiGPU Lösungen.

An die Mods, die Frage des Threaderstellers sollte ja beantwortet sein, ich wäre dafür das Thema zu schließen ;)
 
Ach du scheiße!
Ist hier ein Nvidia Nest?
Ich muss das nun mal bitte klarstellen, bitte nicht aufregen wenn dieser Beitrag schon wo geschrieben wurde, aber es muss hier einfach mal einiges klargestellt werden.

Die ATI HD3870X2 ist der Peis\Leistungs und Leistungssieger.
Der hohe Stromverbrauch ist garnicht so schlimm, weil im Idle braucht diese Karte um einiges weniger Strom als die 8800Ultra und man ist logsicherweise öfter im Idle Modus als im Last Modus, deshalb gleicht sich das wieder komplett aus.
Die Microruckler treten nur bei 30FPS auf (und dies nur bei manchen Spielen) und die 3870x2 schafft beim Großteil der Spiele um die 90FPS!
Wenn man bei 50FPS schon Microruckler sieht, dann hat man ein manipuliertes Roboterauge!
Bei den alten Spielen die kein CF unterstützen schafft es eine GPU, das Spiel auf Maximum zu zocken.
Ich habe einen Freund der hat die ATI 3870X2 und man merkt von Microrucklern wirklich garnichts und @Nille1234 hat auch eine und mit ihm hab ich auch schon über die X2 gesprochen und er war durchaus zufrieden und konnte noch keine Nachteile feststellen und musste bei keinem der aktuellen Titel exe renaming machen und konnte jedes aktuelle Spiel(bis auf Crysis) auf nativer Auflösung und Very High AA+AF zocken!

Zur Aussage: Das Forum ist voll mit X2 User die Probleme haben!

WTF? Woher kommst du zu diesem Entschluss, mir sind 5User bekannt und jeder kann sie weiterempfehlen und hat keine Probleme!
Vor allem nich mit dem aktuellen Beta-Treber!

Die kommende GX2 wird zirka gleich gut!
Dies kann ich behaupten, da eine 9800GX2 schon s(t)imuliert wurde mit 2x8800GTS(G92) und diese waren sogar schlechter als die 3870x2 und sie soll über 500€kosten, also das Warten lohnt sich mal nicht!

@Rush; Es hat sich in diesem Gebiet schon einiges getan, wei man im CB Test lesen kann!

Außerdem ist der Preis einfach unschlagbar!
Gegner: Lest einfach mal den CB Test durch und schaut dann, ob ihr eure Meinung noch vertreten könnt.
https://www.computerbase.de/2008-01/test-ati-radeon-hd-3870-x2/#abschnitt_einleitung
Oder schaut euch wenigstens das Gesamtperformancerating an:
https://www.computerbase.de/2008-01/test-ati-radeon-hd-3870-x2/24/#abschnitt_performancerating
Sogar wenn ihr euch nur das Fazit durchlest, müsstet ihr schon eines Anderen belehrt werden!
https://www.computerbase.de/2008-01/test-ati-radeon-hd-3870-x2/31/#abschnitt_fazit

Also, du kannst sie getrost kaufen!
http://geizhals.at/deutschland/?cat=...+&pixonoff=off
Bei Fragen stell dich mit Usern ala Nille1234 in Verbindung die eine X2 haben und dort wirst du kompetentere Infos bekommen, weil woher soll eine Anderer wissen, wie schlecht sie ist, wenn der Test was Gutes über die X2 sagt und sie selber Keine haben.

PS: Ich kaufe sie mir Ende dieses Monats!Und ihc bin kein ATI Fanboy!Da ich die AMD CPU's im High End Bereich gar nicht mag und außerdem bin ich bei dne Grafikakrten neutral!Finde den G200 sehr interessant und hate bis jetzt auch eine Nvidia und wollte bis vor kurzem noch eine 8800GTX kaufen, jedoch wäre dies bei meine 24" Monitor nicht wirtschaftlich bzw. schlechter!

Die Links funzen!
 
Zuletzt bearbeitet:
Mr.Mushroom schrieb:
Die Microruckler treten nur bei 30FPS auf
Falsch!

Das haben wir jetzt oft durchgekaut, bei hohen FPS Zahlen löst sich dieser massive Nachteil der ScheinFPS nicht in Luft auf.


Mr.Mushroom schrieb:
Die ATI HD3870X2 ist der Peis\Leistungs und Leistungssieger.
Bei der Betrachtung bitte immer abzüglich der Mirkoruckler, da die gefakten FPS einer X2 nicht mit normalen FPS vergleichbar sind.
Also zieh erst mal ein ordentlichen Kanten an FPS ab.


Mr.Mushroom schrieb:
Ist hier ein Nvidia Nest?
Nur weil hier unwiederlegbare Nachteile von CF/SLI Lösungen dargelegt werden?


PS:
Ja die kommende NV GX2 ist der selbe crap.
 
Schau dir meinen Beitrag genau an und du kannst mir sicherlich beim Großteil meiner Aussagen zustimmen!
Zieh dir vorallem die Links rein, die sind vom kompetenten CB Tester.

Greetz.Mr.Mushroom
 
Guck dir lieber deine nicht funktionierden Links an.
Aber ich weiß schon die Seiten, die du meinst.

Leider hat CB mit keinem Wort die Mikroruckler erwähnt .... wohl damit sie es sich nicht mit AMD verscherzen, sonst gibts keine Testsamples mehr.

Fakt ist die Mikroruckler existieren.
Fakt ist keine Reviews berichten davon.

Was folgern wir daraus? -> Es wird kein Wunder Treiber kommen, wenn das Thema noch nicht mal erwähnt wird.

Fakt ist die (G)X2- Performance ist nicht mit einer Single Karte vergleichbar.


PS. Als Fanboy würde ich schreiben:
In ihrer Lebzeit hat die 8800Ultra keine Ablösung erhalten, oft gab es das nicht in der nahen Vergangenheit.
 
Zuletzt bearbeitet:
Kann sich denn hier kein Mod erbarmen, und den Thread zumachen? Das ganze hat nichts mehr mit den Microrucklern zu tun. Geht nur noch um "ätsch meine AMD/Ati Karte is schneller" "nö meine nVIDIA Karte is viel schneller"...
 
AMD/ATI ist die allerbeste Firma der Welt. Sie stellt nur Produkte her, die absolut keine Nachteile haben. Wer hier über Nachteile redet, ist ein Fanboy, dass muss man ja hier mal ganz klar sagen. Also bitte ja, was sind schon Nachteile von Crossfire? Es gibt keine. nix da. ich sehe nix. Hab zwar den Kopf im Sand, aber den kann ja jeder in den Sand stecken und dann sieht man eben keine Nachteile und vor allem sind alle Menschen, die den Kopf nicht in den Sand stecken ganz schlimme nvidia-Fanboys (ironie aus)
guten Morgen
 
Zuletzt bearbeitet:
Ähm Leute...auch wenn ich keine Ahnung habe, aba is das nicht einfach scheiß egal ?

Ich spiele Call of Duty 4 mit 30 teilweise 25 Frames auf ner alten Radeon X300SE auf 800x600(alles low)

Wenn sich das bei 30 hält kann man es noch "gut" spielen.Ab 25 Frames und darunter allerdings schmierts dir dann völlig ab. Ich verzichte bei dem Spiel wirklich auf sämtliche Schmankels ums noch einigermaßen zocken zu können und ihr wollt mir hier erzählen das ihr ne Radeon HD 3870 X2 auf Anschlag halten wollt...sämtliche Details auf max stehen lässt und dann mit 25 oder weniger Frames Games zockt ?

Wenn die Microruckler bei euch anfangen dreht man in den Optionen an der Grafikeinstellung einfach mal von Very High auf High runter, bekommt mehr Frames dazu, Microruckler verschwinden und die Sache hat sich erledigt.

Was interessieren mich den beschisse Frametimes von dem 5 Frame ? Cero,Null,nada niente NIX !!!

Professionelle Ego-Shooter Zocker interessieren sich für die Grafik nen Dreck..da will man konstante 60 Frame oder darüber...bei Strategie Hits reichen schon 30...

Ihr diskutiert über einen Frame Bereich, der MIT oder OHNE Microruckler sowieso nicht Spielbar ist....

Meine unwissende bescheidene meinung dazu.:freak:
 
unwissende bescheidene meinung
*zustimm*

Für dich mag das zutreffen, für manche Profispieler sicher auch! Aber man sollte halt nicht immer von sich auf andere schließen!

SLI und Crossfire wird z.b. auch von vielen genutzt um extrem hohe Auflösungen darzustellen, da geht der Framebereich auch schonmal in Keller, oder in den Bereich der besagten 30 Frames. Dann gibt es auch Leute, die geben keine 60 Euro für ein Spiel aus, um es dann auf LOW zu spielen. Ich z.B. werde Crysis sicher erst zocken, wenn das ordentlich läuft, aber auch die Grafikquali meinen Wünschen entspricht. Und bis dahin wird wahrscheinlich noch etwas Zeit vergehen. Habe gerade erst Far Cry duchgespielt, das lief auf 1680*1050 mit allen Details auf High, 8fach aa und glaube 8fach af SEHR GUT :)

Wenn dich die Microruckler nicht stören, ist das schön. Es hilft aber hier keinem weiter... Zumal das Thema eh schon abgehackt ist. Der Threadersteller sollte sich die Karte holen, testen und schaun ob es ihn stört, was die Microruckler sind, weiß er ja jetzt.
 
@ m3ntI:

Du verstehst irgendwie (wie so viele) überhaupt garnix...

Durch Mikroruckler verschiebt sich die Grenze, bis zu welcher ein Spiel flüssig läuft, nach oben ! (fps-Werte)
Das ist inakzeptabel!

Die Grafikoptionen runter drehen um mehr fps zu erhalten, damit das Spiel dank hoher fps-Rate so flüssig läuft wie auf ner Einzelkarte mit niedrigen fps.
So ein Dünnschiss und so früh am Tag....

edit: Danke Dikri
 
bitte ;)
ich klink mich jetzt hier aus.
 
Im MP zocke ich auch meist bei "low", gewisse Sachen wie Schatten oder Spiegelungen müssen aber aktiv sein.

Im Singleplayer aber sind perfektes Aiming und perfektes Movement sicherlich eine wünschenswerte Sache, hier trägt die Grafik aber immens zur Atmosphäre, dem "Flair" und schlicht dem Spielspass bei - deswegen wird hier die Grafik hochgeprügelt und ich gebe mich mit 25-40Fps zufrieden - im MP will ich auch immer über 60-70Fps haben.

cYa
 
Mein Gott, guckt euch doch wenigstens mal den threadtitel an bevor ihr postet...
 
@ elWood

Wenn ich das hier richtig verstanden habe, verschiebt sich zwar diese Grenze, nimmt aber bei 30 Frames und höher aber ab. 30 "angezeigte" Frames sind mit Microrucklern ca. 25 "gefühlte" Frames (ungefähr..ich kenn die genauen Werte jetzt net).
Wenn mir Fraps 25 Frames anzeigt sinds vllt. nur 18-19 gefühlte Frames.Fakt is doch aber das bei 30 und mehr das gefühlte mit den echten Abmessungen langsam übereinstimmt.

und wer Crysis und so nen shice auf überdimensionierten Flachbildschirmen zocken will (alles auf max. und Dx10) wird selbst mit dem R700/G100 auch nicht glücklich werden.

Entweder du nimmst die Karte und wirst glücklich oder du lässt es bleiben...
 
m3ntI schrieb:
@ elWood

Wenn ich das hier richtig verstanden habe, verschiebt sich zwar diese Grenze, nimmt aber bei 30 Frames und höher aber ab.

Nein, du verstehst es imemr noch nicht...
Hast dir einem einzigen Satz bereits selber wiedersprochen.

Ich geb´s dann auch auf hier.
 
@ elWood

Auf Seite 1 hat eine freundliche Person einen Link von dieser Seite zu diesem Thema gepostet.

In diesem weitaus besser beschriebenem Beitrag steht genau das hier drin:

Soviel vorweg: Ja, an diesen Behauptungen ist etwas dran und die vielerorts als „Mikroruckler“ bezeichneten Unstimmigkeiten gibt es sowohl auf SLI- als auch auf CrossFire-Systemen – und 3-Way-SLI ist ebenfalls betroffen. Dem Problem auf die Schliche zu kommen ist dabei kein leichtes Unterfangen, denn es tritt nicht in jedem Spiel auf. Darüber hinaus muss die Bildwiederholrate bei etwa 30 FPS oder darunter liegen, damit das Problem überhaupt zu einem als unstetig wahrgenommenen Spielablauf führen kann. Schaffen es zwei Grafikkarten weit über diesem Limit zu bleiben, treten die Ruckler nur noch schwer wahrnehmbar und irgendwann gar nicht mehr auf.

Entweder können wir beide kein Deutsch oder wir reden an einander vorbei und du meinst etwas ganz anderes....
Aber schade das du dich schon ausgeklingt hast, obwohl ich mir zu 99.9% sicher bin das der nächste Post von dir stammen wird.
 
Nein, ich war schnelll....^^.
Also, ich hab noch einen anderen Test gelesen und hier kommt die X2 auch nirgends zum Schwitzen(bis auf Crysis: Wird aber dank neuem Treiber noch besser), so können nicht einmal Microruckler zusammenkommen!
Das ist wirklich ein Problem auf dem duie Nvidia Fanboys verzweifelt herumreiten müssen!
Hätte nicht gedacht, dass es im Net so extrem is;

Hier der Test:
http://www.hartware.de/review_785_1.html

Greetz.Mr.Mushroom
 
Zurück
Oben