ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

MountWalker schrieb:
Die Frage ist, ob 40/50 fps mit Mikrorucklern überhaupt "flüssiger aussehen", als 30 fps ohne Mikroruckler
Kommt aufs Spiel und die MGPU-Kombo ab. SLI ist oft noch akzeptabel, CF mit zwei Karten auch, wenngleich tendenziell anfälliger, 3-Way-SLI ist bereits kritisch und CFX mit 3 GPUs gruselig. Quad-SLI ist grausam und mit CFX mit 4 GPUs sollte man imo erst gar nicht auf die Idee kommen, zu zocken.

Wenn mans hart formuliert.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Haaalt!
Du bringst da was durcheinander. SLI hat ein wenig Treiberoptimierung, erlaubt also niedrigere fps Raten ohne Mikroruckler.
Du kannst also nicht pauschalisieren, dass SLI oder CF besser in Sachen MR ist, kommt auf die fps und vor allem das Spiel (ich sag nur Stalker: CS....) an.

@Complication
Sollte sich das bewarheiten und nicht innerhalb weniger Tage oder Wochen gelöst sein, kann nVidia gleich zumachen. Die sitzen evtl. ganz schön in der Tinte und wenns nurnoch AMD geben würde wäre das vor allem in Sachen Preis nicht gerade Kundenfreundlich. Und ich glaube kaum, dass S3 die Stelle von NV ausfüllen kann. :D

Naja mal schauen, wahrscheinlich kommts nicht so schlimm.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:
Ergänzung ()

Das mit den Microrucklern erfinde ich nicht sondern lese in Testberichten denen ich etwas mehr Objektivität zutraue als dir:
http://www.radeon3d.org/artikel/grafikkarten/ati_radeon_hd_5770_cf/fazit/

Du meinst wohl ich kaufe nur zum Spaß zwei Karten und stoße dann eine wieder ab ? :cool_alt:
Ich hab sehr viel Erfahrung mit Crossfire und die spezifischen Probleme die bei solchen Artikel offenbar immer schön geredet werden.
Einfach genügend FPS und schon ist das Problem beseitigt wenn man dies glauben mag.

Ich habe schon zwei HD4850er gehabt und eine HD4870X2.
Jetzt habe ich 2 HD5750er besessen und zuletzt auch noch zwei HD5850er.


Alles Quatsch !
Ich habe hier zwei Videos die mit einem HD5850er Crossfire-Verbund laufen.
Das Spiel läuft sogar mit 60 FPS konstant aber die MR sind selbst auf dem Video zu erkennen welches ja bekanntlich oft die Problematik nicht so optimal darstellen kann wegen der 30 FPS Aufnahme.
Das Erste ist das Microruckler mit zwei HD5850.
Das zweite ist die Gegenprobe mit abgeschalteten Crossfire also nur mit einer HD5850.

Einfach mal genauer auf den Lastwagen achten vor allem auf die Kanten 2-3 mal laufen lassen. Da kann man das Gestottere sehr gut erkennen und das wie schon gesagt bei 60 FPS ! Danach gleich die Gegenprobe und schon weiß jeder was MR sind.
 

Anhänge

AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Wahnsinn, NV hat irgendwie auf einen Schlag viele Probleme:
Nvidia droht US-Einfuhrstopp


Dann noch Chipsatzgeschichte, Fermi Geschichte, aktuell kaum verfügbare Grakkas Geschichte öh was ausgelassen? Hoffentlich ist NV nicht bald Geschichte :freaky:
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

@ Felixxz21

Oh doch, das kann man pauschalisieren. NV hat die µRuckler spürbar abgeschwächt, im Mittel sind diese klar weniger störend als bei CF.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

MountWalker schrieb:
Die Frage ist, ob 40/50 fps mit Mikrorucklern überhaupt "flüssiger aussehen", als 30 fps ohne Mikroruckler. Wenns 3Dfx noch geben würde, würden die uns Beispielvideos machen.

Aus meiner Sicht auf jeden Fall.

y33H@ schrieb:
NV hat die µRuckler spürbar abgeschwächt, im Mittel sind diese klar weniger störend als bei CF.
Warum gibts denn dazu nicht mal einen Test? Subjektive Behauptungen sind eher weniger Wert. Ich hab da bei SLI jedenfalls keine Verbesserungen mitbekommen.
Man könnte ja mal die Frameabstände messen. Ob nun Nvidia oder ATI mehr ruckelt.
Zumindest in Crysis µruckelt SLI mehr als CF nach meinem Empfinden.

Oh doch, das kann man pauschalisieren.
Warum gibts dann keinen Test mit Videos,Framabstände messen, wenn das doch so pauschal möglich ist?
Ich seh das anders.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Weil SLI eine Nischenlösung ist, so wie CF. Imo (!) sollte man beides ignorieren.

Mit subjektiv hat das nichts zu tun, nicht alles (ja, sogar vieles), was man testet, findet sich nicht in Form eines aufwendigen Artikels wieder, sondern bleibt eben im Archiv und im Kopf. Vorhanden sind die Messungen und Fakten nichtsdestotrotz. CB stimmt mir übrigens zu - ebenfalls ohne einen "Test", sondern so wie ich schlicht in Worten:
CB-Auszüge schrieb:
Nvidia hat diese Thematik bei 2-Way-SLI-Systemen (seien es zwei einzelne Karten oder eine GeForce GTX 295) mittlerweile angegangen und konnte die Mikroruckler effektiv mindern. Sie sind zwar nicht verschwunden, fallen in spielbaren Bereichen aber kaum noch auf. Anders dagegen bei CrossFire, da ATi noch kein Mittel gegen die Mikroruckler gefunden hat. So spürt man sie selbst im Bereich von 40 FPS noch und ein flüssiges Spielen ist längst nicht in jeder Anwendung möglich.

Bei 3-Way-SLI scheint der Mechanismus hingegen nicht mehr oder nicht mehr richtig zu greifen, zumindest können wir bei drei Nvidia-GPUs die ungleichmäßige Bildabfolge wieder spüren. Allerdings muss man schon sehr extreme Einstellungen fahren, um Mikroruckler erzeugen zu können. Bei Quad-SLI gibt es dagegen fast schon unabhängig von den FPS-Werten Ruckler. Man muss schon ziemlich leidensfähig sein, um Quad-SLI als funktionsfähig bezeichnen zu können.


ATi setzt allerdings aktuell noch einen drauf. Denn in diesem Lager sind sowohl drei als auch vier GPUs in beinahe allen Spielen nicht nutzbar. Zwar sind die FPS-Werte meistens durchweg hoch genug für ein theoretisch flüssiges Spiel, die Anwendung ruckelt aber selbst bei mehr als 60 FPS nur so vor sich her

Es bleibt dabei: 2-Way-SLI ist recht akzeptabel, 3-Way-SLI grenzwertig und Quad-SLI fail. Bei AMD ist bereits 2-Way-CF ein Ärgerniss, CFX schlicht grausam.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Pickebuh schrieb:
Einfach mal genauer auf den Lastwagen achten vor allem auf die Kanten 2-3 mal laufen lassen. Da kann man das Gestottere sehr gut erkennen und das wie schon gesagt bei 60 FPS ! Danach gleich die Gegenprobe und schon weiß jeder was MR sind.
Ja genau - am besten solange hin und her laufen lassen bis man wirklich ruckler sieht :rolleyes:
http://www.planet3dnow.de/vbulletin/showthread.php?threadid=355476
Fazit und persönliche Einschätzung, nach wochenlanger Recherche und derzeitigem Stand/Wisssen:
Für ein 4-fach CrossFire Setup wäre ein i7@3,5 -4Ghz / Phenom II @3,8-4,2 Ghz angeraten, sowie DDR3@1800 (!) Mhz ! *Quad-CrossFire
Für ein 3-fach CrossFire Setup wäre ein i7@ 3,33GHz /Phenom II @>3,6-3,8Ghz angeraten, sowie DDr2@1333* Triple CrossFire
Für ein CrossFire x2 Setup wäre ein i7@ 3,0 GHz /Phenom II @ 3,3 Ghz angeraten, sowie DDr2 800 cl4 nicht schlecht! (Anmerkung: Dies kann nur sehr grob empfohlen werden, da dies je nach Anwendung sehr unterschiedlich ist - s. Crysis Warhed, wo bereits 2,5 Ghz als CPU - allerdings unbedingt x4 (!) ausreicht! Andere Anwendungen, hier Spiele, sind auch sehr CPU-Lastig, sodass hier nur eine grobe Eischätzung gegeben werden kann.
Bemerkungen am Rande:
Wer's perfekt will, also so konzipiert, das die CPU eben ein gutes CF nicht ausbremst, sollte hier nicht zu schwach takten! Tests im Forum haben übrigens ergeben, das sich die i7 CPU bei höchsten Settings nicht als vorteilhaft herausstellte!
Man kann also derzeit getrost auf eine AMD CPU setzen, bei nahezu Kostengleichheit auf eine AM3 CPU, wie 945er/955er oder spätestens im Spätsommer auf die 965er
Allermeist lässt sich die 940/945er auf um 3,5-3,6 Ghz takten, die 955er auf um 3,8 usw.
Vielleicht findest du dort Hilfe und wirst feststellen, dass dein Setup nicht so gut geeignet ist für Crossfire - es kommt nicht nur auf die Grafikarte an.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ein Yorkie mit 4,0 GHz soll nicht taugen? :lol: Der ist in Spielen gleich auf bzw. n Tick vor einem gleichgetakteten Deneb. Mal ganz abgesehen davon, dass die CPU praktisch keine Auswirkungen auf die µRuckler hat (es sei denn, sie ist so sacklahm, dass sie die Fps massiv runter zieht).
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

http://www.planet3dnow.de/vbulletin/showthread.php?p=4047557#post4047557
ein Cf mit 2 5850ern wird bei 2x 8x weniger limitieren als eine 5870er auf 8x, das sollte klar sein- aber zurück: Wenn die Settings niedrig sind, wird sie sicherlich limitieren, die 5870er mehr als die 5850er - aber nochmal, wenn durch die Settings gar nicht mehr als 32~FpS (nur um mal ne Grenzzahl zu nennen) ankommen, sollte es mutmaßlich hinhauen!
Soviel zu deinem Board das 60 FPS durch die 2x8 Lanes jagt und sich dann wundern warum es ruckelt ;) Die Settings hoch damit weniger FPS kommen und auch dein für CF gar nicht geeignetes Board würde das noch hin bekommen - aber kauf ruhig immer grössere Karten und wundere dich warum die Ergebnisse nicht besser werden :rolleyes:
Mit einem 5770 CF hättest du weniger Schwierigkeiten in dem System.
Ergänzung ()

y33H@ schrieb:
Ein Yorkie mit 4,0 GHz soll nicht taugen? :lol: Der ist in Spielen gleich auf bzw. n Tick vor einem gleichgetakteten Deneb. Mal ganz abgesehen davon, dass die CPU praktisch keine Auswirkungen auf die µRuckler hat (es sei denn, sie ist so sacklahm, dass sie die Fps massiv runter zieht).
Nein aber der verwendete Chipsatz und die Ansteuerung der Boards auf den PCIe Lanes - damit sind auch bestimmte CPUs eben besser geeignet als andere (wegen unterstützten Boards) Einfach auch mal lesen und ein System als ganzes betrachten.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

CF mit 2x 8 Lanes ist bei einem Yorkie freilich suboptimal. Bei einem 1156er ists meist egal. Den Satz kapiere ich nicht:
ein Cf mit 2 5850ern wird bei 2x 8x weniger limitieren als eine 5870er auf 8x
Bei 2x 5850 bremsen die Lanes mehr als bei einer HD5870 - meint er das oder behauptet er fälschlicherweise das Gegenteil?
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Na weil die 5870 mehr Daten durch Nadelöhr schieben will als die 5850 - somit limitiert es mehr und ruckelt auch mehr. Soll es flüssig sein muss eben soviel durch damit es nicht ruckelt.
Die Synch über die Crossfire-Bridge weiss ja nichts vom Limit und die Karten schieben witer was eben zu Framedrops führt=ruckeln. Anstatt dann die Auflösung runter zu schrauben Musss man sie hoch schieben so dass weniger Frames durch gehen.
Wer dann natürlich immer mit 60 FPS spielen will der braucht sich nicht wundern - aber er soll ruhig weiter sinnlosen Legenden folgen und meinen dass Bildwiederholfrequenz(60 Hz) das selbe ist wie Ruckelfreies spielen mit mindestens 60 Fps ;)

Der Thread dort ist echt sehr ausführlich und informativ.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Moment, er sagt 2x HD5850. Und CF schiebt mehr Daten durch als 1x HD5870. Über die Bridge läuft nicht übermäßig viel, die PCI-Es müssen die meiste Last schultern.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ja aber eine Karte schiebt jeweils durch einen PCIe Slot. und da jede 5850 einen eigenen 8x Slot hat ist seine Aussage lediglich dass das Limit von beiden zusammen gezählt weniger ist als das Limit einer 5870 auf einem 8x Slot.

Beispiel mit willkürlichen Zahlen:
5850 schiebt 100 MB durch den 8x Slot der nur 80 MB durch lässt = 20 MB werden limitiert
das mal 2 = Gesamt Limit 40 MB
5870 schiebt 150 MB durch 8x Slot der nur 80 MB durch lässt = 70 MB werden limitiert

Edit: über die Bridge bekommen die Karten aber Bescheid wann sie die Daten los schicken sollen - ist ja nur zur Steuerung da. Erhöht man die Auflösung steuert die Bridge den Datendurchfluss unter Berücksichtigung der Datenmenge ohne Kenntnis des 8x Limits doch mit Rücksicht auf die berechneten Daten. Ich denke hier muss man ein Optimum suchen um in limitierten Systemen das beste raus zu holen.
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Diese Rechnung geht in der Praxis nicht auf. Der Fps-Verlust von 2x HD5k durch nur 8 Lanes ist weitaus höher als der einer HD5k.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Keine Ahnung, ich hab das weder ausgerechnet noch ausprobiert - musst du dich mit den Jungs dort auseinander setzen. Du hast den Satz nicht verstanden und ich hab ihn dir lediglich übersetzt.

Wer mehr fps verliert musst du ausprobieren oder vielleicht mal daran denke, dass hier nicht in fps sondern in Daten gerechnet wird. Ein Frame kann unterschiedlich gross sein zwischen 800x600 und z.B. 1920x1200, abhängig von den Inhalten duch die Qualitätseinstellung. Da sollte man nicht in Gamer-Benchmarks denken sondern mehr technisch und Lösungsorientiert.

Aber wie gesagt die Materie kennen die Leute dort besser als ich. Die helfen sicherlich gerne weiter.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:
Ja genau - am besten solange hin und her laufen lassen bis man wirklich ruckler sieht :rolleyes:

Sorry wenn ich dir das jetzt sagen muss.
Aber du hast wirklich keine Ahnung von dieser Materie und kannst es daher nur ins Lächerliche ziehen ! :rolleyes:
Das mit dem 2-3 mal ablaufen lassen ist nur zum Verdeutlichen gedacht.

http://www.planet3dnow.de/vbulletin/showthread.php?threadid=355476
Vielleicht findest du dort Hilfe und wirst feststellen, dass dein Setup nicht so gut geeignet ist für Crossfire - es kommt nicht nur auf die Grafikarte an.

Was soll es den für Probleme geben wenn das Spiel konstante 60 FPS abliefert ?
Die 2x8 Lane-Anbindung limitiert die mögliche Leistung der beiden HD5850er. Aber es stehen trotzdem 60FPS an.
Das hat rein gar nichts mit den MR zu tun ob das Board nun 2x16 oder 2x8 Lanes unterstützt !
Genau das selbe Problem hatte ich auch mit den zwei HD4850er als ich noch ein X38er Board hatte mit 2x16 Lanes. Auch mit der HD4870X2 die ja nur mit einem PCIe Slot arbeitet und folglich mit vollen 16 Lanes angesprochen wird hatte diese Probleme mit dem Stottern bei 60 FPS.


Wie schon gesagt ich habe viel Erfahrung auf dem Gebiet und daher kannst du mir schon glauben auch wenn du es nicht wahr haben willst... :freak:
 
Zuletzt bearbeitet:
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Wie ich schon sagte Pickebuh halte ich die im dortigen Forum für die qualifiziertere Quelle - deine Aussagen hier haben weniger Substanz als das was ich dort zu lesen bekomme:
http://www.planet3dnow.de/vbulletin/showthread.php?t=355476

Und ich halte mich schon noch für fähig selber zu entscheiden wer glaubwürdig ist für mich und wer nur von sich selber überzeugt ist.
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Complication schrieb:
Soviel zu deinem Board das 60 FPS durch die 2x8 Lanes jagt und sich dann wundern warum es ruckelt ;) Die Settings hoch damit weniger FPS kommen und auch dein für CF gar nicht geeignetes Board würde das noch hin bekommen - aber kauf ruhig immer grössere Karten und wundere dich warum die Ergebnisse nicht besser werden :rolleyes:
Mit einem 5770 CF hättest du weniger Schwierigkeiten in dem System.

Also du schreibst da einen Unsinn das einem wirklich die Haare zu Berge stehen.
Und übrigens ich hatte schon zwei HD5750er im CF und da war es genauso. ;)
 
AW: ATi HD5800 und nVidia GTX300 (DX11 Gerüchteküche)

Ich bin sicher irgendwann lernst du es :evillol:
Vielleicht hilft dir ja dieser Thread weiter: http://www.planet3dnow.de/vbulletin/showthread.php?t=355476
Aber es soll auch Beratungsresistente Personen geben, die ein CF nicht zum fehlerfreien laufen bekommen während es bei anderen funktioniert - dann sind natürlich die Grafikkarten schuld - klar doch.
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben