RX 480 in Crossfire unter PCI-E 4x?

Die Frage lässt sich doch ohne den Blick auf die 2. Schnittstelle beantworten: NEIN
Das ist was Du nicht wahrhaben möchtest oder ignorierst oder von uns als unangebracht findest. Es gehört aber zur Betrachtung dazu.
Die 2. Schnittstelle macht das NEIN nur NOCH verneinender. Das gibt ein ! dazu. Also Nein! *g*

Analogie:
Es ist grundsätzliche Bescheuert russisches Roulette zu spielen.
Du hast nämlich gefragt: Bringt es Punkte russisches Roulette zu spielen, wenn zwei Patronen in der Kammer sind, und ärgest Dich wenn man Dich darauf hinweist das der Grundgedanke schon bescheuert ist^^
Das eine hängt nun mal mit dem anderen zusammen.
 
Zuletzt bearbeitet:
wenn irgendjemand mal genau nach dieser frage für pcie 3.0 gpus googlet und das findest und hier durchscrollt! DIE ZEIT DIE DIESE PERSON VERSCHWENDEN WIRD!!!! mom...
Ergänzung ()

hängt davon ab wie viel kammern die waffe hat. ich hab nerf blasster mit 12 stück gesehen :OOOO
ok stimmt schon, auch wenn mir das niemand direkt und anschaulich erklärt hat. ich hab TATSÄCHLICH den enormen fehler gemacht und meine frage so dermaßen interpretierfreudig gestellt! "Nun ist meine Frage, würde es sich lohnen zwei (voraussichtlich Powercolor) RX 480 im Crossfire Gespann laufen zu lassen oder NICHT?"
>lohnen
>LOHNEN!!!!!!
ich versuchs noch mal:
"Entstehen leistungseinbußen, sofern man eine RX 480 im CrossFire Mod betreibt, wobei eine der beiden PCI-E 3.0 Schnittstellen, in denen die Grafikkarten eingesteckt sind, mit nur 4 Lanes statt 16 Lanes betrieben wird und somit auch entsprechend eine andere Datenbandbreite herrscht und wenn ja, wie hoich fallen diese aus?"
kann ich den hier für ne titelkür nominieren?
btw zockst du eig auch mit 3k oder beinahe 4k? gehen dir 20-30fps nich aufn keks? oder sit das magischerweise anders bei 4k?

dein 3gb pic vom flugzeug ist leider zerissen :
https://www.computerbase.de/forum/threads/vram-usage-aktueller-titel.636865/
 
Zuletzt bearbeitet:
MachineDeth schrieb:
klingt ja sehr dürftig, laut deiner angabe. könntest du deine aussage denn irgendwie gewichten? etwas behaupten kann ja jeder.

Ganz salopp gesagt: wenn der 4x PCIe nicht limitiert, verlierst du keine Leistung, wenn der 16x PCIe maximal ausgereizt werden könnte ein Viertel. Wann was eintrifft müsste man testen. Es gibt solche Tests in den Weiten des Internets, nur um sie dir zu verlinken müsste ich sie googlen. Aber das kriegst du sicher selber hin. :)
 
Mracpad schrieb:
Ganz salopp gesagt: wenn der 4x PCIe nicht limitiert, verlierst du keine Leistung, wenn der 16x PCIe maximal ausgereizt werden könnte ein Viertel. Wann was eintrifft müsste man testen. Es gibt solche Tests in den Weiten des Internets, nur um sie dir zu verlinken müsste ich sie googlen. Aber das kriegst du sicher selber hin. :)

nein sonst hät ich keinen thread aufgemacht? und lmgtfo hilft auch nicht... ich scheine wohl blind zu sein auf suchergebnisse und nur direkte verlinkungen können hier abhilfe schaffen :D
 
Im schlimmsten Fall verliert eine gPU auf einem X4 Slot maximal 8-10% Leistung. Das selbe gilt für CF. Du kannst also in einigen Games davon ausgehen das du gar keinen verlust hast.. in anderen verlieren beide GPUs 10% da die schnellere ja auf die langsame warten muss. Dies führt zu enormen Microrucklern.
 
MachineDeth schrieb:
btw zockst du eig auch mit 3k oder beinahe 4k? gehen dir 20-30fps nich aufn keks? oder sit das magischerweise anders bei 4k?

Ich kann die Regler in meiner Software bedienen. Die haben noch andere Stellungen als ganz rechts.

Beispiel:
https://www.youtube.com/watch?v=YzmEbWtuqpI

Daran denken: Die Aufnahme kostet etwa 10% Graka-Leistung. Die noch oben drauf rechnen.
Settings sind im Video zu sehen.
Ergänzung ()

MachineDeth schrieb:
"Entstehen leistungseinbußen, sofern man eine RX 480 im CrossFire Mod betreibt, wobei eine der beiden PCI-E 3.0 Schnittstellen, in denen die Grafikkarten eingesteckt sind, mit nur 4 Lanes statt 16 Lanes betrieben wird und somit auch entsprechend eine andere Datenbandbreite herrscht und wenn ja, wie hoich fallen diese aus?"

Die Frage ist einfacher gestellt, als die Antwort aussieht.
Die Antwort ist folgende: Hängt von Software + Settings ab.

Ich geb Dir mal wieder ein Worst-Case-Beispiel.

Bei Witcher3 in UHD mit Antialiasing ist der Leistungsverlust von 16/16 auf 16/8 in der Anbindung schon 22%
Bei Rainbow6 Siege in UHD mit Antialiasing ist der Verlust in der Leistung von 16/16 auf 8/8 schon über 60%.


Das liegt einfach an der Auflösung und an der verwendeten Anti-Aliasing-Methode der beiden Games.
Sobald Du Anti-Aliasing auschaltest oder von UHD runter kommst ist es nicht mehr so enorm.

Bei anderen Games die wenig Bandbreite brauchen, und bei Mini-Auflösungen, passiert nix.

Es gibt keine "richtige" Antwort für Dich.
 
ich mus gerade feststellen, dass ich kein 4k mit online flash wiedergeben kann, meine graka spinnt um 30-45 fps herum und das video läuft entsprechend in zeitlupe. ich brauch dringend ne neue graka.......
ich dachte capture cards verursachen GARKEINEN leistungsverlust! weil die ans mb angeschlossen werden oder so!
außerdem was meinst du mit regler? und was soll der verstellen? die auflösung? ist es nich seltsam auf einem bildschirm zu zocken, beidem immer vier lcds einen pixel darstellen?

50fps??? auf fast 4k??? mit der 1080p soll das also möglich sein mit witcher 3? und auf welche neinst.???
Ergänzung ()

hat das was mit dem vram zutun und in wieveit der genutzt wird?
und hast du quellen für deine angaben?
und hat deine quelle auch zufällig angaben zu 1080p @ 60fps mit max 8 smaa?
Ergänzung ()

wie kann man nur 64 gigs an ram haben? was bist du? ein ein-man-spieleentwickler/3d-modeldesignerfirma?
außerdem hat der schlechte latenz und die geringste taktung die mit ddr4 möglich ist. ist das für dich in ordnung? ich meine wenn man schon 64 gigs hat....

SPAMMM:
5760x1080 auflösung... was ist das fürn verhältnis? 16:3?????? ist das eins von diesen vr bildschirmen?
 
Zuletzt bearbeitet:
außerdem hat der schlechte latenz und die geringste taktung die mit ddr4 möglich ist. ist das für dich in ordnung? ich meine wenn man schon 64 gigs hat....

omg, wenn man keine ahnung hat...
DDR4 2400 auf X99, ich sag nur Quadchanel bei X99
 
wo kommst du her und worauf berufst du dich grade überhaupt? wie groß ist mein publikum überhaupt???
nein, ich hab keine ahnung von ram quad chanel :DDDD ich hab grad nur einen riegel drin um ehrlich zu seion xDDDD
außerdem klingt 2400 auch nich viel besser (ich hab nen takt von irgendwas mit 1059.xx gesehen und bin von 2133 ausgegangen, außerdem hat er octa chanel. sicher das wir über das selbe rig sprechen?
Ergänzung ()

uff! sieht nich gut aus und könnten sogar bis zu 20% performance leak bedeuten...
jedoch will ich noch mal unterstreichen (just cause 2, stalker 3, crysis etc), dass ich werte von pci-e 3.0 schnittstellen mit absolut aktuellen grakas brauchen spätestens r2xx oder gtx8xx nix drunter sonst macht das ganze keinen sinn... macht es eh schon kaum! am besten wär eben rx480 direkttest!
man sagt ja das heutoge karte eh nicht das volle potenzial von pcie 3.0 ausnutzen (noch nicht)
 
Zuletzt bearbeitet:
Auch in einer RX 480 ist kein magischer Feenstaub der fehlende Bandbreite ersetzen kann.
 
außerdem klingt 2400 auch nich viel besser (ich hab nen takt von irgendwas mit 1059.xx gesehen und bin von 2133 ausgegangen, außerdem hat er octa chanel.

Steht doch in seiner Signatur welches System er hat. Da steht eindeutig DDR4 2400. Also wo ist das Problem bei DDR4 2400 und 64Gb?
Dank Quadchanel ist das doch massig Bandbreite.
Octa Chanel gibt es nicht bei X99, dort wird einfach und simpel Quadchanel genutzt egal ob du 4 oder 8 Riegel drin hast.
Bei den Consumer Boards wie Z170 Dualchannel, auch bei 4 Riegeln.

nein, ich hab keine ahnung von ram quad chanel
Den Eindruck vermittelst du auf jeden Fall
Multiple Satzzeichen/Emoticons machen dein Geschreibe auch nicht besser.
 
Captain R schrieb:
Steht doch in seiner Signatur welches System er hat. Da steht eindeutig DDR4 2400. Also wo ist das Problem bei DDR4 2400 und 64Gb?
Dank Quadchanel ist das doch massig Bandbreite.
Octa Chanel gibt es nicht bei X99, dort wird einfach und simpel Quadchanel genutzt egal ob du 4 oder 8 Riegel drin hast.
Bei den Consumer Boards wie Z170 Dualchannel, auch bei 4 Riegeln.

Multiple Satzzeichen/Emoticons machen dein Geschreibe auch nicht besser.

von wem reden wir hier gerade?



@mracpad:
man sagt ja das heutoge karte eh nicht das volle potenzial von pcie 3.0 ausnutzen
 
Stimmt, wenn eine RX 480 PCIe 3.0 16x ausreizen könnte würdest du statt 0-25% satte 75% verlieren.
Aber da dem nicht so ist würde ich an deiner Stelle mit durchschnittlichen 10% Verlust rechnen.
Mit Glück auch mal nur 1-2% und mit Pech eben auch mal über 20%...

Nochmal zum Thema mit dem vollständigen ausreizen von PCIe 3.0:

In diesem Fall wäre ein 16x / 4x Crossfire lustigerweise nur halb so schnell wie eine Einzelkarte. :D
 
Zuletzt bearbeitet:
Nicht machen! War mein Fehler damals mit meinem ersten MGPU (damals 2x 7970 im crossfire) Setup.
Du hast unterschiedliche Auslastung auf beiden Karten und dadurch eine unregelmäßige Frameausgabe die zu verstärkten Mikrorucklern führt.
Egal ob die Bandbreite von PCIE 3.0 @4x ausreichen würde.
 
moshkopp schrieb:
Nicht machen! War mein Fehler damals mit meinem ersten MGPU (damals 2x 7970 im crossfire) Setup.

Tut mir Leid aber du hast den TE nicht verstanden. Jede Aussage die nicht mit der aktuellen Generation getätigt wird hat gar keinen Wert.


MachineDeth schrieb:
Ich bin eeecht am überlegen, entweder ich frag meine eltern, dass die mir 100€ leihen, dass ich mir nächsten monat zwei rx 480 kauf und die einfach mal test, jedoch wenn ich die nich zurückschicken könnt, hät ich enormes problem den august zu überstehn xP


Der Satz sagt doch bereits alles?

Versteh auch nicht wie HISN so lange freundlich bleiben konnte. Die Frage wurde bereits auf der ersten Seite beantwortet. Wenn der TE das nicht sehen kann, sollte er lieber weiter die Schule besuchen. Nebenbei: Wird der Dreisatz nicht bereits ab der 6ten Klasse unterrichtet?
 
Man kann nur eine Empfehlung geben und an der grundlegenden Problematik hat sich rein Garnichts getan! Es ist nicht die Bandbreitenlimitierung oder die aktuelle, bzw alte Generation...sondern schlicht und einfach, dass beide Karten durch unterschiedliche Anbindung auch unterschiedlich stark ausgelastet werden.

Daher kann man rein vom logischen Denken her, diese Aussage auch auf eine RX480 übertragen.
Zumal ich damals (2012) auch schon PCI-E 3.0 genutzt habe und eben die Erfahrung machte.

Die Problematik war in dem Moment verschwunden, als ich auf ein Mainboard mit 2x8 Lanes gewechselt bin.
 
moshkopp schrieb:
Man kann nur eine Empfehlung geben und an der grundlegenden Problematik hat sich rein Garnichts getan! Es ist nicht die Bandbreitenlimitierung oder die aktuelle, bzw alte Generation...sondern schlicht und einfach, dass beide Karten durch unterschiedliche Anbindung auch unterschiedlich stark ausgelastet werden.

Daher kann man rein vom logischen Denken her, diese Aussage auch auf eine RX480 übertragen.
Zumal ich damals (2012) auch schon PCI-E 3.0 genutzt habe und eben die Erfahrung machte.

Die Problematik war in dem Moment verschwunden, als ich auf ein Mainboard mit 2x8 Lanes gewechselt bin.

Weist du wo man solche Informationen einsehen kann?
Dieses MB hier: MSI Z170-A PRO
Woher weiß ich, ob ic hdamit den Multiplikator meiner CPU frei bestimmen kann und nicht an presets gebunden bin, wie bei meinem derzeitigen board, woher, das man den ram übertakten kann? entweder ich find die einstl nicht oder es ist nicht möglich! und woher weiß ich mit geschwindigkeiten, die pcie-e slots freigeben, wenn man zwei davon in benutzung hat?
gibt es da ne seite für? weil der hersteller sich ganmz sicher keine angabe in den spezifikatioonen dazu macht! nein suchfunktion hat mir nicht mehr verraten...
 
Welchen Prozessor hast du denn? Kann man dort überhaupt den Multiplikator frei wählen? Das geht soweit ich weiß ja nur bei den "K" Versionen.

http://www.mindfactory.de/product_i...151-Dual-Channel-DDR4-ATX-Retail_1009427.html

bei diesem Mainboard werden beide Lanes mit jeweils 8x angesprochen, sobald du 2 Karten verwendest.
Achte einfach darauf, ob 2way SLI und Crossfire unterstützt wird. Nvidia SLI kann nämlich nur mit mindestens 8x/8x funktionieren. Das ist also ein ganz guter Indikator ob das Mainboard auch für Crossfire Sinn macht.
 
Zurück
Oben