RX 480 CF und 1080 (CB bitte lesen)

Das hier ist kein neutraler Beitrag, speziell recherschierter Beitrag, sondern spiegelt meine Erfahrung/Wissen und Meinung wieder.
Zu dem Satz "Gute Ideen setzen sich durch":
Das ist meiner Meinung nach ziemlich oberflächlich. Was wirklich wichtig ist ist "Angebot und Nachfrage"

Gehen wir mal davon aus sli/cf wäre aufeinmal Mainstream, jeder will es haben, wäre dass schon einige Zeit nachdem sli/cf entwickelt wurde so gewesen, bin ich sicher gäbe es schon längst ein weiterentwickeltes sli/cf was sehr wenige bis garkeine probleme mehr hat, mit besserer Leistungskurve pro Karte, und mehr auf multi GPU optimierte Software. (Keine schlechten konsolen ports mehr, sondern wirklich pc/multi gpu pc optimierte software).
Aber warum sollen Entwickler Geld in Forschung einer Richtung stecken, wenn zu wenige interesse haben und diese nutzen, und zuviele immer alle gelesenen nachteile nachplappern. Dabei wäre es ein segen für die Händler und Entwickler weil alle aufeinmal stärkere Netzteile, bessere Gehäuse und 2 Karten statt 1 kaufen würden

Was ist stattdessen passiert? Es gibt viel zu viel software die nicht optimiert wird, was meiner Meinung nach ein Versäumnis der Software Entwickler ist, ist das gleiche wie schlecht portierte Games die für Konsolen optmiert sind, weil die Firmen denken, oder weil es vllt auch so ist, das die meisten das Spiel auf einer Konsole spielen werden.
Es gibt eine HB Bridge für sli mit ein bischen mehr Mhz und das wars. Die haben geguckt was passiert wenn 2 karten mit mit beiden steckern statt nur 1 angeschlossen werden und haben 2 brücken in eine gemacht und der ein Futuristisches aussehen verpasst. Genau wie die Karten immer besser aussehen müssen, mit leds etc. Wenn die die Zeit und das Geld für das Aussehen der Karten zu verschwenden, die man am ende eh nur von der seite, wenn überhaupt sieht auf wichtigeres, nämlich die Leistung verbrauchen würde, wären wir schon ein stück weiter.

Wir sind momentan beim 14/16nm Verfahren angelangt was cpu/gpus betrifft, danach kommt 10, dann 7 und dann 5nm, aber was dann? Kleiner als 5nm wird höchst wahrscheinlich nicht möglich sein und eine Lösung für Mehrleistung wäre dann neben höherem Takt z.b. multi gpus zu nutzen.
Ich habe kein Elektrotechnik studiert und habe aufjedenfall nur Halbwissen, aber z.b. die sache mit den mikrorucklern könnte man eventuell mit so etwas wie der Frame Synchronisation von Monitoren durch G-sync/ free-sync vergleichen. Es ist, da bin ich mir 100% sicher mögich 2 gpus richtig zu synchronisieren und microruckler schon vor der ausgabe auszumerzen, wenn zeit und geld dahingehend investiert werden würde.

Der Beitrag soll ein kleiner denkanstoß sein und dazu bewegen mal über den tellerrand hinaus zu blicken. Hat cf/sli die gennanten probleme? Absolut, ABER!! die gründe und das man/wir diese ändern können ist viel wichtiger.

edit: Den Satz "sli/cf aus 2 mittelklasse karten ist schwachsinn" verstehe ich nicht.
Das ist so Situations bedingt, dass man das so überhaupt nicht sagen kann. Ganz allgemein gesehen kann es richtig sein, dass 1 größter chip 2 kleineren vorzuziehen ist, aber nicht selten hab ich mit den 2 kleineren mehr leistung als mit dem 1 größten, auch wenn ich dann die schon benannten problemchen hab. Aber wenn ich fast nur entsprechende software nutze, die gut mit sli/cf klar kommt, warum dann nicht? Deshalb kann eigentlich keiner jemand anderem zu sli/cf raten oder abraten, ohne umfassend über dessen situation informiert zu sein. Ich z.b. nutze 2 gtx 760, weil eine irgendwann für meine zwecke nicht mehr ausreichend war, und ich hab ne zweite billig auf e-bay bekommen und hab dadurch mehr leistung pro € bekommen als ich jemals durch einen neukauf bekommen hätte, außerdem wollte ihc immer mal selbst sli ausprobieren und eigene erfahrungen machen. Ich spiele z.b. Witcher 3, wo es noch vor einiger Zeit so war das unter sli einige texturen geflackert haben, was hier auf cb auch irgendwo gepostet und mit videos gezeigt wurde. Kurz nach diesem post gab es einen patch des spiels und auch ein treiber update, danach war das flacker problem behoben.

"der inhalt des beitrags steht hier im vordergrund, ich habe nicht die zeit immer bei einem wortanfang der richtigen wörter die umschalt taste zu betätigen"

Wenn ab jetzt alle cf/sli richt krass overhypen, nvidia und co zeigen das sli/cf gewollt wird, wäre da schon bald eine sehr positive entwicklung zu sehen und es würde sich lohnen sli/cf zu nutzen. Aber das wird wohl leider nicht passieren...:(
 
Zuletzt bearbeitet:
Raiizo schrieb:
Wenn ab jetzt alle cf/sli richt krass overhypen, nvidia und co zeigen das sli/cf gewollt wird, wäre da schon bald eine sehr positive entwicklung zu sehen und es würde sich lohnen sli/cf zu nutzen. Aber das wird wohl leider nicht passieren...:(

Nehmen wir mal an genau das passiert:

AMD und NVIDIA pushen SLI/CF.
2 günstige Karten werden besser oder gleich gut und günstiger als 1 teure.

Die Leute kaufen SLI/CF Boards.
Ganz wenige Leute kaufen 2 teure Karten.
Die meisten kaufen 2 günstige.
Keiner kauft einzelne teure.

Dann landen wir wieder bei Angebot und Nachfrage und die Preisänderung löst das ganze wieder auf.
Es macht keinen Unterschied, niemand hat etwas zu verschenken.
 
Mir ging es eher darum das cf/sli nicht eingestampft werden, sondern stattdessen eine entwicklung erfahren um zwar auch eine alternative, aber viel viel wichtiger einfach eine möglichkeit zu sein sinnvoll mehr leistung zu erreichen.
Nicht nur mit 2 oder mehr mitteklasse karten auch mit 2 oder mehr der best möglichen. Es ist immernoch so das z.b. 1 gtx 1080 in 4k oder mit welchen seittings und res auch immer für manche nicht ausreicht.
Es geht mir weniger darum das mitteklasse karten einer high end vorgezogen werden, sondern einfach eine möglichkeit zu haben die Leistung schneller zu erhöhen als auf eine neue generation warten zu müssen, und wie schon gesagt wenn wir bei 5nm angelangt sind kommen wir um multi gpu ja vllt sogar garnichtmehr rum.
Oder z.B. gibt es irgendwann 8k monitore mit 120 oder mehr hz (In Japan gab es letztes Jahr schon TV´s mit 8k/120hz), wenn cf/sli überarbeitet werden sollte, wäre das eine möglichkeit spiele mit +60fps auf so einem monitor zu realisieren.

Da wo potential da ist, soll es bitte auch ausgeschöpft werden und nicht wegen Kinderkrankheiten und ja, obwohl es sli/cf schon so lange gibt sind es eigentlich Kinderkrankheiten, und zu wenig nachfrage in der versenkung verschwinden.
Hat nicht nvidia jetzt 3-4 way sli "quasi" eingestampft? Dann können die das mit 2 way irgendwann genauso machen. Andererseits haben die nicht für Multimonitor setups die anzahl der "Blickrichtungswinkelberechnungspunkte" erhöht, damit auf den beiden äußeren das Bild nicht mehr verzerrt wird? Davon hab ich doch nur wirklich was wenn ich sli/cf benutze. Oder hatte das was mit VR zu tun?

Und man könnte es auch so sehen. Die highend karten können auch deshalb immer teurer gemacht werden, weil sli/cf für viele zu selten eine sinnvolle alternative ist.
 
Zuletzt bearbeitet:
Nvidia ist da ja schon auf dem Weg. Sie beschränken SLI einfach auf die Topmodelle.

Ich würde mir wünschen sie schaffen es endlich SLI/CF für den Zweck zu verwenden für den es geradezu prädestiniert wirkt:

3D und VR
 
@ Raiizo

Und Du meinst die letzten 10 Jahre, die es diese Technik in genau dieser Form gibt, hat keine Entwicklung erfahren?
Wenn die Lösung "so einfach" wäre, dann wäre sie inzwischen am Markt angekommen.

Aber Du musst mal einen Entwickler dazu hören ....

Der ist (soweit ich weiß) früher bei Crytec und jetzt bei CIG angestellt.


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10598985&postcount=181

... hat aber keine Zeit und Bock drauf. Und dann gibt es immer zig tausend Bugs selbst mit SLI mit denen man kämpfen muss. Und man sieht nichts. Reines Rätselraten was jetzt schon wieder kaputt gegangen ist.

Der Dreck gehört ausgerottet. An der Wurzel.
 
@ HisN

Ich meinte nicht "garkeine" Entwicklung, aber wenn man mal einen vergleich zieht, wieviel sich in 10 Jahren in anderen bereichen getan hat, das war 2006 cpu/ gpus und anderes im vergleich zu jetzt.
In den letzten 10 Jahren ist so unglaublich viel und so schnell passiert, z.b. Smartphones.
Ich denke einfach das sich sli/cf im Vergleich zu anderem kaum weiterentwickelt hat und mit entsprechend dagewesender nachfrage oder prognosen von Marktforschern der Firmen, könnte das anders sein. Und ich sag nicht das es einfach ist, leider habe ich nicht das detailwissen in der Elektrotechnik und auch noch nicht wieviel arbeit und probleme devs damit haben, aber ich glaub einfach das da noch einiges möglich wäre.
 
Ich glaube ja, dass wenn es nach 10 Jahren immer noch die gleichen Probleme gibt, es nicht an "nicht wollen" mangelt, sondern eher an "nicht können".
Du sagst es doch selbst .. überall unglaublich viel Weiterentwicklung. Dort nicht. Das ist nicht, weil sie nicht wollen, bin ich mir absolut sicher.

Schau Dir doch die neueste Botschaft von NV an ... wir unterstützen ab jetzt nur noch 2-Way-SLI. Warum nur?
 
Das Problem ist einfach, dass man 4k ohne SLI nicht vernünftig hinbekommt. :)

Sobald es eine Karte gibt die stark genug für 4k @ Ultra mit 60FPS gibt, werde ich auch kein SLI mehr nutzten ^^
 
Du bekommst doch nicht mal in FHD@Ultra@60FPS hin mit einer Karte, wenn Du so da ran gehst. Warum reduzierst Du das unreflektiert auf 4K?
Ich hoffe Du sitzt konsequenterweise noch vor einem 17" TFT mit 1280er Auflösung.

Probier doch mal RoTTR in DX12 Maxed Out.

In DX12 läuft Dein SLI nicht, und Maxed Out gehen Dir schon in FHD die 8GB Speicher aus, die Deine 1080er haben.

Hier einmal 40 FPS solange der Speicher reicht, und dann 6 FPS sobald er voll ist.

 
Zuletzt bearbeitet:
@ HisN

Kann dich verstehen und kann natürlich auch genauso sein wie du glaubst. Ich weiß es nicht. Aber ich bin dennoch der Meinung das es "nicht können" eigentlich nicht gibt. Gerade an dem beispiel das nvidia nur 2-way sli unterstützt bin ich der Meinung das es nicht daran liegt, dass 3-4 way sli nicht besser umgesetzt werden kann. Sondern dass es sich vom wirtschaftlichen Standpunkt her einfach nicht lohnt, weil zu wenige 3-4 way sli nutzen, mal nutzen werden, zu wenig software es unterstützt.
Geld steht nunmal an erster Stelle und nicht was rein technisch möglich wäre. Würde rein hypotetisch gesehen Geld nicht existieren und man müsse 3-4 way sli best möglich realisieren um irgendetwas zu erreichen oder von mir aus "die menschheit gegen aliens zu verteidigen" wäre es aufeinmal machbar XD. Entscheident ist nunmal die Motivation und momentan ist Geld nunmal am wichtigsten und steht an 1. stelle, der technische fortschritt ist davon abhängig und kommt erst dahinter.

Ich hab selbst rottr noch nicht und auch kein dx12, aber ist es nicht so das dx12 noch in den kinderschuhen steckt, bzw die patches die dx12 für games freigeben?

http://www.gamestar.de/hardware/praxis/technik-check/3269383/rise_of_the_tomb_raider.html

Hier wird gesagt das eigentlich alle grakas beim umstellen von dx11 auf dx 12 ein paar fps verlieren.
Im gegensatz zu dem ach so enormen leistungs und energieeffizienz zuwachs der anfangs bei der vorstellung von dx12 angepriesen wurde.

Und was vram usage betrifft, vllt hab ich da was falsch verstanden aber kann vram überhaupt wirklich "voll laufen"? Ist es nicht so das das system, bzw die graka soviel nutzt wie sie eben kann und da ist, je nach software und settings? Ich weiß auch das man mit bestimmten kantenglättungen nurnoch 5 fps haben kann, aber ist es dann nicht so das das spiel oder eben die kantenglättung selbst einfahc nicht mehr richtig optimiert ist was die vram nutzung betrifft?. Ich weiß das umsohöher die auflösung umso mehr vram sollte man haben um fps einbrüche zu verhindern.
Bei mir in witcher 3 werden von meinen 2gb 1.5-1.9gb genutzt (wenn ich die Sichtweite von hoch auf max. mache verlier ich schon jenachdem wo ich in der welt bin 2-15 fps, was auch am vram liegen könnte), wenn ich ne karte mit 4gb oder mehr hätte würde, ohne das ich die settings veränder, bestimmt irgendwas zwischen 3-4 genutzt werden und ich hätte unabhängig von der karte nur vom vram abhängig garnicht unbedingt mehr fps oder, vllt ein bisschen bzw weniger schwankungen. Wäre es nicht wichtiger wie effizient und optimiert in den vram abgelegt wird/ komprimiert usw, takt des speichers, gerade nicht benötigtes/älteres raus um platz zu schaffen, als von z.b. 8gb auf 12gb den speicher zu erhöhen?

Man siehe die fps unterschiede von 4 zu 8gb vram karten:
https://www.techpowerup.com/reviews/Performance_Analysis/Rise_of_the_Tomb_Raider/4.html

Ist rottr nicht ein konsolenport? Vllt ist das spiel einfach schlecht optimiert was vram usage betrifft
 
Zuletzt bearbeitet:
Alles was nicht läuft ist immer ein schlechter Port :-)
Jedenfalls aus der Perspektive von dem, bei dem es nicht läuft.
Ob es nun Tante Erna oder Obernerd Peter ist^^
 
Naja^^ Man betrachte Assassins creed unity. Das Spiel kann wohl nicht gerade für den pc oder überhaupt optimiert nennen^^
Ich muss wohl dazu sagen das ich selbst keine Konsole besitze und wenn ein spiel nicht optimiert ist, die grafik sowie steuerung besser sein könnte, und es das spiel auch für konsolen gibt dann gebe ich den Konsolen die Schuld an den problemen.
"Konsolen machen mir meine spiele kaputt! Ich hasse sie:D"


Bei dem unteren link: rottr 4k high:

fury x 4gb: 29.7 fps
titan x 12gb: 28.7fps

Es scheint mir einfach, nachdem was ich bisher weiß, gelesen, erfahren habe das es soviel wichtiger ist das die programmierer der patches und des spiels, sowie des treibers eine gute arbeit machen, als ner gpu ein bisschen mehr takt oder speicher zu geben
 
Zuletzt bearbeitet:
Warum sollte ich TombRaider in DX12 ausprobieren...wenn ich es erstens schon lange durch habe und es zweitens nicht besser aussieht und auch noch schlechter läuft? Ich mein man kann für alles ein Szenario finden um etwas schlecht zu reden...das geht ganz einfach ^^

Derzeit spiele ich Warhammer Total War...da läuft SLI ausgesprochen gut. Enderal funzt es nicht, okay da reicht auch eine Karte aus um anständige FPS@4k zu bekommen. Davor habe ich Witcher 3 gespielt...und auch da lief SLI einwandfrei.

Ich erwarte garnicht, dass es immer überall funktioniert...aber bei sehr vielen Triple-A Titeln klappt es mittlerweile ganz gut und auch die MIkrorucklerproblematik ist deutlich besser geworden.

Wie gesagt, du findest immer irgendein Szenario wo SLI nicht läuft .... wo man evtl auch keine 60 FPS@FHD mit einer Karte hinbekommt. Aber das gleich zu verallgemeinern finde ich falsch^^
 
moshkopp schrieb:
Warum sollte ich TombRaider in DX12 ausprobieren...wenn ich es erstens schon lange durch habe und es zweitens nicht besser aussieht und auch noch schlechter läuft? Ich mein man kann für alles ein Szenario finden um etwas schlecht zu reden...das geht ganz einfach ^^

Hast Du ja bewiesen, indem Du sagst 4K mit 60 FPS, dazu braucht man immer SLI :-)

moshkopp schrieb:
Das Problem ist einfach, dass man 4k ohne SLI nicht vernünftig hinbekommt. :)

Sobald es eine Karte gibt die stark genug für 4k @ Ultra mit 60FPS gibt, werde ich auch kein SLI mehr nutzten ^^

moshkopp schrieb:
Wie gesagt, du findest immer irgendein Szenario wo SLI nicht läuft .... wo man evtl auch keine 60 FPS@FHD mit einer Karte hinbekommt. Aber das gleich zu verallgemeinern finde ich falsch^^

Aber zu verallgemeinern dass 4K nur mit SLI vernünftig läuft, das ist richtig? Daran habe ich mich doch bei Dir aufgehangen^^


BTW. Warhammer .. ist das nicht die gleiche Engine wie die Total-War-Reihe?

moshkopp schrieb:
Derzeit spiele ich Warhammer Total War...da läuft SLI ausgesprochen gut.

Haste Dir die Auslastung Deiner Karten mal angeschaut, wenn Du Ultra-Einheiten einstellst und gaaaaaanz nah an die Einheiten rangehst?
Oder ist "funktionert ausgesprochen gut" anders gemeint?

Bei Attila hat
a) SLI nicht funktioniert
b) War es sowieso so extrem CPU-Limitiert dass da gar nix skaliert, selbst wenn Du mit SLI-Bits nachgeholfen hast.



Ach ja, und den DX12-Patch für Warhammer kannste ja auch nicht ausprobieren, weil SLI und DX12 .... leider nein (bis auf Ashes, und da muss SLI im Treiber abgeschaltet sein).
Tolles Beispiel für "es geht prima" :-)
 
Zuletzt bearbeitet:
Ehm...in DX12 würde es auch mit einer GTX 1080 schlechter laufen als in DX11.

Wenn wir darüber sprechen ob SLI "gut" oder "schlecht" ist sprechen wir hier von reiner Objektivität oder nicht?
Und ich kann aus meiner Position aus sagen, dass ich mit einer Karte im 40er FPS Bereich hing, bei 99% Auslastung und nun habe ich meine FPS @60FPS gecappt und liege irgendwo bei 70-80%....ob beide Karte nun absolut perfekt skalieren weiß ich nicht, aber es läuft für mich zufriedenstellend....und das war es vorher halt eben nicht.

Das ich bei einigen Stellen im CPU-Limit liege und deshalb nicht immer die 60FPS halten kann ist mir auch bewusst :-)

Das ist jetzt mein viertes SLI...glaub mir ich weiß schon sehr genau wie, wo und was ich einstellen muss um das Maximum rauszuholen. Habe auch schon die ein oder andere Stunde mit dem Herumtesten von Profilen verbracht...das gebe ich auch zu :D
Aber die Bastel bringt mir persönlich irgendwo auch Spaß, weil das Endergebnis manchmal einfach auch ein Spielerlebnis bringt, was so mit einer Karte @4k überhaupt nicht möglich wäre. Nämlich das es super läuft auch mit allen Reglern ganz Rechts und vielleicht noch dem ein oder anderen zugeschalteten Mod. :)
 
http://www.pcgameshardware.de/AMD-P...ews/Radeon-RX-480-Crossfire-GTX-1080-1200543/

Resultat: In Full HD liegen zwei Radeon RX 480 durchschnittlich sogar unter einer Geforce GTX 1070, erst in Ultra HD herrscht Gleichstand. Das Problem stellt die Crossfire-Skalierung dar. Von 16 getesteten Spielen nutzen immerhin zehn gar kein Multi-GPU aus.

Letztendlich bleibt der Rat stehen, keine Mittelklasse-GPU - und nichts anderes ist die Radeon RX 480 - im Crossfire oder SLI laufen zu lassen. Neben der schwankenden Skalierung kommen die typischen Probleme wie Input-Lag und Mikroruckler hinzu.
 
Zurück
Oben