Das hier ist kein neutraler Beitrag, speziell recherschierter Beitrag, sondern spiegelt meine Erfahrung/Wissen und Meinung wieder.
Zu dem Satz "Gute Ideen setzen sich durch":
Das ist meiner Meinung nach ziemlich oberflächlich. Was wirklich wichtig ist ist "Angebot und Nachfrage"
Gehen wir mal davon aus sli/cf wäre aufeinmal Mainstream, jeder will es haben, wäre dass schon einige Zeit nachdem sli/cf entwickelt wurde so gewesen, bin ich sicher gäbe es schon längst ein weiterentwickeltes sli/cf was sehr wenige bis garkeine probleme mehr hat, mit besserer Leistungskurve pro Karte, und mehr auf multi GPU optimierte Software. (Keine schlechten konsolen ports mehr, sondern wirklich pc/multi gpu pc optimierte software).
Aber warum sollen Entwickler Geld in Forschung einer Richtung stecken, wenn zu wenige interesse haben und diese nutzen, und zuviele immer alle gelesenen nachteile nachplappern. Dabei wäre es ein segen für die Händler und Entwickler weil alle aufeinmal stärkere Netzteile, bessere Gehäuse und 2 Karten statt 1 kaufen würden
Was ist stattdessen passiert? Es gibt viel zu viel software die nicht optimiert wird, was meiner Meinung nach ein Versäumnis der Software Entwickler ist, ist das gleiche wie schlecht portierte Games die für Konsolen optmiert sind, weil die Firmen denken, oder weil es vllt auch so ist, das die meisten das Spiel auf einer Konsole spielen werden.
Es gibt eine HB Bridge für sli mit ein bischen mehr Mhz und das wars. Die haben geguckt was passiert wenn 2 karten mit mit beiden steckern statt nur 1 angeschlossen werden und haben 2 brücken in eine gemacht und der ein Futuristisches aussehen verpasst. Genau wie die Karten immer besser aussehen müssen, mit leds etc. Wenn die die Zeit und das Geld für das Aussehen der Karten zu verschwenden, die man am ende eh nur von der seite, wenn überhaupt sieht auf wichtigeres, nämlich die Leistung verbrauchen würde, wären wir schon ein stück weiter.
Wir sind momentan beim 14/16nm Verfahren angelangt was cpu/gpus betrifft, danach kommt 10, dann 7 und dann 5nm, aber was dann? Kleiner als 5nm wird höchst wahrscheinlich nicht möglich sein und eine Lösung für Mehrleistung wäre dann neben höherem Takt z.b. multi gpus zu nutzen.
Ich habe kein Elektrotechnik studiert und habe aufjedenfall nur Halbwissen, aber z.b. die sache mit den mikrorucklern könnte man eventuell mit so etwas wie der Frame Synchronisation von Monitoren durch G-sync/ free-sync vergleichen. Es ist, da bin ich mir 100% sicher mögich 2 gpus richtig zu synchronisieren und microruckler schon vor der ausgabe auszumerzen, wenn zeit und geld dahingehend investiert werden würde.
Der Beitrag soll ein kleiner denkanstoß sein und dazu bewegen mal über den tellerrand hinaus zu blicken. Hat cf/sli die gennanten probleme? Absolut, ABER!! die gründe und das man/wir diese ändern können ist viel wichtiger.
edit: Den Satz "sli/cf aus 2 mittelklasse karten ist schwachsinn" verstehe ich nicht.
Das ist so Situations bedingt, dass man das so überhaupt nicht sagen kann. Ganz allgemein gesehen kann es richtig sein, dass 1 größter chip 2 kleineren vorzuziehen ist, aber nicht selten hab ich mit den 2 kleineren mehr leistung als mit dem 1 größten, auch wenn ich dann die schon benannten problemchen hab. Aber wenn ich fast nur entsprechende software nutze, die gut mit sli/cf klar kommt, warum dann nicht? Deshalb kann eigentlich keiner jemand anderem zu sli/cf raten oder abraten, ohne umfassend über dessen situation informiert zu sein. Ich z.b. nutze 2 gtx 760, weil eine irgendwann für meine zwecke nicht mehr ausreichend war, und ich hab ne zweite billig auf e-bay bekommen und hab dadurch mehr leistung pro € bekommen als ich jemals durch einen neukauf bekommen hätte, außerdem wollte ihc immer mal selbst sli ausprobieren und eigene erfahrungen machen. Ich spiele z.b. Witcher 3, wo es noch vor einiger Zeit so war das unter sli einige texturen geflackert haben, was hier auf cb auch irgendwo gepostet und mit videos gezeigt wurde. Kurz nach diesem post gab es einen patch des spiels und auch ein treiber update, danach war das flacker problem behoben.
"der inhalt des beitrags steht hier im vordergrund, ich habe nicht die zeit immer bei einem wortanfang der richtigen wörter die umschalt taste zu betätigen"
Wenn ab jetzt alle cf/sli richt krass overhypen, nvidia und co zeigen das sli/cf gewollt wird, wäre da schon bald eine sehr positive entwicklung zu sehen und es würde sich lohnen sli/cf zu nutzen. Aber das wird wohl leider nicht passieren...![Traurig :( :(](/forum/styles/smilies/frown.gif)
Zu dem Satz "Gute Ideen setzen sich durch":
Das ist meiner Meinung nach ziemlich oberflächlich. Was wirklich wichtig ist ist "Angebot und Nachfrage"
Gehen wir mal davon aus sli/cf wäre aufeinmal Mainstream, jeder will es haben, wäre dass schon einige Zeit nachdem sli/cf entwickelt wurde so gewesen, bin ich sicher gäbe es schon längst ein weiterentwickeltes sli/cf was sehr wenige bis garkeine probleme mehr hat, mit besserer Leistungskurve pro Karte, und mehr auf multi GPU optimierte Software. (Keine schlechten konsolen ports mehr, sondern wirklich pc/multi gpu pc optimierte software).
Aber warum sollen Entwickler Geld in Forschung einer Richtung stecken, wenn zu wenige interesse haben und diese nutzen, und zuviele immer alle gelesenen nachteile nachplappern. Dabei wäre es ein segen für die Händler und Entwickler weil alle aufeinmal stärkere Netzteile, bessere Gehäuse und 2 Karten statt 1 kaufen würden
Was ist stattdessen passiert? Es gibt viel zu viel software die nicht optimiert wird, was meiner Meinung nach ein Versäumnis der Software Entwickler ist, ist das gleiche wie schlecht portierte Games die für Konsolen optmiert sind, weil die Firmen denken, oder weil es vllt auch so ist, das die meisten das Spiel auf einer Konsole spielen werden.
Es gibt eine HB Bridge für sli mit ein bischen mehr Mhz und das wars. Die haben geguckt was passiert wenn 2 karten mit mit beiden steckern statt nur 1 angeschlossen werden und haben 2 brücken in eine gemacht und der ein Futuristisches aussehen verpasst. Genau wie die Karten immer besser aussehen müssen, mit leds etc. Wenn die die Zeit und das Geld für das Aussehen der Karten zu verschwenden, die man am ende eh nur von der seite, wenn überhaupt sieht auf wichtigeres, nämlich die Leistung verbrauchen würde, wären wir schon ein stück weiter.
Wir sind momentan beim 14/16nm Verfahren angelangt was cpu/gpus betrifft, danach kommt 10, dann 7 und dann 5nm, aber was dann? Kleiner als 5nm wird höchst wahrscheinlich nicht möglich sein und eine Lösung für Mehrleistung wäre dann neben höherem Takt z.b. multi gpus zu nutzen.
Ich habe kein Elektrotechnik studiert und habe aufjedenfall nur Halbwissen, aber z.b. die sache mit den mikrorucklern könnte man eventuell mit so etwas wie der Frame Synchronisation von Monitoren durch G-sync/ free-sync vergleichen. Es ist, da bin ich mir 100% sicher mögich 2 gpus richtig zu synchronisieren und microruckler schon vor der ausgabe auszumerzen, wenn zeit und geld dahingehend investiert werden würde.
Der Beitrag soll ein kleiner denkanstoß sein und dazu bewegen mal über den tellerrand hinaus zu blicken. Hat cf/sli die gennanten probleme? Absolut, ABER!! die gründe und das man/wir diese ändern können ist viel wichtiger.
edit: Den Satz "sli/cf aus 2 mittelklasse karten ist schwachsinn" verstehe ich nicht.
Das ist so Situations bedingt, dass man das so überhaupt nicht sagen kann. Ganz allgemein gesehen kann es richtig sein, dass 1 größter chip 2 kleineren vorzuziehen ist, aber nicht selten hab ich mit den 2 kleineren mehr leistung als mit dem 1 größten, auch wenn ich dann die schon benannten problemchen hab. Aber wenn ich fast nur entsprechende software nutze, die gut mit sli/cf klar kommt, warum dann nicht? Deshalb kann eigentlich keiner jemand anderem zu sli/cf raten oder abraten, ohne umfassend über dessen situation informiert zu sein. Ich z.b. nutze 2 gtx 760, weil eine irgendwann für meine zwecke nicht mehr ausreichend war, und ich hab ne zweite billig auf e-bay bekommen und hab dadurch mehr leistung pro € bekommen als ich jemals durch einen neukauf bekommen hätte, außerdem wollte ihc immer mal selbst sli ausprobieren und eigene erfahrungen machen. Ich spiele z.b. Witcher 3, wo es noch vor einiger Zeit so war das unter sli einige texturen geflackert haben, was hier auf cb auch irgendwo gepostet und mit videos gezeigt wurde. Kurz nach diesem post gab es einen patch des spiels und auch ein treiber update, danach war das flacker problem behoben.
"der inhalt des beitrags steht hier im vordergrund, ich habe nicht die zeit immer bei einem wortanfang der richtigen wörter die umschalt taste zu betätigen"
Wenn ab jetzt alle cf/sli richt krass overhypen, nvidia und co zeigen das sli/cf gewollt wird, wäre da schon bald eine sehr positive entwicklung zu sehen und es würde sich lohnen sli/cf zu nutzen. Aber das wird wohl leider nicht passieren...
![Traurig :( :(](/forum/styles/smilies/frown.gif)
Zuletzt bearbeitet: