Test Nvidia SLI-HB-Bridge im Test: Ab 3.840 × 2.160 Pixel weniger Mikroruckler für Pascal

Habe die 1080 als SLI zu laufen mit der MSI-Brücke (914-4395-001), die auch im Test erwähnt wurde...habe ich das nun richtig gelesen, dass die alten MSI - Brücken von der Leistung her den neuen HB-Brücken in nichts nachstehen?
Einsatzzweck ist 4K-Gaming, hauptsächlich die BF-Reihe...
 
Smartbomb schrieb:
Elektronen in einem Leiter bewegen sich mit weit weniger als Lichtgeschwindigkeit!

Jo, das stimmt. Aber das elektrische Feld, das durch die Potentialdifferenz hervorgerufen wird, bewegt sich in den Leiterbahnen mit annhähernd Lichtgeschwindigkeit. Und das ist der entscheidende Informationsträger. Die Elektronen sind quasi nur die Helferlein, die das elektrische Feld weitergeben.

Smartbomb schrieb:
Googlet mal nach "Geschwindigkeit eines thermischen Elektrons"!

Google du mal nach Maxwellgleichungen. ;)

Smartbomb schrieb:
Und die knapp 3*10^8 m/s (= 300.000.000 m/s) ist die Lichtgeschwindigkeit im VAKUUM!!
In jedem Medium ist diese geringer, je höher die "optische Dichte" ist!

Damit hast du recht. Aber die Größenordnungen sind trotzdem fast immer in etwa gleich, dh. ~10^8 m/s.

Smartbomb schrieb:
Außerdem haben Elektronen eine Masse, und Masse kann NIEMALS Lichtgeschwindigkeit erreichen!
Warum? Weil dazu unendlich Energie zum Beschleunigen notwendig wäre.
Warum? Wenn man in die Nähe von Lichtgeschwindigkeit kommt (so ab 10% Lichtgeschw. wirds interessant), wird ein Teil der Energie zum Beschleunigen nicht in höhere Geschwindigkeit umgewandelt, sondern es kommt zu einer Massenzunahme!

Absoluter Irrglaube. Die Masse bleibt immer gleich! Masse wird stets als eine intrinsische, bezugssystemunabhängige Eigenschaft eines Objekts definiert. Würde die Masse mit zunehmender Geschwindigkeit größer werden, wäre diese Eigenschaft bezugssystemabhängig und nicht mehr intrinsisch. Daher wird immer die Ruhemasse als Eigenschaftsträger der Masse angegeben. Wovon du sprichst ist die relativistsche Masse. Der Begriff wird von Physikern aber tunlichst gemieden.

Dass die relativistsche kinetische Energie für Teilchen mit Masse > 0 eine Polstelle bei v=c aufweist, ist schon eine hinreichende Begründung.

Smartbomb schrieb:
Da dauert es dann wieder ein par Monate, dass man auf über 99% Lichtgeschwindigkeit kommt.

Naaa, das geht schon wesentlich schneller. Ich glaube eine Stunde dauert es etwa. Da bin ich mir aber gerade nicht ganz sicher.
 
Zuletzt bearbeitet:
Smartbomb schrieb:
An alle die glauben, dass sich "Informationen" über die Leiterbahnen mit Lichtgeschwindigkeit bewegen... :lol:
Elektronen in einem Leiter bewegen sich mit weit weniger als Lichtgeschwindigkeit!
Und die knapp 3*10^8 m/s (= 300.000.000 m/s) ist die Lichtgeschwindigkeit im VAKUUM!!
In jedem Medium ist diese geringer, je höher die "optische Dichte" ist!
Es ist nun schon möglich, das Licht, in gewissen Kristallen auf deutlich unter 1 Mio m/s zu verlangsamen!

Keine Ahnung warum alle gegen LTE sind, da ist doch alles viel schneller ;)

Die Phasengeschwindigkeit kann auch höher als die Lichtgeschwindigkeit sein. Nur um das mal gesagt zu haben.

Die Gruppengeschwindigkeit kann auch deutlich unter "1 Mio m/s" gebracht werden und das nicht erst seit 2 Jahren.


flüssig Helium (=verdammt teuer!!) gekühlt werden müssen, um supraleitend zu werden und auch zu bleiben.

Nur damit das deutlicher dort steht. Flüssiges Helium ist nicht "verdammt teuer". Es ist die Menge und das es auf 1,9K gekühlt werden muss. Das macht die Kühlung teuer.


Was noch gegen Lichtgeschw. der Informationsübertragung spricht: wir haben hier Elektronen in einem Kupferleiter, und nicht Photonen in Glasfaser!


Hast aber auch Photonen im Kupferleiter :eek:




Das andere hatte Faraday ja schon angeschprochen
 
Zuletzt bearbeitet:
DarkerThanBlack schrieb:
Ein Glück das AMD so etwas nicht braucht. Gibt es dort wiedermal gratis.

Ein Multi-GPU-Gespann von AMD auf diesem Leistungsniveau (2x GTX1070/1080/TitanX) gibt es derzeit leider nicht mal für alles Geld der Welt zu kaufen. :(

Da Nvidia bei High-End-Multi-GPU derzeit allein am Markt steht, muss man halt abwägen, ob man mit den diversen Nachteilen in Technik und Preis leben kann oder nicht. Wenn nicht, dann muss man auf Spielen in diesen Auflösungen und mit diesen Qualitätseinstellungen verzichten. Eine Alternative gibt es nunmal nicht.

Ich persönlich würde aber sowieso gerade zur Zeit keine größeren Investitionen in ein Multi-GPU-System machen. Die nahe Zukunft von Multi-GPU ist wegen DX12/Vulkan noch viel zu unsicher. Theoretisch kann sich vieles verbessern, aber genausogut kann die nötige Unterstützung durch die Entwickler auch einfach ausbleiben oder zumindest ewig auf sich warten lassen.
Schlimmstenfalls nur ältere DX11-Titel damit (mit Leistungsgewinn gegenüber einer Einzel-GPU) spielen zu können, kann ja nicht der Sinn so eines Enthusiasten-Systems sein.
 
Also ich muss sagen SLI ist mit aktuellen Spielen (ausserhalb vielleicht 2-3 AAA Titeln) nicht mehr gut brauchbar. Vielleicht ändert sich das ja mittelfristig wieder. Trotz HB Bridge und optimalem System hat man immer noch diese Mikro oder Makroruckler mehr oder weniger. Ich werde meine 2 Grafikkarte wieder verkaufen...Dieser Zeitaufwand ist irgendwann einfach zu nervig um Spiele ohne Fehler zum laufen zu bringen (Vielleicht für Star Citizen wieder eine Option..das Spiel braucht möglicherweise 2x Volta oder so was für max. Details:freak:).
 
faraday schrieb:
Wenn ich den Begriff "Frametimes" jetzt richtig verstanden habe, dann sind die Frametimes direkt an die FPS gekoppelt (und zwar über die Reziproke). Das heißt: Bessere Frametimes -> Bessere FPS. Daher versteh ich die Logik deiner Aussage nicht so ganz...kannst du das bitte nochmal etwas ausführlicher darbieten? :-)

Deine Denke geht davon aus, dass immer gleich viel Zeit zwischen den Bildern vergeht. Das berechnen einzelner Bilder dauert aber unterschiedlich lang und sobald sie fertig sind, können sie entweder genau in die Bildwiederholung des Monitors passen oder ober zu früh ausgegeben werden oder auch zu spät ausgegeben werden, je nachdem! Und dann kann das Bild "springen" oder ruckeln.

Es ist also nicht nur wichtig, ein Bild schnell genug zu berechnen. Es ist wichtig das korrekte Bild schnell genug zu berechnen und zur richtigen Zeit / zum richtigen Zeitpunkt an den Monitor auszuliefern, damit es dort verarbeitet und ausgegeben werden kann. Wenn dieser Prozess durch sehr hohe FPS seitens der Karte übererfüllt wird, kann das gut gehen. Der Monitor bekommt so viele Bilder, dass eines zufällig zum neuen Bildaufbau passt und optisch ein geschmeidiger Verlauf dargestellt werden kann. Trotzdem besteht auch bei hohen FPS mal die "Gefahr" von ein wenig Tearing.

Zum Thema der SLI-Bridges kann ich nur sagen, dass hier teils nicht Vergleichbares verglichen wurde. Die Pascalkarten erlauben den Betrieb von zwei Bridges gleichzeitig. Bei früheren Kartengenerationen führen zwei Brücken aber sogar zu einem schwarzen Bildschirm gleich nach dem PowerOn.

Preislich gehören die Brücken zum MB, wie früher auch. Schließlich kosten solche Hauptplatinen für die Basis solcher PCs nicht zur Durchschnittsware.
 
Herdware schrieb:
Ein Multi-GPU-Gespann von AMD auf diesem Leistungsniveau (2x GTX1070/1080/TitanX) gibt es derzeit leider nicht mal für alles Geld der Welt zu kaufen. :(

Diese Aussage ist natürlich falsch und bedarf einer kurzen Richtigstellung, da hier über Multi-GPU-Lösungen diskutiert wird, gibt es doch genau eine solche von AMD auf einem ähnlichen hohen Leistungs-Niveau wie eine Dual-SLI Verbund mit 2 Titan X (rev.2/Pascal), nämlich ein Dual-CF Verbund mit 2 Radeon Duo Pro Karten (sogar noch auf alter 28nm Architektur basierend bei etwa gleicher Leistungstärke), nur scheinen das die meisten hier vergessen zu haben, weil diese AMD Karten leider medial eben weitaus weniger Präsenz bekommen haben, als die von Dir genannten nVidia GPUs.

Die Leistung einer Dual-CF Radeon Duo Pro Lösung in Battlefield 4 unter 4K ist schon ziemlich beindruckend.

Das Problem wäre dann nur der Preis (neben Speicherausbau und Energiebedarf vielleicht, aber darum ging es in Deinem Kommentar ja nicht, sondern lediglich um Leistung), der mit ca. 1400 Euro pro Radeon Duo Pro Karte zu Buche schlägt, also etwa auf dem gleichem Niveau einer Titan X (rev.2/Pascal).

Wenn Du also "alles Geld der Welt" haben solltest und unbedingt eine AMD Multi-GPU Lösung gleicher Leistungsstärke wie bei der Konkurrenz haben möchtest, gäbe es eine solche ;).
 
Zuletzt bearbeitet:
@Chismon
Eine Radeon Pro sind ja eigentlich (genau wie die Quadros bei Nvidia) nicht für Spiele gedacht.
Es mag (mal besser mal schlechter) funktionieren, aber gerade bei Multi-GPU wird sich der Fokus auf professionelle Anwendungen doch immer wieder bemerkbar machen. Ich denke nicht, dass AMD in seinen FirePro-Treibern (oder heißen die jetzt auch anders?) besonders großen Wert darauf legen wird, Optimierungen für Multi-GPU-Support in aktuellsten Spielen zeitnah einzupflegen.

Und dann bleibt halt auch noch der nicht unerhebliche Unterschied in der Rohleistung, zwischen einer GP104 und einer Fiji. Wer so viel Geld in ein System mit mehreren High-End-Grafikarten stecken will, der wird sich dann sicher nicht mit Modellen der letzten Generation zufrieden geben, die (je GPU) 30-40% zurück liegen.

Ergänzung:
Ich sehe übrigens darin, dass AMD die Dual-Fiji-Karte erst gar nicht als Gaming-Karte vermarktet hat, ein starkes Zeichen dafür, dass auch AMD Bedenken hat, bezüglich der Zukunft von Multi-GPU in kommenden Spielen.
 
Zuletzt bearbeitet:
@Herdware

weiß ja nicht, aber so hin und wieder zocke ich ne Runde World of Warships auf nem Array aus 3x3 = 9 Monitoren über drei Quadros verteilt. Da kommen gerade so die nötigen FPS zusammen, aber eigentlich nur aufgrund der "schlechten GPUs". Die haben fürs normale Arbeiten genügend Kraft, aber fürs Daddeln sind sie beinahe untermotorisiert. Größere wären schön, aber ich bin leider nicht Krösus! ^^

Dennoch, SLI wird hierbei nicht genutzt, man nutzt lediglich das Vorgaukeln eines riesigen virtuellen Monitors. Das ginge auch mit Geforce karten, doch hier beschränkt es Nvidia auf maximal 5 Monitore.
 
Herdware schrieb:
@Chismon
Eine Radeon Pro sind ja eigentlich (genau wie die Quadros bei Nvidia) nicht für Spiele gedacht.

Ergänzung:
Ich sehe übrigens darin, dass AMD die Dual-Fiji-Karte erst gar nicht als Gaming-Karte vermarktet hat, ein starkes Zeichen dafür, dass auch AMD Bedenken hat, bezüglich der Zukunft von Multi-GPU in kommenden Spielen.

Naja, nicht so ganz, denn zumindest suggeriert die AMD Webseite zur Radeon Duo Pro anderes:

For Gamers Who Create and Creators Who Game

Nur ist das offensichtlich von der Fachpresse (einen schönen Gruß auch an ComputerBase mit der Hoffnung auf Besserung ;) ) nicht so wirklich angenommen worden - obwohl die Radeon Duo Pro eigentlich schon der Nachfolger der R9 295 X2 ist - und natürlich der Fokus mehr auf semi-professionellen Einsatz in der VR Spieleentwicklung gelegt worden.

Den gleichen Maßstab könnte man aber auch bei der Titan X (rev.2/Pascal) anlegen, wegen des angeblichen Fokus auf künstlicher Intelligenz (INT8), obwohl die Karte noch mit GeForce Treiber kommt und eigentlich primär den Prestige-/Premium-Spielermarkt anspricht.

Es wird wohl am Preisschild liegen, dass auf/in einigen Tech/Hardware-Webseiten/Magazinen eben Radeon Duo Pro und Titan X (rev.2/Pascal) nur am Rande beleuchtet werden und (komischerweise im Gegensatz zu früher als die Titan/690er GPUs auf nVidia Seite und R295 X2 auf AMD Seite etwa noch in Benchmarks relativ regelmäßig zu finden waren) ein Nischendasein fristen. Letzteres gilt mittlerweile auch für Tests ausgewählter SLI und CF Lösungen, was ich sehr schade finde (da man sich die Mühe ab und zu machen könnte, Battlefield 1 und Call of Duty - Infinite Warfare würden sich wegen der wahrscheinlich vorbildlichen Skalierung dafür in hohem Maße anbieten)!
 
Zurück
Oben