misterlauert
Cadet 3rd Year
- Registriert
- Juni 2020
- Beiträge
- 34
Ich hatte die 3870X2 und 4870X2, jeweils von Sapphire.
Die erste war noch ein vermeintlicher Luxuskauf, die zweite hatte ich nur, weil während meines Studiums, als ich knapp bei Kasse war, meine 6870 abgeraucht ist, und jemand eine 4870x2 für 50€ zur Abholung angeboten hatte.
Dass Karten, sowohl als MultiGPU-Einzelkarte, als auch im SLi/Crossfire-Verbund, nicht 100% Mehrleistung bringen, sondern mehr so entweder 60% oder das Spiel damit gar nicht kompatibel ist - geschenkt.
Tearing und Microstuttering , exorbitanter Energieverbrauch, das ist schon ein größeres Problem, und vor allem eines, das prinzipbedingt nicht zu lösen ist.
Da würde ich aber noch sagen: es gibt Leute denen das egal ist, das sieht man ja nur bei sehr schnellen flüssigen Bewegungen im Spiel.
Aber was mich wirklich davon kuriert hat, war der erhöhte Input Lag.
Auch dieser ist prinzipbedingt, und vor allem additiv.
Bei zwei Grafikchips kann das schon störend sein, wenn man Actionspiele spielt, aber spätestens wenn man sich absolute High-End-Boards z.B. aus der X58-Zeit (erste Generation Intel Core i) anschaut, die Drei- oder sogar Vierfachverbünde unterstützen, wird es lachhaft.
Ich habe aus purer Albernheit viele Jahre später mal ein Quad Crossfire aus 4 Radeon HD 7950 3GB verbaut, und mal abgesehen davon dass die sich mal eben 1000 Watt genehmigen, Prozessor noch nicht mitgerechnet, war trotz hoher Frameraten auch einfach jedes Spiel komplett unspielbar. Also selbst in den seltenen Fällen, wo Quad Crossfire unterstützt wurde, war es noch seltener, einen FPS-Zuwachs gegenüber 2 Chips zu sehen, und in absolut jedem Fall fühlte sich die Steuerung an als würde man mit einem 56k-Modem online spielen.
Insofern: Ich bin froh, dass man sich von diesem Irrweg verabschiedet hat.
Einzelne Chips mit mehreren Kernen, wie das in der kommenden AMD-Generation angeblich sein soll, sollten diese Probleme prinzipbedingt nicht haben, ich verbleibe aber skeptisch bis ich das sehe.
Ob Nvidia das bereits mit Lovelace oder erst später bringt, ist mir nicht bekannt, aber vielleicht hat ja eine der beiden Firmen eine Lösung gefunden, um das zu vermeiden.
Die erste war noch ein vermeintlicher Luxuskauf, die zweite hatte ich nur, weil während meines Studiums, als ich knapp bei Kasse war, meine 6870 abgeraucht ist, und jemand eine 4870x2 für 50€ zur Abholung angeboten hatte.
Dass Karten, sowohl als MultiGPU-Einzelkarte, als auch im SLi/Crossfire-Verbund, nicht 100% Mehrleistung bringen, sondern mehr so entweder 60% oder das Spiel damit gar nicht kompatibel ist - geschenkt.
Tearing und Microstuttering , exorbitanter Energieverbrauch, das ist schon ein größeres Problem, und vor allem eines, das prinzipbedingt nicht zu lösen ist.
Da würde ich aber noch sagen: es gibt Leute denen das egal ist, das sieht man ja nur bei sehr schnellen flüssigen Bewegungen im Spiel.
Aber was mich wirklich davon kuriert hat, war der erhöhte Input Lag.
Auch dieser ist prinzipbedingt, und vor allem additiv.
Bei zwei Grafikchips kann das schon störend sein, wenn man Actionspiele spielt, aber spätestens wenn man sich absolute High-End-Boards z.B. aus der X58-Zeit (erste Generation Intel Core i) anschaut, die Drei- oder sogar Vierfachverbünde unterstützen, wird es lachhaft.
Ich habe aus purer Albernheit viele Jahre später mal ein Quad Crossfire aus 4 Radeon HD 7950 3GB verbaut, und mal abgesehen davon dass die sich mal eben 1000 Watt genehmigen, Prozessor noch nicht mitgerechnet, war trotz hoher Frameraten auch einfach jedes Spiel komplett unspielbar. Also selbst in den seltenen Fällen, wo Quad Crossfire unterstützt wurde, war es noch seltener, einen FPS-Zuwachs gegenüber 2 Chips zu sehen, und in absolut jedem Fall fühlte sich die Steuerung an als würde man mit einem 56k-Modem online spielen.
Insofern: Ich bin froh, dass man sich von diesem Irrweg verabschiedet hat.
Einzelne Chips mit mehreren Kernen, wie das in der kommenden AMD-Generation angeblich sein soll, sollten diese Probleme prinzipbedingt nicht haben, ich verbleibe aber skeptisch bis ich das sehe.
Ob Nvidia das bereits mit Lovelace oder erst später bringt, ist mir nicht bekannt, aber vielleicht hat ja eine der beiden Firmen eine Lösung gefunden, um das zu vermeiden.