Alte GraKa in PCIe x4 Slot?

MrMoods

Cadet 3rd Year
Registriert
Apr. 2007
Beiträge
33
Moin.

Ich habe aktuell eine GTX670 im Rechner. Ich werde mir in naher Zukunft eine RTX2070 oder RTX2080 kaufen.

Dass die neue GraKa in den PCIe x16 Slot kommt, ist logisch.

Macht es Sinn, die alte GraKa in den PCIe x4 Slot zu stecken, um mehr Monitore anschließen zu können bzw. um die neue Karte zu entlasten? Ich nutze aktuell 4 Monitore und ggf. kommt noch ein 5. dazu. Meine Überlegung war nun, nur den Hauptmonitor an die neue GraKa anzuschließen, um zu zocken und die restlichen Monitore an die alte GraKa zu hängen.

Macht das überhaupt Sinn oder macht es da mehr Sinn, den alten Krempel rauszuwerfen und alle Monitore an die neue GraKa zu hängen?

Gruß
MrM
 
Zuletzt bearbeitet:
Wirf die alte Karte raus...macht gar keinen Sinn.
 
  • Gefällt mir
Reaktionen: zivilist und K3ks
MrMoods schrieb:
bzw. um die neue Karte zu entlasten?
entlasten wobei? Um den Browser anzuzeigen brauchst du keine extra GPU. ODer wie oft hast du das schon bei anderen gesehen, dass die Multi GPU im Einstaz haben, eine für Spiele und die andere um auf dem anderen Monitor ein stinknormales Bild anzuzeigen?
 
abcddcba schrieb:
entlasten wobei? Um den Browser anzuzeigen brauchst du keine extra GPU. ODer wie oft hast du das schon bei anderen gesehen, dass die Multi GPU im Einstaz haben, eine für Spiele und die andere um auf dem anderen Monitor ein stinknormales Bild anzuzeigen?

Naja, ich möchte z.B. auch Streamen. Und während auf dem hauptbildschirm das Spiel läuft, läuft auf den restlichen Bildschirmen ja jede Menge anderes Gerümpel. Das ist zwar nicht besonders fordernd für die GraKa, aber immerhin ja doch jede Menge anzuzeigen. Wenn die GraKa neben dem eigentlischen Spiel mit WQHD und 144 Hz auch noch 3-4 weitere Bildschirme mit mindestens FullHD versorgen muss, könnte ich mir schon vorstellen, dass das Leistung erfordert.

ghecko schrieb:
Du hast eine Frage gestellt, er hat sie beantwortet. Kein Grund gleich herumzupampen, Mr. Moody.
o_dosed.log schrieb:
Du hast 2 mal die gleiche Frage gestellt ;)

Naja, wenn ich schreibe "macht es Sinn, die alte Graka zusätzlich einzubauen" und "soll ich die lieber rauswerfen" und bekomme als Antwort "nope", dann ist das nicht wirklich eindeutig. Und pampig war das nicht wirklich gemeint. Aber ist ja auch egal jetzt. Offensichtlich seid ihr euch ja einig, dass die alte Karte raus soll.
 
  • Gefällt mir
Reaktionen: CyrionX
Lustig, ich hatte mir vorhin genau die selbe Frage gestellt wie der TE. Vor allem aber auch wegen VRam. Habe ein 4 Monitor Setup und soweit ich mich erinnere braucht jeder Monitor per se schon mal 200-330 MB VRam die reserviert sind.
Daher überlege ich genau so ob es Sinn machen würde.
 
Der Gedanke ist ja eigentlich auch nahe liegend, dass man eine GPU noch weiter verwenden möchte, anstatt sie zu verschrotten/verkaufen.
Aber in diesem Fall macht es einfach keinen Sinn. Selbst, falls es technisch möglich ist (was ich nicht sicher weiß), würde mich der zusätzliche Stromverbrauch schon davon abhalten.
 
xdave78 schrieb:
Im Prinzip hast Du auch 4 Fragen gestellt insofern seh ich mich da auch nicht genötigt, mir mehr Mühe bei der Beantwortung zu geben als Du bei der Fragestellung :)

Ich will ja nicht meckern, aber ich sehe da zwei grundsätzlich gegenteilige Fragen.

Macht es Sinn, die alte GraKa einzubauen? --> Nope.
Macht es mehr Sinn, den alten Krempel rauszuwerfen? --> Nope.

Ahja. Okay.
 

Anhänge

  • 2020-02-04_110300.jpg
    2020-02-04_110300.jpg
    253 KB · Aufrufe: 268
MrMoods schrieb:
WQHD und 144 Hz auch noch 3-4 weitere Bildschirme mit mindestens FullHD versorgen muss
Leistungsmäßig ist das nicht so das Problem. Allerdings potentiell wegen den unterschiedlichen Refreshrates und dadurch entstehenden Rucklern. Zwar soll dieses Problem wohl in einem zukünftigen Windows update behoben werden bzw. aktuell schon im Insider update aber auch nicht mit einer 100% Erfolgsquote.
Verfügen überhaupt alle deiner Monitore über Displayport/HDMI dass du sie an einer RTX 2070 oder höher anschießen kannst? Vereinzelt wird zwar DVI angeboten aber auch nicht mehr als einer und die Auswahl ist recht eingeschränkt. Ein zwei Monitore ließen sich bei einem Intel System mit iGPU auch über eben diese Betreiben.
 
Längere Version:
Selbst meine RX480 mit 8GB VRAM macht problemlos 4 Monitore, alles entspannt. Da passt sogar noch ein 5. dran. Außerdem sind mehrere GPUs in der Regel mehr Kopfschmerzen (Config, Treiber, ...) und mehr Stromverbrauch (Virtualisierung mal ausgenommen).
Und wenn die neue wirklich überfordert ist (was unwahrscheinlich ist), reißt das alte Schrottteil auch nichts mehr raus.
 
  • Gefällt mir
Reaktionen: Schnitz und AwesomSTUFF
MrMoods schrieb:
Ich will ja nicht meckern, aber ich sehe da zwei grundsätzlich gegenteilige Fragen.
MrMoods schrieb:
Alte Graka in PCIE x4 Slot?

Macht es Sinn, die alte GraKa in den PCIe x4 Slot zu stecken um mehr Monitore anschließen zu können bzw. um die neue Karte zu entlasten?

Macht das überhaupt Sinn (?) oder macht es da mehr Sinn, den alten Krempel rauszuwerden und alle Monitore an die neue GraKa zu hängen ?

...ich hab im Prinzip nur auf die erste Frage geantwortet, weil der Rest irgendwie aufs Selbe hinauslief. Insofern hab ich 3 von 4 Fragen beantwortet. Und das mit einem Wort.


Ich weiß, es ist erstaunlich....
 
Performance-Technisch ist das Unterfangen unsinnig. Du wirst keinen spürbaren Gewinn erzielen, dafür aber lustige Artefakte, wenn du Anwendungen von einer GPU zur nächsten schiebst. Dazu kommen Potentielle Nervigkeiten bei der Treiberinstallation und Anwendungen, die aus obscuren Gründen immer auf der falschen GPU laufen werden.

Wo die ganze Show Sinn ergibt ist, wenn du mehr Monitore anschließen möchtest, als du ohne die Extra GPU anschließen könntest. Da du leider keine Angaben zu deinem PC machst, kann dir auch niemand sagen, ob du ohne die extra-GPU bereits 5 Monitore bedienen kannst. Falls möglich, würde ich auf die Extra-GPU verzichten.
 
  • Gefällt mir
Reaktionen: AwesomSTUFF
xdave78 schrieb:
Lustig wird es, wenn Du beide Karten drin hast, den PC hochfährst und feststellst...dass Du ab da nicht weißt wie es weitergeht ;)
?
Mit meinem alten Intel System hatte ich das genau so gemacht. Um einen 5ten Monitor anschließen zu können hatte ich zusätzlich die iGPU genutzt. Ging alles problemlos.
Nur jetzt habe ich halt keine iGPU mehr.
 
  • Gefällt mir
Reaktionen: Gandalf2210
MrMoods schrieb:
Naja, ich möchte z.B. auch Streamen.
Was meinst du mit "Streamen"? Du selbst Streams auf Twitch oder so? Über GPU oder CPU? Ab ner RTX Karte kannst du eh NVENC nehmen, das kostet fast keine Leistung.
Ich würde mir da keine Sorgen machen. Außerdem, probier es doch erstmal
 
Zuletzt bearbeitet:
Ja, theoretisch. In meinem Fall sind aber QHD auf 144 HZ anliegend. Da nutzt ein Monitor die komplette Bandbreite vom DP aus. Dann geht pro DP Port 1 Monitor.
 
o_dosed.log schrieb:
Der Gedanke ist ja eigentlich auch nahe liegend, dass man eine GPU noch weiter verwenden möchte, anstatt sie zu verschrotten/verkaufen.
Aber in diesem Fall macht es einfach keinen Sinn. Selbst, falls es technisch möglich ist (was ich nicht sicher weiß), würde mich der zusätzliche Stromverbrauch schon davon abhalten.

Mir geht es da wirklich eher drum, die Haupt-GraKa zu entlasten und zusätzlich noch mehr Monitore anschließen zu können. Der Stromverbrauch ist mir ehrlich gesagt Hupe.

Zur Erklärung nehme ich einfach mal das Extrembeispiel: Stell dir mal vor, du hast 4-5 Monitore mit 4K und 144 Hz. Was ist da jetzt besser? Beim Zocken alle über eine GraKa? Oder den Hauptbildschirm mit dem Game über die dicke GraKa und die anderen Monitore mit diversen Programmen über eine Zweit-GraKa?

xdave78 schrieb:
Lustig wird es, wenn Du beide Karten drin hast, den PC hochfährst und feststellst...dass Du ab da nicht weißt wie es weitergeht ;)

Ist das ein Problem? Habe eigentlich gedacht, Win10 erkennt zwei GraKas und fertig. Funktioniert aktuell mit meiner Onboard-GraKa zusätzlich zur GTX670 ja auch (hatte 3 Monitore über GTX und 1 Monitor über Onboard).

Stormfirebird schrieb:
Leistungsmäßig ist das nicht so das Problem. Allerdings potentiell wegen den unterschiedlichen Refreshrates und dadurch entstehenden Rucklern. Zwar soll dieses Problem wohl in einem zukünftigen Windows update behoben werden bzw. aktuell schon im Insider update aber auch nicht mit einer 100% Erfolgsquote.

Wusste nicht, dass es da zu Problemen kommen kann.

Stormfirebird schrieb:
Verfügen überhaupt alle deiner Monitore über Displayport/HDMI dass du sie an einer RTX 2070 oder höher anschießen kannst? Ein zwei Monitore ließen sich bei einem Intel System mit iGPU auch über eben diese Betreiben.

1x mit DP, HDMI, DVI
1x mit HDMI
2x mit DVI, VGA

Hätte die notfalls mit Adapterkabel DVI/HDMI oder DP/HDMI usw. angeschlossen. Der Hauptmonitor fürs Game natürlich über DP.

abcddcba schrieb:
Was meinst du mit "Streamen"? Du selbst Streams auf Twitch oder so? Über GPU oder CPU? Ab ner RTX Karte kannst du eh NVENC nehmen, das kostet fast keine Leistung

Ja, ich wollte mich mal in diese Gefilde begeben, sobald der Rechner auf einem aktuellen Stand ist. Momentan ist es mehr eine Qual als ein Stream. Arbeite mich da aber noch ein. Ich wüsste nicht, wie ich beeinflussen kann, ob ich über GPU oder CPU streame. Eine Capture-Card habe ich nicht.
Ergänzung ()

xdave78 schrieb:
Ja gut. Viel Erfolg.

In Beitrag #9.
 
Bin hier gerade so am mitlesen. Wenn man ein 4 oder 5 Monitor-Setup nutzt, ist dann die Frage nach dem zusätzlichen Stromverbrauch der Grafikkarte wirklich sinnig ?

Ok ne ältere GTX zieht schon ganz schön was weg.
 
Ich wollte eigentlich zur Probe mal meine alte GraKa einbauen, also eine GTX 670 und eine GTX 260, um zu schauen, wie das alles so funktioniert. Ist aber daran gescheitert, dass das Netzteil nur zwei PCIe-Stecker für die GraKa hat und beide Karten jeweils 2 Stecker brauchen. :(
 
Falls iGPU vorhanden dann diese für die Nebenbildschirme, wo keine Spiele laufen, verwenden.
 
Zurück
Oben