Hardware für 10 Jahresupgrade gesucht.

Bentosan schrieb:
Damit ich mir nicht wieder einen Wolf schreibe, hier ein Link zur Thematik.
Kenne ich. Der Test zeigt zwar ein Szenario, was passiert wenn man bei x16 Karten die Busbreite halbiert.
Das Problem an der Sache ist, dass das kein gutes reales Szenario nachstellt, weil die Bandbreite nur anhand der Lanes beschnitten wird.
Wo trifft man auf Systeme die nur ein x8 PCIe4 Bus zur GPU bzw. ersten PCIe Slot haben?

Der zu Beginn von Igor genannte Fall:
Aber was ist beim Fallback auf PCIe 3.0, wenn man z.B. eine ältere AMD oder aktuelle Nvidia-Grafikkarte in so einem Slot betreibt?
wird nicht genauer beleuchtet.
Es wird nur gezeigt was passiert, wenn man bei einer x16 Karte die Bandbreite anhand der Lanes halbiert.
PCIe 4.0 und PCIe 3.0 - Unterschied zwischen x8 und x16

Wenn man eine x16 Karte mit nur x8 auf der halben Bandbreite aber der gleichen Schrittgeschwindigkeit laufen lässt ist das was ganz anderes als eine x8 oder x4 Karte die an sich schon eine beschnittene Busanbindung hat von PCIe4 auf PCIe3 mit der halben Schrittgeschwindigkeit laufen zu lassen.
Und, dass der PCIe3 Bus mit nur noch 8 Lanes bereits ziemlich am Limit läuft sieht man bei dem Test auch an der inzwischen gut 5 Jahre alten Quadro.

Bentosan schrieb:
Wer Plug und Play will, der geht auf Nummer Sicher mit einer X16er Anbindungen für 3.0 oder gleich auf 4.0.
Oder besser ein System das ootb eine PCIe4 Anbindung bietet.
Wer denkt denn bitte noch in ein paar Jahren daran, dass man lediglich eine PCIe3 Anbindung hat und bei dem Kauf einer dedizierten Grafikeinheit darauf achten sollte.
 
Gorasuhl schrieb:
Wo trifft man auf Systeme die nur ein x8 PCIe4 Bus zur GPU bzw. ersten PCIe Slot haben?
PCIe Bifurcation Splitter. Wohl weniger im Gaming Bereich, aber durchaus in Verwendung. Biosfeatures sind ja auch relativ zugänglich.

Gorasuhl schrieb:
Wer denkt denn bitte noch in ein paar Jahren daran, dass man lediglich eine PCIe3 Anbindung hat und bei dem Kauf einer dedizierten Grafikeinheit darauf achten sollte.
Ernsthaft?

Also ich schätze mal Haushalte mit Beutelstaubsaugern. Da man auch dort Komponenten passend zu der erworbenen Technik kaufen muss, liegt der Gedanke nahe auch bei anderen Geräten eine ähnliche Problematik vorzufinden.
Bei Nutzern von Soda MAXX und Soda Stream ohne Beutelstaubsauger könnte es schon brenzlich werden.

Eine sehr lehreiche Erfahrung diesbezüglich war auch das erste Hardware Fachgespräch mit meiner Frau.
"Das steht auf dem Aufkleber nicht drauf."
Wenn es also noch ins Budget passt, empfehle ich ein Dymo Labelgerät.
 
Zuletzt bearbeitet:
Bentosan schrieb:
Ja, ernsthaft.

Als Beispiel ganz einfach mal die Problematik mit Vollbestückung bei den älteren Ryzen. Den Leuten wurde vorab empfohlen den Speicher in der Menge zu kaufen wie der auch benötigt wird.
Paar Jahre später (20/21 rum) gab es fast jede Woche einen neuen Beitrag bezüglich XMP(DOCP) funktioniert nicht mehr, weil die Leute einfach 2 zusätzliche Module reingepackt haben und nicht nachvollziehen können weshalb das System mit 4 Modulen plötzlich Probleme macht.
Wenn man mit den Sachen nicht alltäglich konfrontiert ist vergisst man vieles auch schnell wieder. Das ist nun mal so.

Bentosan schrieb:
Du hast den Test nicht verstanden.
Natürlich und das was ich zitiert habe stimmt auch so. Ich habe nur nicht so sehr auf das Datum geachtet.
Nvidia Karten hatten damals halt nur ein PCIe3 Interface, dafür aber bei allen Karten x16. Da konnte man den realistischen, aktuellen Fall mit x8 Karten und Fallback auf PCIe3 für Nvidia nicht testen.

Ändert beim Fallback auf PCIe3 trotzdem nichts an seiner und meiner Aussage bezüglich
dann also als PCIe3.0 x 16 @16 und @8, wobei Letzteres durchaus zu Einschränkungen in der Bandbreite führen könnte.
Und genau das steht auch am Ende im Fazit:
Leistungsfähige PCIe-3.0-Grafikkarten werden z.B. auf einem B550-Motherboard durchaus limitiert, wenn sich die Bus-Breite auf @8 faktisch halbiert. Allerdings geschieht dies in Abhängigkeit von Spiel, Auflösung und Qualitäts-Einstellungen unterschiedlich stark.
Hat man eine x8 oder x4 Karte kann (muss nicht, aber kann!) das beim Fallback probleme machen.
Die Hersteller interessiert es nicht, wenn noch Nutzer mit PCIe3 unterwegs sind. Die Entwickeln ihre Technik für moderne Plattformen und das wars.
Die 4060 dürfte als erste x8 Karte über dem Leistungsniveau der getesteten alten RTX 6000 mit PCIe3 liegen. Damit dürfte der Fallback von PCIe4 x8 auf PCIe3 x8 hinsichtlich der Leistung auch stärker ausfallen. Die nur 8GB VRAM sind da auch keine große Hilfe bei (einige Spiele haben mit "nur" 8GB bereits auf FHD Probleme, Satisfactory bspw. läuft auch mit kleineren Karten, aber die Differenz wird automatisch in den RAM ausgelagert was bei meiner vorherigen 4GB Grafikkarte zu lags geführt hat, wenn die Texturen aus dem RAM nachgeladen wurden).
Wenn Nvidia das x8 Interface bei den künftigen Generationen so behält, oder sogar auf die 70er Serie ausweitet, wird der Leistungsverlust von Generation zu Generation nur stärker. Bleibt abzuwarten was AMD bei ihren Karten macht. Wenn die weitere Modelle auch auf x8 oder gar x4 reduzieren, dann ist das wahrscheinlich richtig gut für den Bekannten des TE.
Entweder der kauft sich eine unnötig teurere Karte mit x16 Interface oder er muss im Zweifel die Leistung reduzieren, weil die Karte an der Schnittstelle nicht mehr packt.
Wenn mein Auto bei Vollgasfahrten Probleme macht packe ich auch einfach ein Stück Holz unter das Pedal, Problem gelöst.

Wie auch immer, ich wollte nur darauf hinweisen und halte mich bei der weiteren Diskussion hier raus. :schluck:
 
Zuletzt bearbeitet:
Gorasuhl schrieb:
Ich habe nur nicht so sehr auf das Datum geachtet. Nvidia Karten hatten damals halt nur ein PCIe3 Interface,
Und ich bin davon ausgegangen, dass er die Sachen im Bios auf 3.0 umgestellt hatte, hab es also ebenso verpeilt.
Ist mir auch erst etwas später aufgefallen, da die x5700 unterhalb der x8 Limits von der Quadro läuft.
Wollte es noch anpassen, aber war schon zu spät wie man sieht. Also Sorry an dieser Stelle!

Und ja, der Fallback ist natürlich zutreffend, warum ich auch bei #39 auf deine Hinweis mit dem Interface eingegangen bin und die Tabelle zur Veranschaulichung nachgereicht habe. Die Empfehlung auf X16 zu bleiben kam nicht von ungefähr.


Mir ging es bei dem Artikel speziell um die x8 Limits und die Auflösung.

Odyssey ist jetzt kein leichter Titel und die Limitierungen in den höheren Auflösungen liegen noch bei der Karte selbst. Der Einbruch kommt also ab 1440p, wo die Abstände immer kleiner werden.

Also selbst stärke Karten haben in den oberen Auflösungen noch Luft.

Nehmen wir hierfür jetzt die 4090, haben wir noch eine passende Übersicht, wie das ganze skaliert

TPU-Charts-980x486.jpg

Der X8 macht bei 4k noch ne ganze Weile mit. Könnte also vielleicht gerade noch eine X8 Neuauflage von der 7900 XTX schaffen, ist aber auch nur spekuliert.



Unterm Strich wollen wir wohl beide aufs gleiche hinaus.

PCI-E 3.0 läuft dem Ende entgegen und es dauert wohl nicht mehr viele Generationen, bis auch der X16 an seine Grenzen kommen kann.

Ich regel die Problematik über die Auflösung und sehe das daher nicht ganz so dramatisch, aber es nochmal so genau aufzudröseln sollte TE die Entscheidung erleichtern.
 
Zuletzt bearbeitet:
Ganz ehrlich: Wir reden hier über einen Office-PC mit der Möglichkeit, die Grafikkarte evtl. später irgendwann einmal nachzurüsten, um eine bessere Gaming-Performance zu erzielen. Und dann wird über Bandbreiten einer 4090 und deren Nachfolgern diskutiert?
Wem dann im spekulativen Aufrüstfall die Leistung einer aktuellen Mittelklasse-Karte (oder max. gehobenen Mittelklasse) nicht reicht, der wird sich auch später mit einem Ryzen 7 5700X schwer tun, denn auch die CPU-Anforderungen werden dann anders sein! Ein Plattformwechsel steht dann ohnehin an, egal welche CPU für den Office-PC aktuell verbaut wird! Auch das Netzteil wird wohl kaum für kommende High-End-Karten dimensioniert werden!!!
Es geht hier nicht um ein High-End-Gaming-Setup und das Rauskitzeln jedes möglichen Frames!
Ich finde es daher absolut sinnlos, sich um diese Details zu streiten. ;)
 
Auch wenn das hier schon sehr nerdig geworden ist, sollte es schon ein Rolle spielen, Office hin oder her.
Mit einem Interfacewechsel und einer nicht unerheblichen Veränderung, wie die Grafikkarten dadurch angebunden werden, kann das auf lange Sicht halt eine Rolle spielen. Dort also in etwas das Risiko auszuloten erscheint mir nicht wirklich als sinnlos.

Wenn überhaupt sollte es zeigen, dass egal welche Plattform er nun nimmt, er zumindest bei den Grafikkarten noch eine ganze Weile frei wählen kann, selbst wenn heutige Mittel bis High End Karten in den folgenden Jahren nur noch mit einer reduzierten X8 Anbindung neu aufgelegt werden sollten.

Der 5700G war halt die erste genannte CPU. Ob er genau diese nun holen wird, oder nicht, spielt nicht wirklich eine Rolle. Sollte er sie aber wählen, so dürfte da jetzt zumindest kein ungutes Gefühl entstehen, von vornherein einen möglichen Fehlkauf getätigt zu haben.
 
Zuletzt bearbeitet:
Wer jetzt kein High-End-Gaming in vollen Details damit macht, der wird es auch in 3 Jahren nicht machen. Und wenn es dann in 6-7 Jahren doch kommen sollte, dann ist auch ein 5700X überfordert und somit muss ohnehin die gesamte Plattform weichen, egal was er jetzt kauft! Insofern ist es keine Frage der möglichen Optionen, weil diese einen viel zu hohen Aufpreis fordern in Relation zu den zu erwartenden (realen!) Upgradeoptionen!!! ;)

Eine Plattform kauft man immer so wie man sie braucht. Wenn eine mögliche Option keinen deutlichen Aufpreis bedeutet, sollte man sie ins Auge fassen. Aber wg. ein paar Prozent mehr Leistung bei einer voraussichtlich gar nicht erfolgenden Aufrüstung jetzt deutlich mehr Geld für CPU/Grafik/Netzteil in die Hand zu nehmen bei gleichzeitig höherem Verbrauch, halte ich nicht nur aus ökologischer Sicht für völlig absurd!
 
Sound-Fuzzy schrieb:
Aber wg. ein paar Prozent mehr Leistung bei einer voraussichtlich gar nicht erfolgenden Aufrüstung jetzt deutlich mehr Geld für CPU/Grafik/Netzteil in die Hand zu nehmen bei gleichzeitig höherem Verbrauch, halte ich nicht nur aus ökologischer Sicht für völlig absurd!
Darum ging es aber doch die ganze Zeit.
Der 5700x hätte spätestens auf Seite 2 ausgeschlossen sein sollen. Warum der jetzt wieder auftaucht verstehe ich nicht.

Nach meinem Stand geht es um ne kleine Intel CPU mit integrierter Grafik und PCI-E 4.0 oder die APU mit der deutlich stärkeren Grafik aber PCI-E 3.0, was viele als Problem sehen.
Das der 3.0 aber kein Problem ist, sollte das durchgehen der High Karten von heute zeigen. Um mehr ging es nicht bei der Auswertung nicht.
Da sich das High End heute aber irgendwann mal im Entry oder Mittelklasse Bereich befinden wird, würde er selbst dort, sofern er mal Upgraden wollen würde, nicht wirklich etwas an Leistung einbüßen, selbst wenn die Anbindung runter gehen sollte.
Ob das dann wegen der kommenden Spieleanforderungen mit der CPU von heute überhaupt Sinn macht ist ne andere Frage, die wohl dann geklärt werden müsste.

Es sollte nur zeigen, dass er für sein System nicht gezwungen ist auf PCI-E 4.0 zu gehen, nur weil sich das Interface gerade ändert und er doch vielleicht mal eine Grafikkarte einbauen möchte.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Red_Bull
Zurück
Oben