16X PCIe 3.0 vs 8X PCIe 3.0 Anbindung bei GraKa s

HaZweiOh schrieb:
Lass das mit Raid, das bringt nix, wenn schon eine NVMe nichts spürbares bringt.
Ich würde die alte, zu kleine SSD woanders verwenden.
ja klar ... in einem anderen Rechner vielleicht ? weil sonst nur genug Lanes da sind um eine NVME voll anzubinden ...
 
Es bringt halt nix, wenn du dir ein Mega RAID aufziehst. Lies dir den CB-Test zum Optane-Fail durch, den Abschnitt mit Praxistests!

Zur Anbindung gibt es auch Tests von 2017 mit dem gleichen Ergebnis. Von FullHD bis 4K, Unterschied = 0.
 
Zuletzt bearbeitet:
Häschen schrieb:
Fakten?
Fakt ist um so schneller eine Grafikkarte wird desto mehr ist sie am PCIe Slot Limitiert.
Es ist also Fakt das bereits eine Titan V im PCIe 3.0 x8 Modus sich ein großer Flaschenhals zeigt ( tests dazu genügend online ).

Warum sollte ich Angst um meine CPU haben?

Fakten ? außerdem wer sich eine 3.500 Euro teure GRAKA ( Titan V ) kauft , gibt sich wohl kaum mit einem 135 Euro MoBo zufrieden ...
Ergo ist dein Post absoluter Bockmist ...
 
  • Gefällt mir
Reaktionen: whats4
HaZweiOh schrieb:
Es bringt halt nix, wenn du dir ein Mega RAID aufziehst. Lies dir den CB-Test zum Optane-Fail durch, den Abschnitt mit Praxistests!

Zur Anbindung gibt es auch Tests von 2017 mit dem gleichen Ergebnis. Von FullHD bis 4K, Unterschied = 0.
Das Board erlaubt auch StoreMI , somit kann ich eine kleine 256 GB NVME mit meiner 2 TB HDD koppeln und somit die Geschwindigkeit auf fast SATA SSD Niveau heben ...
https://www.computerbase.de/2018-07/amd-storemi-fuzedrive-test/
es gibt schon sinnvolle Verwendungen für NVME Laufwerke

@XTR³M³
danke für den Link , er bestätigt meine Meinung
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_1080_PCI_Express_Scaling/10.html
exemplarisch mal Doom unter Vulkan - 4K , für die die glauben 4 K würde unbedingt 16 x 3.0 erfordern
doom_3840_2160.png

intressanterweise ist 4 x 3.0 sogar schneller als 16 x 3.0
Battlefield 1- 4K
bf1_3840_2160.png
 
Zuletzt bearbeitet:
gelobt sei jedenfalls was speicher hat
 
Sagen wir es so die Grafikkarte kann von mir aus auch mit 8x statt 16er laufen das soll aber jeder selbst für sich entscheiden da hier noch mehr Faktoren einen Einfluss haben können ob der 8er einen Limitierenden Faktor darstellt.

Und zum Thema NVME Raid. Es gibt nur ein einziges Sinnvolles Anwendungsgebiet eines solchen Raid's und das ist Videoschnitt mit unkomprimierten 10-14 Bit 4 bis 8k Material. Sollte das nicht dein Anwendungsgebiet sein so wird dir das Raid geschätzt null und nichts bringen. Das soll nicht heißen das ich dir davon Abrate 3 NVME SSD's zu verbauen sondern ich rate eher davon ab diese auch im Raid zu nutzen.
 
  • Gefällt mir
Reaktionen: whats4 und easy-max
Deathangel008 schrieb:
das war dir jetzt nen thread wert?
Klar, er musste doch auch einen Thread eröffnen mit seiner riesen Erkenntnis über Grafikkartentreiber!

MK one schrieb:
intressanterweise ist 4 x 3.0 sogar schneller als 16 x 3.0
Battlefield 1- 4K
Und 56,6 fps sind schneller als 58,2 fps?
1534896392319.png
 
  • Gefällt mir
Reaktionen: pupsi11 und Shandriano
Interessant wird es erst, wenn man ein MultiGPU-System hat. Dort gibts bei hohen Auflösungen (4k) und hohen Grafiksettings teilweise Einbrüche von bis zu 25% in der Performance, wenn statt x16/x16-Anbindung nur x8/x8 gefahren wird - @HisN hatte dazu mal einen kleinen Beitrag verfasst, vielleicht kann er noch die beiden Spiele nennen.

Und jetzt bitte keine Diskussion über den (Un)Sinn von MultiGPU-Setups ;)
 
Cardhu schrieb:
Und 56,6 fps sind schneller als 58,2 fps?
Anhang anzeigen 702993


das galt für Doom .., , aber auch BF1 hat den höchsten Wert bei 8 x 3.0 mit 58,4 , nicht 16 x 3.0


aber folgt dem Link , da sind noch 10 - 12 andere Games aufgeführt , einen Unterschied gibt es noch am ehesten bei hohen FPS Zahlen in FHD .

Ich sage nicht das es keinen Unterschied gibt , ich sage nur er ist vernachlässigbar .
Zumal ich ganz bestimmt nicht zu den Leuten gehöre die Nvidia 700 - 800 Euro in den Rachen schmeißen , meine nächste Karte wird wohl ne AMD Navi Karte in 7 nm werden , den Gerüchten nach nur etwas leistungsfähiger als ne 1080 für 300 - 400 Euro . Vielleicht sogar billiger wenn Nvidia ihren Hype mit RT noch weiter entfacht . RT mag hübsch aussehen , der Nutzen ist jedoch auf spiegelnde Flächen beschränkt , deswegen auch die auf Hochglanz polierten Rüstungen und Oberflächen der Storm Trooper in der NVidia RT Star Wars Demo .
Die 2070 wird wohl mit 700 Euro den Anfang machen und mit der 2080 TI für 1300 Euro aufhören , die kann kaufen wer will , ich nicht ...
Ergänzung ()

Faust2011 schrieb:
Interessant wird es erst, wenn man ein MultiGPU-System hat. Dort gibts bei hohen Auflösungen (4k) und hohen Grafiksettings teilweise Einbrüche von bis zu 25% in der Performance, wenn statt x16/x16-Anbindung nur x8/x8 gefahren wird - @HisN hatte dazu mal einen kleinen Beitrag verfasst, vielleicht kann er noch die beiden Spiele nennen.

Und jetzt bitte keine Diskussion über den (Un)Sinn von MultiGPU-Setups ;)

aber vermutlich auch nicht wenn die 2 GPU s auf einer Karte sitzen bzw als MCM Modul ausgeführt werden , NVidia soll ja daran arbeiten , AMD ebenfalls , vielleicht wird dadurch ja die Vorarbeit die mit Crossfire uns SLI mal geleistet wurde , wiederbelebt
https://www.golem.de/news/multi-chip-module-nvidia-arbeitet-an-mcm-basierter-grafik-1707-128732.html
Ich denke schon das etwas in der Art eines MCM Moduls kommen wird , betrachtet man mal den riesigen Die einer 2080 TI mit 754 mm2 trotz 12 nm , selbst bei einem shrink auf 7 nm blieben über 400 mm2 übrig und beim neuen 7 nm muß sich erst noch erweisen ob sich derart große Die s mit akzeptablen Yield fertigen lassen
 
Zuletzt bearbeitet:
Es ist gut das du auch mit bekommen hast das es dennoch einen Unterschied gibt :) und ich würde sogar behaupten das die meisten mit einem Multi GPU Gespann immer 16x Grafikkarten Anbindung vorziehen werden als eine 8x Anbindung. Grafikkarten mit MCM werden wohl erst in 5-10 Jahren kommen wenn überhaupt weil meiner Meinung nach ist MCM nicht für den Otto normal Gebrauch gedacht sondern eher sein Platz im Bereich Workstation hat. Warum und wie so ich der Meinung bin erklärt sich aus den genannten Problemen die aufkommen aus dem Artikel in zusammenspiel mit diesem Bericht. Damit möchte ich nur sagen das MCM Grafikkarten mit dem normalen SLI das wir kennen nichts wirklich mehr zu tun hat. Da hier erstens ein komplett anderes Renderverfahren genutzt wird und der Direct X auch noch angepasst werden muss. Eine ausführliche Beschreibung kann man den Verlinkten Artikeln entnehmen.

Abschließend bleibt eigentlich nur zu Sagen das das man durch aus eine Grafikkarte mit 8x Anbindung betreiben kann jedoch gibt es Einbußen die je nach Anwendungsfall von klein bis Sehr groß ausfallen können.
 
Shandriano schrieb:
Abschließend bleibt eigentlich nur zu Sagen das das man durch aus eine Grafikkarte mit 8x Anbindung betreiben kann jedoch gibt es Einbußen die je nach Anwendungsfall von klein bis Sehr groß ausfallen können.

das sehr groß musst du erst mal beweisen, geht ja eigentlich nur um Gaming hier und da sind ja hier schon 3 - 4 unabhängige Quellen die sagen : Gibt so gut wie keinen Unterschied ...
Ergo her mit dem Link / Artikel / Video ....

Im Gegensatz zu dir würde ich behaupten das MCM Karten den größten Teil der Kommunikation und des Datenverkehrs über einen Package internen Interconnect abwickeln anstatt über PCIe , der benötigte Grafikspeicher wird sich ebenfalls auf der GraKa befinden und den PCIe ebenfalls nicht belasten und selbst die neuen Turing GPU s düften kaum über genügend Power verfügen um 4K mit 150 - 200 FPS zu erreichen so das es zu merklichen Einbrüchen kommt .
 
Zuletzt bearbeitet:
Das es durch aus große Abweichungen gibt ist auch in Abhängigkeit der jeweils eingesetzten Software zu sehen. Heißt im Klartext es kommt auch auf die jeweils Eingesetzte Software als auch auf die jeweiligen Einstellungen drauf an aber sieh es dir selbst an was ich meine Klick mich.

Ich wüste nicht das ich etwas anderes behauptet haben sollte das du mit einem Gegensatz mir MCM erläutern müsstest. Das was ich gesagt hatte zu MCM ist das es:

1. Das einen Speziellen Rendermodi benötigt wird um MCM effektiv zu nutzen und
2. der Direct X auch noch dazu angepasst werden muss.

Und um es noch mal zu Sagen MCM Bauweise im Bereich Grafikkarten werden wohl erst in 5-10 Jahren im Otto Normal bereich verfügbar sein oder zumindest zu Kaufen sein es sei den man hat genug Asche dann kann man sich auch ein DGX 2 von Nvidia hin stellen in Vollausbau. Das ist dann aber nichts mehr zum Zocken von Games!
 
in deinem Link gibt es selbst bei der Titan X keine nennenswerten Unterschiede mit Ausnahme eines einzigen Games , Grid Autosport und auch das sind nur 9 FPS , 169 statt 178

Der Rest ist relativ uninteressant weil da 2 Titan X im SLI Modus laufen , aber selbst da gibt es oft kaum Unterschied bis auf den hier
With dual GPUs, the results actually got a bit more confusing. Although Unigine Heaven Pro didn't see much of a difference with a single card, with two cards in SLI driving three 4K displays in surround we saw roughly a 15% drop in performance running at x16/x8 and a massive 30% drop in performance running at x8/x8.

Ich habe keine 3 x 4K Displays angeschlossen und lasse auch keine 2 Titan X im SLI laufen ...
Ich habe ne RX 480 die ich auf RX580 geflasht habe und werde mir vermutlich die RX680 in 7 nm kaufen , es kommt auch auf den Rest des Systems an und ein 4K kommt mir erst ins Haus wenn man dafür keine 800 -1000 Euro Graka mehr benötigt um in 4K mehr als 50-60 FPS zu erreichen .
Mein FHD reicht mir eigentlich vollkommen ...
 
Zurück
Oben