Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIm Test vor 15 Jahren: Was brachte günstiges Multi-GPU vor 15 Jahren?
Gesamtsystem wie Hardy geschrieben hatte, dennoch extrem viel, auch im CPU Bereich hat sich hier viel getan, ein PC mit 4090 und i7-13700K braucht nichtmal 45W im reinen Idle.
Und wenn man bei dem i7 das Core Parking ausschaltet, dann braucht sie anstatt 9 W, direkt mal 55W^^.
Also ja, viele Features dazu gekommen.
piccolo85 schrieb:
Im Grunde hat sich bei den Preisen im Highend doch nicht so viel getan, viele Leute vergessen in der Diskussion nämlich SLI.
Was heute dem Enthusiasten die 4090 ist, war vor 10 Jahren 4-Way SLI mit GTX 580. Kostenpunkt damals wie heute rund 2000€.
Jaein, SLI war damals die Nische der Nischen.
Vom Preisaspekt hast du natürlich recht.
Ich hatte eine 8800GTX für 600, danach 2x GTX280er für kp 1100?! und dann 3x GTX580er für 1500€? - irgendwie so. Mein letztes sinnbefreites SLI Setup war tatsächlich mit 2x GTX1080er und bei Gott, 10 Minuten nach Einbau und Spielstart bereute ich es 😂
Von dem her stimmt die Rechnung schon - vergessen viele.
Auch vergessen viele, dass früher CPU+Plattform viel viel teuerer waren als heute, wenn ich mich an die 1K CPUs von Intel zurückerinnere^^.
Ergänzung ()
Hate01 schrieb:
Das waren Zeiten wo man einfach für knapp 500€ eine high end GPU kaufen konnte und jahrelang Ruhe hatte.
Das waren Zeiten, in denen gefühlt alle 8 Monate neue Karten kamen und mit dem 5 AAA Titel im Jahr bei max. Settings die Hardware schon wieder zu langsam war.
Jahrelang ruhe? Nein. Heute ist da einiges beständiger!
Zumal eine 8800GTX/Ultra Crysis in 1650x1050 gut mit 28-40 FPS im High Preset wiedergeben konnte, dann lieber so, als mit SLI, mir kam das damals schon im Stuttery vor, noch bevor das Thema überhaupt so durchgekaut wurde.
Jein, du kannst heute viel mehr Titel (auch neue) in voller Pracht bewundern als damals.
Damals waren viele GPUs zum Ende des 1 Jahres Zyklus schon am Ende und konnten Titel in darauf folgenden Jahren nur noch in Diashow wiedergeben.
Das ist heute nicht mehr so. Schau dir an, wie gut sich Hardware von 2016 noch schlägt. Das wäre damals undenkbar gewesen.
Ich fand Multi GPU immer massiv uninteressant. Selbst als die Voodoo 5 5500 auf dem Markt kam, denn da war ich schon bei der Geforce 256.
Auch die späteren Setups mit jeweils 2 PCBs ließen mich kalt. Teuer, uneffektiv, laut, stromfressend - die negativen Punkte haben immer überwogen. Einzig eine 9800gx2 hatte ich mir mal im Abverkauf bei Alternate gekauft und das beste an der Karte waren die LEDs.
Allerdings bastel ich immer gerne an PCs und es ist mir egal, wie alt die Hardware ist. Über die Jahre hab ich mir ein paar Crossfire, SLI und Quad SLI Systeme aufgebaut. Auch ein Rechner mit Rage Fury Maxx und V5 5500 steht hier rum. Alle schon Retro Lan erprobt, wo sie sich gut behauptet haben. Wenn man sie bencht, merkt man gut, wie gering der Leistungsgewinn ist. Der größte Vorteil ist wohl, das es optisch was hermacht
Zumal eine 8800GTX/Ultra Crysis in 1650x1050 gut mit 28-40 FPS im High Preset wiedergeben konnte, dann lieber so, als mit SLI, mir kam das damals schon im Stuttery vor, noch bevor das Thema überhaupt so durchgekaut wurde.
Weil Crysis auf Nvidia Hardware anfangs furchtbar verbuggt lief. musst dir nur mal die Changelogs der verschiedenen Versionen durchlesen. Crytek patchte da Unmengen von Darstellungsfehlern raus. AMD lief out of the box zwar ein bissl schlechter, aber da wurde alles korrekt angezeigt. Nvidia cheatete da mit teilweise nicht gerenderten Objekten...
Im Grunde hat sich bei den Preisen im Highend doch nicht so viel getan, viele Leute vergessen in der Diskussion nämlich SLI.
Was heute dem Enthusiasten die 4090 ist, war vor 10 Jahren 4-Way SLI mit GTX 580. Kostenpunkt damals wie heute rund 2000€.
Kannst du natürlich gern schreiben, aber meine gelockten 30fps laufen trotzdem ruckelfrei und ich werde jetzt trotzdem keinen G-Sync-Monitor kaufen.
Da gibt es natürlich so einiges, was die 30 fps nicht durchgehend hält (wie CyberPunk 2077 auf der PS4), das ruckelt dann natürlich. Das liegt aber nicht an den 30 fps. Das liegt dann an den 20 oder 15 oder 12 fps. Aber genau das konnte ein SLI-Setup ja bequem auf 30 heben.
Hate01 schrieb:
Die Schnittstelle hat weder mit dem Verbrauch noch Lautstärke irgendetwas zu tun.
PCIe 5.0 definiert unter anderem auch eine neue Stromversorgung mit bis zu 600 W. Das sind ja durchaus Bereiche, die früher bei SLI-Setups üblich waren.
Als ersten PCIe-Stromstecker definiert wurden, wollte man eigentlich mit 75 W und später 150 W pro GPU hinkommen. Daß da gleich mehrere Stecker an einer Grafikkarte landen, war so gar nicht geplant. Deshalb der neue Stecker mit 300, 450 oder 600 W, je nach Auslegung.
Uh ich weiß noch wie ich mir von dem ersten Gesellengehalt eine Evga 7950x2 gekauft (550€ für Highend damals) habe und gefühlt Wochen gebraucht habe bis ich Mal geschnallt habe das ich für die Games ein SLI Profil brauche.... Aber dann ging's ab
Doch, tut es. Egal wie schlecht deine Augen sind, du wirst doch wohl den Unterschied von 30 FPS auf 60 FPS+ sehen? Denn kann man nämlich nicht nicht sehen...
Hat dieses SLI, CF oder Dual GPU eigentlich jemals richtig Funktioniert, ohne ständige Mircoruckler etc.? Das einzige CF Artige System was ich jemals gebaut hatte war eine AMD APU mit einer Radeonkarte zusammen, das Lief ganz gut, aber wahrscheinlich nur, weil es da kein Bridgecable gab.
Damals gab es einfach noch kein iF was genug Tempo zum Verbinden der GPU´s hatte.
Diese Bridgecable machten mir immer einen antiken Eindruck, auch schon damals.
Hatte was von mini ATA33 Kabel.
Im Grunde hat sich bei den Preisen im Highend doch nicht so viel getan, viele Leute vergessen in der Diskussion nämlich SLI.
Was heute dem Enthusiasten die 4090 ist, war vor 10 Jahren 4-Way SLI mit GTX 580. Kostenpunkt damals wie heute rund 2000€.
Was auch vergessen wird ist, dass die Komponenten momentan den GPU Herstellern um einiges mehr kosten als früher! Ich bin selbst in der Entwicklung tätig und die Elektronik Zulieferer nützen die Situation vollkommen aus! Wird ein Teil benötigt, so ist es nicht lieferbar, außer man bezahlt, den Preis pro Stück, wie früher für 100 Stück! Ansonsten könnte ja auch AMD seine Preise so weit senken, dass nVidia GPUs unattraktiv werden, aber ich gehe davon aus, dass es Wirtschaftlich momentan nicht machbar ist.
In meiner Erinnerung war so eine highend GPU direkt bei erscheinen der neuen GPU hoffnungslos veraltet und wertlos. Da war jahrelang Ruhe eher monatelang Ruhe. Zumindest in meiner Erinnerung
@MysticStuff soweit ich das weis werden die Konsolen selbst sowieso querfinanziert. Geld kommt dann mit Spielen und Zubehör rein. Und die Hardware wird sich preistechnisch vermutlich nicht verändert haben da hier sicher Langzeitverträge laufen.
Aber ruckeln tut beides nicht. Ruckeln bei (nvidia-)SLI entstand durch die Tatsache, daß zwei nacheinander folgende Frames auf unterschiedlichen GPUs unterschiedlich schnell gerechnet wurden dann halt mit maximaler Durchsatzrate (für den Benchmarkbalken) auf den Schirm gebracht wurden. Der eine Frame wurde dann z. B. in unter 16 ms fertig, der zweite hinterher aber leider erst in 20 ms, das ruckelte dann.
Lockt man das auf die gleichen Framezeiten fest (z. B. 33.3 ms) und hat man immer genug GPU-Leistung in der Hinterhand, bemerkt man davon nichts mehr. Wenn die 60 fps ganz nicht erreicht werden, locke ich deshalb auf 30 fps V-synchronisiert, dann ruckelt auch nichts.
ich glaube @Pisaro meint nicht das ruckeln im Sinne von unterschiedlichen frametimes ich glaube er meint das ein 30fps Bild halt gleichmäßig mit 33ms ruckelt.
Ich kenne dies von mir selbst, bin seit 2014 mit 144hz unterwegs.
Setzt man sich dann an ein 60 oder 30fps System, wirkt es komplett ruckelig, einfach weil so wenig Bilder pro Sekunde kommen. Ganz unabhängig von den frametimes.