News GeForce GTX 1060: Referenzdesign von Nvidia hat keinen SLI-Anschluss

forumuser05 schrieb:
Nur liest man ja immer noch hier im Forum Kommentare ala "na für das Geld kauf ich mir lieber 2 von den 480er, GTX 1080er Leistung, aber viel günstiger". Das hat sich ja damit dann erledigt.
Seh ich nicht so. Ich glaub auch gar nicht, dass es soviele gab, die das Marketing von AMD dort nicht durchschaut haben. Noch einmal: Ich kann mit 2 RX 480 in mGPU in AoS eine GTX 1080 schlagen. Es gibt genuegend Titel, wie der CB Test zeigte, in denen selbst RX 480 CF ueber ner Referenz 1080 lag. Auf youtube gabs am zweiten Tag nach Launch der RX 480 auch Tests mit 17/23 Tests skalieren, 6/23 skalierten gar nicht. Egal ob gutes scaling oder nicht: Massive Verbesserung bei Frametimes bei den 17 Titeln. Bin aber ehrlich gesagt zu faul das rauszusuchen. Es haengt wie immer bei CF/SLI/mGPU davon ab, welche Titel man bewertet.

Nur werden das vermutlich bei den mehreren kleinen Problemen der Ref-Karte (Lautstärke/PCIe-Situation/...) 2 Custom-Karten werden, wobei man dann aber auch locker den gleichen Preis der GTX 1070 hat, teils sogar überbietet, denn für 560€ aufwärts (2x ~280€+) gibts keine GTX 1070 mehr.
Hab ich auch nirgends behauptet. Natuerlich sind 2x 256 UVP immer teurer als die 470 Euro, die aktuell aufgerufen werden fuer eine 1070. Und das war sogar noch wohlwollend nvidia gegenueber gerechnet. Denn ansonsten muesste man rechnen: 499 vs 512. Die ~280 Euro kommen aktuell nur aus dem Ausverkauf der Karte, da wir ja bei MF z.B. schon 8GB Modelle fuer 249 Euro gesehen haben.

Wie man ja sieht, betrifft die etwa 1080-Leistung nur wenige Spiele, im insgesamten Durchschnitt liegt man nur auf GTX 1070 Niveau und das zum höheren Preis.
Noch einmal: "wenige" Spiele haengt davon ab, welche Titel getestet wurden. Abhaengig von den persoenlichen Praeferenzen kann man sehr wohl viel besser mit 2x RX 480 als mit einer 1070 oder sogar 1080 fahren. Average hat eben keine Aussagekraft, ausser du benchmarkst alle am Markt befindlichen Titel, die eine GPU mit maxed settings auf 1080p erfordern. Den Test wuerde ich gerne mal sehen.

und sogar mit deutlich höherem Verbrauch, denn die GTX 1070 verbraucht ja schon weniger als eine RX 480, also auf gut deutsch doppelter Verbrauch.
Captain Obvious, wirklich. Zwei Karten verbrauchen das doppelte von einer. Wenn wir so anfangen, muesste die RX 480 die Haelfte einer 1070 verbrauchen. Aber so rechnet halt auch kein Schwanz. 2x RX 480 ist im Endeffekt die Frage: Will ich abhaengig vom Titel GTX 1080 Performance fuer mich haben, deren Einsparungen sich im Betrieb amortisieren.

Ergänzung ()

Stimmt, aber man kann sich ja nicht immer nur das Ideal raussuchen, sondern muss alle Spiele betrachten ... macht ja kein Sinn, dass man CoD Black Ops 3 spielen "muss", um gut dazustehen :)
Doch, kann man. Macht man auch, meistens passiv. Genauso wie ich beim Autokauf auf simple Praeferenzen wie "fahre ich viel Autobahn" oder "brauche ich ein Auto, dass sich in der Stadt gut parken laesst", wird mit einem Hintergrund an Spielerfahrung und Absicht gekauft. Da es keine vernuenftigen Tests mit "alle Spiele" gibt, ist es schlicht dumm sich den Durchschnitt anzuschauen. Das tun nur Leute, die auf "gut dazustehen" Wert legen.

Naja, das liegt daran, dass es nunmal eine Randgruppe ist, die das Betrifft. Gar nicht abwertend, aber es ist nunmal sehr selten. Wenn man aufrüstet, kauf man in der Regel nicht die gleiche "alte" Karte nochmal für ein SLI/CF-System, sondern eine neue mit neuen Features ... und direkt 2 Karten kaufen bisher nur die Leute, die ultimative Leistung mit 2 Highend-Karten wollen. 2 Mittelklasse-Karten sieht man sehr selten.
Das stoert mich immernoch am meisten: Es kommt eine neue GPU Generation und es werden erstmal schoen Erfahrungswerte aus der Vergangenheit 1:1 umgemuenzt. Genauso daemlich wie damals "riva tnt is scheisse, weil meine voodoo 2 ist besser". Hat man ja gesehen, was draus geworden ist. Viele sollten echt mal nen Schritt zurueck gehen und ueberlegen, ob das generische "singleperformance ist immer besser als CF/SLI" heute noch gueltig ist und insbesondere im Zusammenhang mit VR noch in Zukunft sein wird.
 
Also ich persönlich fand SLI & CF eigentlich immer unbrauchbar. Man hat zwar mehr FPS, aber 60 FPS im SLI/CF fühlen sich nicht besser an als 40 FPS mit einer SingleGPU dank Mikroruckler. Was hab ich also davon? Wenn jemand sagt, er bemerkt die Mikroruckler nicht, dann bemerkt er auch den Unterschied zwischen 40FPS und 60FPS nicht...
(Mal abgesehen von HighFPS-Shootern, die ingame von den reinen FPS profitieren)
Und dazu kommen noch alle anderen teils gravierende Nachteile von MultiGPU-Systemen. Warum man also lieber 2 x ne RX 480 statt einer GTX 1080 nutzen will, ist mir schleierhaft.

Erst DX12/Vulkan machen MultiGPU-Systeme interessant. Aber bisher gibt es ja gerade mal ein Spiel, welches MultiGPU unter DX12 unterstützt.
 
Necareor schrieb:
Also ich persönlich fand SLI & CF eigentlich immer unbrauchbar. Man hat zwar mehr FPS, aber 60 FPS im SLI/CF fühlen sich nicht besser an als 40 FPS mit einer SingleGPU dank Mikroruckler. Was hab ich also davon? Wenn jemand sagt, er bemerkt die Mikroruckler nicht, dann bemerkt er auch den Unterschied zwischen 40FPS und 60FPS nicht...
(Mal abgesehen von HighFPS-Shootern, die ingame von den reinen FPS profitieren)
Und dazu kommen noch alle anderen teils gravierende Nachteile von MultiGPU-Systemen. Warum man also lieber 2 x ne RX 480 statt einer GTX 1080 nutzen will, ist mir schleierhaft.

Erst DX12/Vulkan machen MultiGPU-Systeme interessant. Aber bisher gibt es ja gerade mal ein Spiel, welches MultiGPU unter DX12 unterstützt.

dem kann ich in keinster weise zustimmen
ob ich 40fps oder 60fps ist ein riesen unterschied den fast jeder spührt
vor einigen jahren hatte ich ein crossfire system aus 2 3870 karten und ich konnte bei höhren fps (50-60fps) praktisch keine mikroruckler warnehmen und auch keine anderer der mit meinem pc gespielt hat
also 40fps und 60fps crossfire sind ein riesen unterschied
wenn du sowas behauptest kann ich nur annhemen dass du es erfindest und noch nie ein crosfire system hattest
heute zutage gibt es außerdem freesync und gsync was die meisten leute die mikroruckler selbst im niedriegen fps bei 30-40 nicht mehr spühren lassen sollte (unter 30fps läuft bei mir eh kein spiel)

@ KTelwood
mittlerweile haben es alle gecheckt dass du crosfire hasst
auch für dich nochmal in aos braucht man kein crossfire

KTelwood schrieb:
Oder anders. Ich zahl die 550€ für zwei RX480 nur auf ein Treuhandkonto und es wird überwiesen sobald der "BOOM" richtig losgeht.

Die Crossfire Vorstellung von mr. Raja wird immer, immer , immmer peinlicher.

also deine kommentare sind an peinlichkeit echt nicht mehr zu toppen
erst kosten bei dir zwei 480 550€ und dann sind es plötzlich 600€

KTelwood schrieb:
Es sei denn, man will für 600€ NUR Ashes of the Singularity spielen.

übrigens gabs es bei mindfactory schon mehrmals die 480 8gb für 249€
und das zwei bis drei tage nach launch

desweiteren verstehe ich nicht warum hier nicht die crossfire tests von computerbase mit in eure betrachtungsweise mit einbezogen werden schließlich schreibt ihr ja auch hier eure kommentare
und dort schlagen nunmal zwei stock 480er jede 1070 und auch ne 1080fe

ich will hiermit nicht sagen dass multigpu das absolut tollste ist aber diese einseitige sichtweise ist wirklich schlimm
 
Zuletzt bearbeitet:
Nein. Mikroruckler nimmt jeder auch unterschiedlich war, genau wie Lautstärke bei Grafikkarten - was bei den einen noch total normal und gut ist, geht für andere gar nicht. Das macht es eben manchmal auch so schwer das zu vermitteln, da helfen auch keine Videos, da sie das verzerren. Fakt ist einfach, es gibt bei SLI/CF immer noch Probleme diverser Art, ich würde das nie empfehlen, schon gar nicht in der Mittelklasse. Denn wenn dein neues Lieblingsspiel im Herbst vier Wochen lang kein Profil bekommen hat, kotzt du vier Wochen rum, dass du nicht lieber einfach die gleichschnelle Single-GPU-Karte gekauft hast^^
 
Zuletzt bearbeitet:
Bei 50-60FPS konntest du keine Mikroruckler mehr wahrnehmen? Das kann ich jetzt wiederum nicht glauben. Selbst mit enormer Profiloptimierung ist mir das nicht gelungen.
Und ja, vor meiner R9 290X hatte ich zwei GTX 660 Ti's im Rechner (zumindest 2 Monate lang, hab eine davon dann wieder verkauft). Ich weiß also sehr gut, wovon ich rede.
 
thes33k

dein Post in TL;DR:

RX480 XF lohnt sich wenn man die richtigen Spiele spielen will und alle anderen Spiele, basierend auf der Engine einfach links liegen lässt.

Also die Spiele nach optimierung aussuchen !



GENERELL:

https://www.techpowerup.com/reviews/AMD/RX_480_CrossFire/19.html

Lohnt es sich nicht RX480 XF zu betreiben, eine einzelne GTX1070 ist schneller, Billiger und Sparsamer.

Die Einzelne RX480 4GB karte für 200€ bietet wahnsinns performance, wenn AMD die Stromprobleme Löst, und wenn die AIB Karten bessere Kühllösungen haben.
Dass sie insgesamt nur auf dem Niveau einer GTX970 rumdümpelt, die zwei Jahre alt ist, und der Kampfpreis von 200€ AMD sehr schmerzen dürfte ist aus Technischer Sicht enttäuschend.


Wer nicht morgens aufwacht und der festen überzeugung ist "Oh boy, ab heute macht jede Spieleschmiede alle Spiele für Multi-GPU rendering, auch wenns die Geld kostet"
Dann sollte man kein SLI und kein CRossfire planen.
 
@Milchwagen:
Ich wüsste nicht, warum das so sein soll. Ich hatte eigentlich eher Erfahrungsberichte gelesen, dass SLI & Gsync z.B. in vielen Spielen gar nicht gleichzeitig funktioniert. In anderen Fällen scheint GSync die Technik gegen Mikroruckler zu beeinflussen, wodurch das Frame Pacing nicht mehr so gut funktioniert.
Aber da hab ich jetzt selbst keine Erfahrung gemacht, hatte noch kein SLI/CF-Gespann und gleichzeitig einen Sync-Monitor.
Gibt es da irgendwo einen richtigen Test zu?
 
AMD wird den Preis schon gut gewählt haben. Aus technischer Sicht bekommt man eine Karte die Bei Release ca 40% günstiger ist als die GTX970. Du musst auch mal sehen von wo AMD kommt. Das die RX480 aber viel mehr potential als eine GTX970 hat sieht hier keiner oder wenige. Warte auf die Partnerkarten und dann schreiben wir nochmal.

Ein Multigpusystem ist m.M.n nie einer einzelnen Karte vorzuziehen. Der einzige Grund wäre wenn ich 200€ spare und 1zu1 die Leistung in den Spielen bekomme, die ich spiele.


@ Necareor

einen Test habe ich nicht wirklich gefunden. ICh weiß nur das Freesync unter CF wohl noch vor Crimson im Treiber implementiert wurde. Deswegen war meine Vermutung das es bei SLI auch geht.
 
Zuletzt bearbeitet:
SLI muss erstmal die Rechenaufgaben verteilen. Und das scheint nicht ohne Puffer zu laufen.
Dann hab ich einen Puffer vor dem Ausgabepuffer zum Display und damit wirds dann echt eng, falls einer mal leerläuft,
Kurz:
SLI ist da toll wo eine Single-Karte auch schon spielbare frames produziert.
 
@Milchwagen:
Ja funktionieren tut es allgemein schon, die Frage ist halt, ob es auch in jedem Spiel funktioniert. GSync/FreeSync alleine funktioniert ja schon nicht in jedem Spiel, und bei SLI/CF das gleiche.
 
Das die RX480 aber viel mehr potential als eine GTX970 hat sieht hier keiner oder wenige. Warte auf die Partnerkarten und dann schreiben wir nochmal.

Im moment kann man die Karte nicht ruhigen gewissens zum Übertakten empfehlen.


Ich warte auf den Patch von AMD, welcher das Lästige PCI-E Problem löst. Wenn man den Chip Generell undervolten und dann übertakten kann, das er mehr leistung hat, aber nicht den PCI-EPort überlastet wäre das zwar noch peinlich für AMD, aber spricht dann doch für den Chip.
Wenn man bei dem Design grundsätzlich nicht übertakten sollte, dann steckt ein "Potentiel guter Chip" auf einem kack PCB.
 
cypeak schrieb:
nö. nichtmal in den dunkelsten hardwarehölle-träumen...

Wenn man sich die Chipnamen, Eigenschaften und Abstufungen anschaut aber schon.

GTX560Ti -> GF114 -> 256Bit Speicherinterface -> DIE Size 332mm2 -> TDP 170 Watt
GTX1080 -> GM104 -> 256Bit Speicherinterface -> DIE Size 333mm2 -> TDP 190 Watt

Rein von den technischen Eckdaten ist die GTX1080 ein Nachfolger der GTXx560Ti. Mit der GTX 600 Serie hat nvidia nur den Namen und die Preise angepasst. Wurde der Fermi Vollausbau noch als GTX 580 verkauft, so wurde der Kepler Vollausbau als Titan (Black) verkauft.
 
KTelwood schrieb:
ein Crossfire RX480 ist nichtmal schneller als eine GTX1080, eher so schnell wie eine GTX1070. Von Preis, Stromverbrauch, und potentieller Überlastung des Mainboards abgesehen:

http://arstechnica.com/gadgets/2016/07/amd-rx-480-crossfire-vs-nvidia-gtx-1080-ashes/

https://www.techpowerup.com/reviews/AMD/RX_480_CrossFire/6.html


Alles in allem SHAME AMD!

Die Crossfire Vorstellung von mr. Raja wird immer, immer , immmer peinlicher.
Was peinlich ist sind deine Beiträge. Hier so eine gespielte, aufgebauschte Empörung ablassen, gleichzeitig die Speicherproblematik der 970er Karten nicht anerkennen wollen.
https://www.computerbase.de/forum/t...-nur-nvidia-die-deppen.1444245/#post-16971909
Wo bleibt das "SHAME NVIDIA"?

Dazu dann noch die anderen Beiträge das AMD Boards ja alle abrauchen würden, dabei betrifft das eine Hand voll Boards von Asrock, die Spannungsversorgung und Kühlung falsch konzipiert haben.
Es zeichnet sich ein Bild ab: hauptsache was gegen AMD sagen.
 
Meine Preiskugel prophezeit 349Euro UVP
 
thes33k schrieb:
Abhaengig von den persoenlichen Praeferenzen kann man sehr wohl viel besser mit 2x RX 480 als mit einer 1070 oder sogar 1080 fahren. Average hat eben keine Aussagekraft, ausser du benchmarkst alle am Markt befindlichen Titel, die eine GPU mit maxed settings auf 1080p erfordern. Den Test wuerde ich gerne mal sehen.
Captain Obvious, wirklich. Zwei Karten verbrauchen das doppelte von einer. Wenn wir so anfangen, muesste die RX 480 die Haelfte einer 1070 verbrauchen.
Natürlich kann man abhängig von den Präferenzen mit 2x RX 480 besser fahren, aber wie du ja auch selbst siehst berifft es einige Spiele, nicht mal die Mehrheit der Spiele! Und normalerweise kauft man sich eine Grafikkarte für das Spiel und nicht umgekehrt die "passenden" Spiele für die Grafikkarte(n)!
zum Verbrauch:
Naja, du weißt sehr genau, was ich meine, dafür muss man nicht mal "Captain Obvious" sein. ;) Wenn du dir die RX 480-Threads anguckst, dann wirst du finden, dass der O-Ton der AMD-Anhänger war, dass der Verbrauch keine Rolle spielt, da eine GTX 1080 (die ja nun siehe Test bei den meisten Spielen eben nicht erreicht wird) 180W verbraucht und da bei AMD die Angaben der TDP ja eh deutlich unterschritten werden, man von 2x ~110W ausgehen könne ... und 180W vs. ~220W ist tatsächlich zu vernachlässigen.
150W (GTX 1070) vs. ~300-330W (laut Test: 1 Karte schon mehr als GTX 1070 + 120-180W durch CF) sind dann aber mal ganz was anderes!

motul300 schrieb:
@ forumuser05
also in den von cb getesteten games wird die 1070 im durchschnitt sehr deutlich von zwei 480ern geschlagen
und auch die 1080 fe wird geschlagen
https://www.computerbase.de/artikel...re_ein_ausblick_zur_performance_fuer_512_euro
und das für einen preis von ziemlich genau 500€
Das ist richtig, nur gibt es die 8GB Varianten erst ab 269€ ... und damit ein CF System nicht für 500€, sondern ab 538€! Zumal die meisten nicht 2 laute Referenzkarten aussuchen, sondern teurere Customs nehmen, also landet man bei 550€ aufwärts für das CF-System!
Gleichzeitig gibt es die GTX 1070 schon für 459€ lagernd, also knapp 100€ günstiger:
zB: http://geizhals.de/kfa-geforce-gtx-1070-70nsh6dhk6vk-a1458235.html?hloc=at&hloc=de

Beim von dir verlinkten CB-Test muss ich dir zustimmen, dass es dort anders aussieht, ABER der Test ist ein bisschen "pro AMD":
- beim CF Test, den du erwähnst, wurden bewusst nur 5 nahezu perfekt skalierende Titel gewählt, weshalb das Ergebnis beeindruckend aussieht! Bei Techpowerup wurden hingegen viel mehr Titel ausgewählt und dann sieht das Ergebnis schon deutlich schlechter aus:
https://www.techpowerup.com/reviews/AMD/RX_480_CrossFire/19.html
- andere Dinge wurden einfach ignoriert beim Fazit: der enorm hohe Multi-Monitor-Verbrauch, der fehlende DVI-Anschluss (obwohl viele preisbewusste Spieler, die an so einer Karte nunmal interessiert sind, noch ältere Monitore weiterverwenden möchten!) oder die PCIe-Problematik (obwohl beim CB-Test das System mit der maxPTT Variante der RX 480 ganze 51W mehr als mit einer ebenfalls mit 150W TDP angegebenen GTX 1070 verbraucht, ohne aber mehr Stecker zu haben ... wundert das nicht?)
- die Preis-Auflistung ist auch irgendwie sehr einseitig gewählt -->

Für alle Karten wurden die derzeitig günstigsten Marktpreise genommen, außer?
a) nVidia-Karten, die meist teurer angegeben wurden:
- GTX 970, mit "249€" angegeben, gabs zum Testzeitpunkt ab 238€
- GTX 980, mit "380€" angegeben, gabs zum Testzeitpunkt ab 349€
- GTX 1070, mit "499€" angegeben, gibts aber nun schon länger 40€ günstiger, auch verfügbar, siehe oben!
b) AMD-Karten:
- für die RX 480 wird einfach UVP 256€ genannt, wurde das so irgendwo mal von AMD erwähnt? der tatsächliche Preis liegt ja anscheinend bei 269€ aufwärts
- die Fury hat nur ein Modell für 349€ gelistet gehabt, ALLE anderen haben 100€ mehr gekostet, aber hier wurden anscheinend im Gegensatz zu den oben genannten nVidia-Karten diese 349€ verwendet

Das ist jetzt insgesamt keine Unterstellung, aber AMD kommt bei dem Test schon sehr gut weg. Und gerade bei den erwähnten Preisen (238€ GTX 970; 269€ RX 480) wäre auch das Fazit mit dem "besten Preis-Leistungs-Verhältnis" nicht mehr passend gewesen.

Insgesamt ist die RX 480 aber auf jeden Fall nicht schlecht und gerade die 4GB Variante für 219€ definitiv ein Preistipp! Da wird die GTX 1060 nicht rankommen, will sie aber auch vermutlich gar nicht. Werden wir ja demnächst bei einem Test sehen ...
 
Zuletzt bearbeitet:
Der Multimonitor-Mehrverbrauch ist zwar ärgerlich, aber nicht mehr so dramatisch wie vorher. Bis 1920x1200 liegt der Verbrauch des 2. Monitors nur 1 Watt höher. Lediglich bei höheren Auflösungen braucht man 30 Watt mehr.
Da die RX 480 primär bei den meisten in Full-HD genutzt wird, ists eh egal. Ich will sie mit WQHD nutzen, ist natürlich ärgerlich, dass dann 30 Watt mehr verballert werden, aber insgesamt ists immer noch weniger als bei meiner alten 270X.
 
Zurück
Oben