News GeForce GTX 1060: Konter zur AMD Radeon RX 480 kostet ab 279 Euro

Morgen sollen doch die Testberichte zu der GTX 1060 kommen, wenn ich mich nicht Irre. Dann wissen wir ob es mit der Konter von NVidia funktioniert hat.

War mir aber klar, dass jetzt wo es bei der GTX 1060 keine SLI Brücke mehr gibt aber auch wirklich alle AMD'ler hier im Forum sich zwei 480 in den Rechner stecken wollen, weil das ja so toll ist.
 
oldmanhunting schrieb:
Morgen sollen doch die Testberichte zu der GTX 1060 kommen, wenn ich mich nicht Irre. Dann wissen wir ob es mit der Konter von NVidia funktioniert hat.

War mir aber klar, dass jetzt wo es bei der GTX 1060 keine SLI Brücke mehr gibt aber auch wirklich alle AMD'ler hier im Forum sich zwei 480 in den Rechner stecken wollen, weil das ja so toll ist.

Dass die 1060 keinen SLI-Anschluss mehr hat hat doch nicht ursächlich damit zu tun, dass man zwei 480er nutzen möchte?!?
Außerdem hab' ich ja nicht gesagt, dass ich das will, sondern dass das eine Möglichkeit wäre, die Leistung einer 1080 mit weniger finanziellem Aufwand zu erreichen... mir persönlich würde für meine Zwecke eine einzelne RX 480 VÖLLIG ausreichen, ich bin derzeit noch mit einer einzelnen Gtx 760 unterwegs, und die reicht mir auch noch...:)
 
Eusterw schrieb:
Speicher ist ausreichend vorhanden. Da NVidia mit dem Speicher besser umgeht, werden 6GB da mindestens genausoweit reichen, wie 8GB auf der AMD-Seite. Das liegt daran, das der AMD-Treiber Speicher "verschwendet" und viel schneller in extremes ruckeln verfällt.

Siehe Test auf Computerbase: https://www.computerbase.de/2015-12/2gb-4gb-gtx-960-r9-380-vram-test/2/#diagramm-geforce-gtx-960-frametimes-assassins-creed-unity-1920-1080
Anhang anzeigen 569731 Anhang anzeigen 569732
Nur ist das nicht mehr aktuell da die 480 auf eine gleich hohe Kompressionsstufe setzt wie NVIDIA.
 
oldmanhunting schrieb:
War mir aber klar, dass jetzt wo es bei der GTX 1060 keine SLI Brücke mehr gibt aber auch wirklich alle AMD'ler hier im Forum sich zwei 480 in den Rechner stecken wollen, weil das ja so toll ist.

In der Hinsicht beuten es ja beide "Seiten" immer aus.
Zu Zeiten der GTX 400/ HD 5000 Serie wurde eben von AMD Seite aus der Stromverbrauch der GTX Serie angekreidet, als mit der GTX 600 Serie der Stromverbrauch der NV Karten niedriger lag und die AMD Karten mehr verbrauchten, war auf einmal der Stromverbrauch von NV Seite ein heißbeliebtes "Feature".
Da nimmt sich keine Seite etwas, siehe auch PhysX vs TressFX.

Ansonsten sind SLI/Crossfire eher immer "nice to have" Möglichkeiten gewesen, die sicherlich nur eine kleine Gruppe in Anspruch nahmen. Aber allein die Möglichkeit haben, eine zweite Karte (später günstig) dazu zustecken, das war halt immer ein kleiner "Bonus". Sowas schwebt, selbst wenn man es nicht nutzt/niemals nutzen würde, immer mit im Hinterkopf als "Mehrwert", ähnlich wie die Möglichkeit der CPU Internen GPU, die in quasi jeder Intel CPU steckt (der Großteil wird das aber kaum nutzen, aber eben "nice to have" im Fall der Fälle und ein kleiner Bonus).

Ich bin ja mal gespannt auf morgen, vor allem hinsichtlich der Preise.
 
Andregee schrieb:
Nur ist das nicht mehr aktuell da die 480 auf eine gleich hohe Kompressionsstufe setzt wie NVIDIA.
Hast du da einen Test oder eine Quelle zur Bestätigung?

Soweit ich weis, wurde bei AMD (und NVidia zeitgleich), das Kompressionsverfahren der 400er (1000er) Serie zur Datenübertragung deutlich verbessert, was eigentlich nichts mit der Speicherverschwendung des AMD-Treibers auf die Größe des Speichers zu tun haben dürfte.
 
Na ja ich seh es eher als positiv im Mid Range bereich erst gar keine SLI anzubieten. Klar fuer Liebhaber evtl interessant, aber Sinn macht SLI in 99% doch nur im high end Bereich (einfach um nich mehr Leistung herauszuholen, wo es sonst nichts besseres gibt). Bei dem schlechten sLI Support ist man mit einer 1070 einfach so gut wie immer besser dran als mit 2 1060 ausser man spielt fast nur genau das eine Spiel mit exzellentem SlI Support. Und spaeter neue Karte rein: alte verkaufen neue hoehere Klasse kaufe ist meist auch sinniger. Noch dazu schaut man in der Klasse ja auch auf den Taler und da ist dann eine 1070 halt auch Energiesparender und ein kleineres Netzteil tut es auch... Kein schlechter Schritt den Kunden in diesem Fall zu bervormunden und spart evtl noch ein paar Euro Produktionskosten...
 
Zuletzt bearbeitet:
Fruuky schrieb:
Na ja ich seh es eher als positiv im Mid Range bereich erst gar keine SLI anzubieten. Klar fuer Liebhaber evtl interessant, aber Sinn macht SLI in 99% doch nur im high end Bereich (einfach um nich mehr Leistung herauszuholen, wo es sonst nichts besseres gibt).

Das hör ich dauernd, aber mehr Leistung brauch ich doch dann, wenn meine Mid-Range-Karte am leistungsmäßigen Ende ist, oder etwa nicht? Und wenn ich dann anstatt teuer eine neue Karte zu kaufen (selbst eine Gtx 970 ist aktuell ja immer noch teurer als eine RX 480, was mal so gar keinen Sinn ergibt) einfach 'ne zweite Mid-Range dazustecke, die bis dahin noch günstiger ist, macht das mMn durchaus Sinn.
 
Hier wurde mal ein 1060 "SLI" getestet...

https://www.youtube.com/watch?v=pzOrsQM7ImA

Nun versteht man, warum Nvidia das nicht möchte ^^. Ich finde die Entscheidung einfach mega schade.

Ich habe z.B. bis auf Doom und JustCause 3 (die ich beide kaum Spiele) nur Spiele, die hervorragend mit SLI skalieren.

Ich hatte zuvor 2x970 SSC+ im Rechner und war damit wirklich sehr zufrieden. Wenn die Karten mehr VRAM gehabt hätten, würde ich diese jetzt noch immer besitzen.

Die 1060 ist quasi eine GTX 980 OC mit mehr Features, weniger Verbrauch und besserem DX12 Support und 2GB VRAM mehr.

Wer Spaß an SLI hat, wäre hier voll auf seine Kosten gekommen, denn die Karten hätten wirklich richtig Power, ohne VRAM "Krüppel" zu sein.

Für mich hat AMD da durchaus besser agiert...


-

Man sagt ja immer "SLI aus Midrange Karten macht keinen Sinn". Ich sehe das aber total anders. Die 970er waren brutal schnell im SLI. Ich kann es nur nochmal wiederholen. Overwatch in 1440P oder 4K(DSR) , sieht eine 1080 gar kein Land gegen 2x 970er. Wenn man viele solcher Spiele hat, macht ein 1060er oder 480er SLI / CF System durchaus Sinn. Vor allem bei dem Preis.

Wer natürlich viel ANNO, DOOM etc. spielt, dem sei von solch einem System eher abzuraten, wobei auch eine 1060/480 da durchaus brauchbare Frameraten erzeugt.
 
Martin das kann natürlich jeder halten wie er möchte. Ich hatte mal ein SLI System und dann war die gefühlte Performance viel schlechter als die angezeigten FPS bei jedem zweiten Spiel oder es ging erst gar nicht in SLI. Alte Karte verkaufen und schnellere kaufen ist einfach besser.

In high end kann man halt nichts schnelleres kaufen weil es nichts schnelleres gibt, so kann es für manch einen evtl Sinn machen die Nachteile in Kauf zu nehmen.
 
MartinFerber schrieb:
Und wenn ich dann anstatt teuer eine neue Karte zu kaufen (selbst eine Gtx 970 ist aktuell ja immer noch teurer als eine RX 480, was mal so gar keinen Sinn ergibt) einfach 'ne zweite Mid-Range dazustecke, die bis dahin noch günstiger ist, macht das mMn durchaus Sinn.

Ja, das macht Sinn, das Problem der Mikroruckler kann man ja mit Vsync in den Griff bekommen, Problem: die Spiele müssen via Treiber CF/SLI unterstützen, sonst laufen sie wie gehabt nur auf einer Karte. Dass man sich damit mehr Stromverbrauch und mehr Krach einhandelt, ist auch klar. Ich sehe CF/SLI durchaus zwiespältig, für VR könnte es aber interessant sein, wenn man pro Auge eine Karte hat.
 
HerrRossi schrieb:
Ja, das macht Sinn, das Problem der Mikroruckler kann man ja mit Vsync in den Griff bekommen, Problem: die Spiele müssen via Treiber CF/SLI unterstützen, sonst laufen sie wie gehabt nur auf einer Karte. Dass man sich damit mehr Stromverbrauch und mehr Krach einhandelt, ist auch klar. Ich sehe CF/SLI durchaus zwiespältig, für VR könnte es aber interessant sein, wenn man pro Auge eine Karte hat.

Mikroruckler, das hab ich schonmal geschrieben, heißen nicht umsonst "mikro", Nachladeruckler sind deutlich ärgerlicher. Und der Stromverbrauch... 'ne Gtx 760 plus eine Gtx 460 für physx ist nicht gerade sparsam, n'es pas? Sind beide zusammen im Spielbetrieb mit Kopfhörern oder mit Boxen nicht mehr zu hören, aber ich hab ja auch keine Referenzkrüppel. Und von den Games, die mich intressieren, werden die meisten bereits unterstützt, die übrigen folgen ja möglicherweise noch...
 
Ei klar, Marketing, was sonst. 2x1060 ist deutlich billiger als eine 1080. Das geht natürlich nicht. Da sieht man dann auch die überzogenen Preise für die 1080
 
RayKrebs schrieb:
Ei klar, Marketing, was sonst. 2x1060 ist deutlich billiger als eine 1080. Das geht natürlich nicht. Da sieht man dann auch die überzogenen Preise für die 1080

Richtig und man spart sich Arbeit beim Treiber naja aber schon cool wie die Leute das NV abkaufen bei AMD oh kein CF warum und so gelle naja.
 
Mcr-King schrieb:
Richtig und man spart sich Arbeit beim Treiber...

Nicht wirklich, die Profile müssen für 1070/80 sowieso erstellt werden. Ein 1060 SLI würde die 1080 schlagen und wäre billiger, deswegen gibt es das nicht.
 
Gibt es schon ein Test, ob bei der GTX 1060 auch wirklich 6 GB mit voller Geschwindigkeit nutzbar sind?
 
HerrRossi schrieb:
Nicht wirklich, die Profile müssen für 1070/80 sowieso erstellt werden. Ein 1060 SLI würde die 1080 schlagen und wäre billiger, deswegen gibt es das nicht.

Da kann man sich jetzt 100 Stunden drüber streiten. Unter DX12 wird SLI sowieso nicht benötigt. Wieso sollte man sich also die Mühe machen jetzt für eine Mittelklassekarte noch die zusätzliche Schnittstelle + SLI Optimierungen zu betreiben? Am Ende ist es ein bisschen hiervon und ein wenig davon. 2x1060 SLI mach kaum Sinn und 2-3 Jahren wird man es vermutlich wegen DX12 eh nicht benötigen. Zudem spart die weggelassene Schnittstelle Kosten.

Ich verstehe nur nicht wieso man noch immer DVI verbaut. Hätte man im gleichen Zug wegrationalisieren können.
 
Zuletzt bearbeitet:
Viele Leute haben noch ein Monitor mit DVI Anschluss. Wenn man dann die Wahl hat, eine Karte (gleich gute Karten) mit oder ohne DVI zu kaufen, nimmt man natürlich die mit DVI.

Ein Adapter kostet zwar nicht viel, aber wenn man sich das Geld sparen kann, warum nicht.
 
Eusterw schrieb:
Das liegt daran, das der AMD-Treiber Speicher "verschwendet" und viel schneller in extremes ruckeln verfällt.
Wieso verlinkst du dafür auf einen veralteten Test? Frametimes der 1060 und der RX 480 wurden doch schon gemessen. Ergebnis:
Overall we can say that Pascal with the GeForce GTX 1060 and the Polaris 10 with the Radeon RX 480 performed really well in the eleven FCAT tests we ran it through. Four out of eleven tests were DirectX 12 enabled. All games passed our examination easily without any noticeable stutters or anomalies, and that is pretty good if you ask me.

Die Frametimes bei elf Spielen wurden getestet, davon 4 mit Dx12. Die Frametimes sehen z.B. so aus:
index2.pngindex4.pngindex6.pngindex7.png

Quelle: http://www.guru3d.com/articles_pages/radeon_rx_480_vs_gtx_1060_fcat_frametime_analysis_review,1.html

Da ruckelt gar nix, weder bei AMD noch bei nvidia (die Spikes bei Hitman sind Szenenwechsel).
 
Zuletzt bearbeitet:
DrToxic schrieb:
Wieso verlinkst du dafür auf einen veralteten Test? Frametimes der 1060 und der RX 480 wurden doch schon gemessen.
Weil ein Test der Speicherbelegung nur da interessant ist, wo die Karten ins Limit laufen. Haben beide Karten immer unbegrenzt Speicher zur Verfügung, ist der Test nichtssagend.

Es ging ja darum, aufzuzeigen, das NVidia in identischen Situationen mit wenig Speicher noch funktioniert, während AMD nicht mehr zurecht kommt. Das Ergebnis der Limitierung bei 2GB ist sicherlich auf Limitierungen bei höheren Werten übertragbar.

Das es in Situationen ohne Platznot nicht zu Platzproblemen kommt, ist logisch und muss nicht mal getestet werden.
 
@Eusterw: Der niedrigere Speicherverbrauch geht aber zu Lasten der Qualität. Dann kann ich auch gleich die Texturen selber runterschrauben. Da wird entweder durch die Game-Engine oder durch den Treiber getrickst. Ganz einfach.

lange bevor etwas einbricht, blenden moderne Spiele Details aus oder erlauben dem Nutzer erst gar keine maximale Qualitätsstufe im Menü. Daraus folgt: Eine 4-GiByte-Grafikkarte mag fps-mäßig noch mithalten, allerdings nur durch "cheaten" - Mogelei der Game-Engine, nicht der Grafikkarte! Die Spiele werden durch Speichermangel also zunächst hässlicher und erst dann ruckliger.

Interessanter Beitrag zur Speicherproblematik & Quelle: http://www.pcgameshardware.de/AMD-R...-264637/Specials/4-GB-vs-8-GB-vs-6GB-1202557/
 
Zurück
Oben