News GeForce GTX 1060: Konter zur AMD Radeon RX 480 kostet ab 279 Euro

Am Dienstag ist es endlich soweit, langsam wirds echt spannend. Entweder wirds bei ne 480 oder 1060
 
Oder vielleicht behalte ich auch meine super Intel GPU ;-) Nee der war jetzt echt schlecht und nicht unbedingt überzeugend, aber ich warte auch schon auf dienstags.
 
Dass liegt einfach am zu kleinen RAM deswegen bin ich ja mal auf die 3GB gespannt. Aber da sagen dann alle wieder dass ist eine Sonderfunktion und recht dir auch noch in 3Jahren. ;-) Nee echt was NV da geritten hat also kein Plan logisch ist dass aber nicht und dazu auch noch weiter beschnitten dass dass sowieso nicht. Naja im dem fall ist ja AMD auch nicht besser 8/4GB mit unterschiedlichem Takt. Ich finde sowas einfach ein nogo egal wer sowas macht.
 
Langsam tauchen News zu einer 1060 mit weniger Shadern und 3GB auf, evtl. die 1050?
 
Nee wirklich zwei verschiedene gtx denke NV dachte sich nichts dabei aber trotzdem eine mittelklasse mit unter 4GB nee muß dass sein.

Selbst Computerbase sagt unter 4GB sollte man nichts mehr kaufen einfach nicht zukunftssicher.
 
neueinsteiger84 schrieb:
@ oldmanhunting: Da du einen G-Sync Monitor hast, bist du natürlich eher an Nvidia gebunden.

Aber was sollen jetzt Kunden machen, dich noch keinen Sync Monitor haben? Das trifft mit sehr hoher Wahrscheinlichkeit auf die Mehrheit der User zu.

1. Komplett auf Free- oder G-Sync verzichten. Das werde wahrscheinlich die meisten weiterhin machen.

2. G-Sync Monitor kaufen, der aber erst ab 400€ anfängt und gut 150€ teurer ist als ein vergleichbarer Free-Sync Monitor. Dann stellt sich da auch die Frage, ob Kunden die eine GTX 1060 kaufen auch die richtige Zielgruppe für Monitore ab 400€ ist.

3. Free-Sync Monitor kaufen, die bereits ab 120€ anfangen + eine AMD GPU für 280€. Damit kann man mit AMD deutlich günstiger mal einen Sync Monitor verwenden und erfahren, wie das so ist.

Anmerkung: Ich falle wohl eher zur Kategorie 3. Ich habe selbst keinen Sync Monitor und auch gar keine GPU, die das unterstützt. Wenn ich also ein Upgrade machen würde, dann müsste ich - bei aktuellen GPUs - bei Nvidia 270€ für die 1060 und 400€ für einen G-Sync Monitor ausgeben.
Bei AMD würde ich stattdessen deutlich günstiger wegkommen.

Daher sollte meiner Meinung nach AMD Versuchen, dieses Feature aggressiver zu vermarkten und eben den Preisvorteil für Free-Sync mehr public zu machen. Insbesondere da AMD mit der aktuellen Strategie eher preisbewusste User anspricht, die damit eher bereit sind Kompromisse einzugehen.

Jeder der eher high End will, bekommt natürlich bei Nvidia das bessere, aber halt auch teurere Paket.

Also ganz ehrlich, ich sehe nicht, wo ich bei nvidia das bessere Paket bekomme...
 
oldmanhunting schrieb:
AMD verbaut auf einer GPU die auf 970 Niveau läuft 8GB Ram und alle klatschen hier Beifall und finden die 6GB der 1060 natürlich viel zu knapp. Ich habe selten so einen Blödsinn gehört. Ja richtig, bei einer 1070 oder 1080 mit 6GB hätte ich auch gemosert aber einer 1060 und natürlich auch eine 480 geht eher die Leistung aus als der RAM. Was macht man wenn die Leistung nicht ausreicht? Richtig, man dreht die Details herunter.
Ich bin mir aber sicher, dass jetzt irgendwelche Hansels hier ankommen und solange herum probieren, bis die es schaffen irgendwo in irgend einem Spiel mehr als 6GB RAM zu nutzen, nur um mit dem Finger drauf zu zeigen.

Naja, man könnte ja vielleicht auch auf die Idee kommen, 2 RX 480 im Crossfire zu nutzen, um Gtx-1080-Leistung zum günstigeren Preis zu erhalten, da wären dann 8 GB Video-RAM pro Karte schon nicht schlecht, n'es pas? Nach allem was man hört ist Sli mit der gtx 1060 ja leider keine Option...
Ergänzung ()

Mcr-King schrieb:
Wenn man hohe Shader und Texturen hat dann läuft der Ram voll und gibt nichts schlimmeres als slowdowns durch zuwenig RAM ironischer weise haben wir beim Arbeitsspeicher solche Probleme nicht da die meisten genügend davon haben. 8-16 GB glaube ich ist schon standard und da heult auch keiner rum und sagt nimm halt weniger. 😏

Wie dem auch sei lieber hat man zuviel als zuwenig RAM denke ich.

Zuviel Ram? Zuviel Ram gibbet garnich...
 
Ich glaub nicht das ein 480X CF Gespann in den meisten aktuellen Spielen schneller ist als ne 1080.
Denke eher das man auf 1070 Niveau kommt.
 
Mcr-King schrieb:
Nee wirklich zwei verschiedene gtx denke NV dachte sich nichts dabei aber trotzdem eine mittelklasse mit unter 4GB nee muß dass sein.

Selbst Computerbase sagt unter 4GB sollte man nichts mehr kaufen einfach nicht zukunftssicher.
Was redest du hier eigentlich ständig von der 3GB-Version? Das Fragezeichen hinter der Überschrift und die Eläuterung in deinem PCGH-Link hast du nicht gesehen, oder?
Es ist doch überhaupt noch nicht bestätigt, daß es eine zweite 1060 geben wird bzw. sind die 3GB VRAM für die 1050 oder die Mobil-Variante der 1060 vorgesehen.

MartinFerber schrieb:
Naja, man könnte ja vielleicht auch auf die Idee kommen, 2 RX 480 im Crossfire zu nutzen, um Gtx-1080-Leistung zum günstigeren Preis zu erhalten, da wären dann 8 GB Video-RAM pro Karte schon nicht schlecht, n'es pas? Nach allem was man hört ist Sli mit der gtx 1060 ja leider keine Option...
...das wäre auch mit einer 480 keine Option sondern eher eine Dummheit. SLI/CF mit zwei Mittelklasse-Karten war noch nie eine gute Idee, oder warum macht das dann nicht jeder und kauft stattdessen eine einzelne HighEnd-Karte? Die Nachteile von Multi-GPU sind einfach zu gravierend:
Eusterw schrieb:
...
Unabhängig davon: Es iste die WEIT bessere Idee, deine 1060 in dem Moment zu verkaufen, wo du die zweite Karte haben möchtest und dann durch eine einzelne 1080 zu ersetzen. SLI wird nur von wenigen Spielen unterstützt. SLI wird teils erst nach Wochen unterstützt. SLI führt zu Mikrorucklern. SLI liefert oft nicht Leistung x 2. SLI hat mehr Stromverbrauch als Single-Lösung. SLI benötigt teurere Mainbords. SLI....

Aus nahezu jedem Gesichtspunkt, ist es vernünftiger, sich erst die günstigere Karte zu kaufen und diese später einfach durch eine schnellere zu ersetzen. Nur im absoluten High-End (z.B. 2x1080 für 4k auf Max), "kann" es Sinn machen, sich so eine Lösung zu kaufen.
...der Einfachheit halber hab ich das mal zitiert. Du kannst im Text SLI und 1060 einfach durch CF und 480 ersetzen, die Nachteile bleiben die Gleichen.
 
Zuletzt bearbeitet:
@MartinFerber: "besser" war wirklich etwas schlecht gewählt von mir. Ich meine damit eigentlich, wer aktuell die schnellste Single GPU will, muss zu Nvidia gereifen. Oder auch jemand, der einen Sync Monitore von 30-165Hz (oder gar 30-180Hz) haben will. Ob das nun besser ist, muss natürlich jeder für sich entscheiden.
 
Natürlich ist noch nichts bestätigt über eine zweite vers. Der GTX1060 nur die Gerüchte werden halt immer mehr was dass Betrifft und irgendwas braucht NV ja gegen die 4GB der RX480 oder etwa nicht.
 
Mcr-King schrieb:
Natürlich ist noch nichts bestätigt über eine zweite vers. Der GTX1060 nur die Gerüchte werden halt immer mehr was dass Betrifft und irgendwas braucht NV ja gegen die 4GB der RX480 oder etwa nicht.
Nö, brauchen sie nicht, es gibt doch die 6GB-Version.

Natürlich ist noch nichts bestätigt über eine zweite vers. Der GTX1060
Und warum schreibst du dann so, als wäre das schon längst klar? Hier so Zeug wie "Nee echt was NV da geritten hat also kein Plan logisch ist dass aber nicht und dazu auch noch weiter beschnitten dass dass sowieso nicht." oder "Nee wirklich zwei verschiedene gtx denke NV dachte sich nichts dabei aber trotzdem eine mittelklasse mit unter 4GB nee muß dass sein."
 
usopia schrieb:
...das wäre auch mit einer 480 keine Option sondern eher eine Dummheit. SLI/CF mit zwei Mittelklasse-Karten war noch nie eine gute Idee, oder warum macht das dann nicht jeder und kauft stattdessen eine einzelne HighEnd-Karte? Die Nachteile von Multi-GPU sind einfach zu gravierend:

...der Einfachheit halber hab ich das mal zitiert. Du kannst im Text SLI und 1060 einfach durch CF und 480 ersetzen, die Nachteile bleiben die Gleichen.

Natürlich hast du ein Recht auf deine eigene Meinung. Ich aber auch. Und ich seh das eben anders. Seit AMD die Crossfire-Bridge abgeschafft, durch eine DMA-Engine ersetzt und damit sozusagen die Handbremse gelöst hat, läufts ja deutlich besser. Der Stromverbrauch hat mich die letzten 20 Gaming-Jahre nicht interessiert, also warum jetzt wo's deutlich abwärts geht? Und Mikroruckler, mal ehrlich, die hast du wahrscheinlich noch nie wahrgenommen. Die heißen nämlich nicht umsonst "mikro" und werden ohnehin erst relevant, wenn's an die Leistungsgrenzen geht. Ergo, bevor ich den Preis für eine völlig überteuerte 1080 bezahle nehm ich lieber zwei 480er, da wäre dann auch noch eine teurere Hauptplatine drin, so ich die denn bräuchte. Also, so rein preislich jetzt mal...
Ergänzung ()

Eusterw schrieb:
A) Unter DX11 gar nicht
B) Unter DX12, wenn das vom Spiel so unterstützt wird

Unabhängig davon: Es iste die WEIT bessere Idee, deine 1060 in dem Moment zu verkaufen, wo du die zweite Karte haben möchtest und dann durch eine einzelne 1080 zu ersetzen. SLI wird nur von wenigen Spielen unterstützt. SLI wird teils erst nach Wochen unterstützt. SLI führt zu Mikrorucklern. SLI liefert oft nicht Leistung x 2. SLI hat mehr Stromverbrauch als Single-Lösung. SLI benötigt teurere Mainbords. SLI....

Aus nahezu jedem Gesichtspunkt, ist es vernünftiger, sich erst die günstigere Karte zu kaufen und diese später einfach durch eine schnellere zu ersetzen. Nur im absoluten High-End (z.B. 2x1080 für 4k auf Max), "kann" es Sinn machen, sich so eine Lösung zu kaufen.

Der 1060 fehlt, nach allem was man hört, der SLI-Anschluss, also geht da wohl gar nix. Oder hab ich was verpasst, übersehen, überlesen? Haben die jetzt auch 'nen DMA?
 
MartinFerber schrieb:
Der 1060 fehlt, nach allem was man hört, der SLI-Anschluss, also geht da wohl gar nix. Oder hab ich was verpasst, übersehen, überlesen? Haben die jetzt auch 'nen DMA?
Ja, hast du verpasst. Ab DX12, können Grafikkarten im Dual-Betrieb laufen, auch wenn diese keinen Crossfire/SLI-Anschluss haben. Es ist sogar möglich, Grafikkarten von AMD und NVidia zu mischen.

Englich: http://www.anandtech.com/show/10067/ashes-of-the-singularity-revisited-beta/4
Deutsch: http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/36982-amd-und-nvidia-grafikkarten-unter-directx-12-im-multi-adapter-modus.html
 
Na, hoffentlich haut das mit der versprochenen 25% Mehrleistung gegenüber der RX 480 hin. Die müssen schon drin sein bei ansonsten weniger Speicher und dafür höherem Preis.
 
Speicher ist ausreichend vorhanden. Da NVidia mit dem Speicher besser umgeht, werden 6GB da mindestens genausoweit reichen, wie 8GB auf der AMD-Seite. Das liegt daran, das der AMD-Treiber Speicher "verschwendet" und viel schneller in extremes ruckeln verfällt.

Siehe Test auf Computerbase: https://www.computerbase.de/2015-12/2gb-4gb-gtx-960-r9-380-vram-test/2/#diagramm-geforce-gtx-960-frametimes-assassins-creed-unity-1920-1080
AMD.png NVidia.png
 
Eusterw schrieb:
Ja, hast du verpasst. Ab DX12, können Grafikkarten im Dual-Betrieb laufen, auch wenn diese keinen Crossfire/SLI-Anschluss haben. Es ist sogar möglich, Grafikkarten von AMD und NVidia zu mischen.

Englich: http://www.anandtech.com/show/10067/ashes-of-the-singularity-revisited-beta/4
Deutsch: http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/36982-amd-und-nvidia-grafikkarten-unter-directx-12-im-multi-adapter-modus.html
Was aber auf den ersten Blick deines Beitrages nur die halbe Wahrheit ist, denn DX12 ermöglicht das zwar, aber der Programmierer muss es zwingend implementieren.

FunFact: nvidia behauptet ja seit Jahren das der Mischbetrieb (als PhysX Beschleuniger) nicht funktionieren würde, gecrackte Treiber haben dies ja auch schon lange als Lüge entlarvt, und jetzt kann man mit Hilfe von DX12 GPUs miteinander rechnen lassen 😐
 
Eusterw schrieb:
Ja, hast du verpasst. Ab DX12, können Grafikkarten im Dual-Betrieb laufen, auch wenn diese keinen Crossfire/SLI-Anschluss haben. Es ist sogar möglich, Grafikkarten von AMD und NVidia zu mischen.

Englich: http://www.anandtech.com/show/10067/ashes-of-the-singularity-revisited-beta/4
Deutsch: http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/36982-amd-und-nvidia-grafikkarten-unter-directx-12-im-multi-adapter-modus.html

Na das ist doch hervorragend, ein hoch auf DX12 :D
 
Zurück
Oben