News GeForce GTX 1060: Konter zur AMD Radeon RX 480 kostet ab 279 Euro

Naja die 8800GT hat aber nur 200 Euro gekostet, nicht 250+ Euro.

Man sollte bedenken das 480 und 960 nur Midrange Karten sind. Dafür sind beide 50 Euro zu teuer.

Das darfst du so nicht sehen. Grafikkarten waren immer teuer! 1500DM und mehr für eine Geforce 2 Ti und so weiter. Viele Leute sind einfach nur verwöhnt von den kurrzeitig guten Preisen von der 8xxx Setie oder 2xx Serie..

AMD fällt mit dem hohen Stromverbrauch raus und die AMD Treiber waren schon seit meiner ersten Karte, einer ATI Rage 128 eine Katastrophe, daran hat sich seit dem nie was wirklich getan und jedes mal wenn ich mal wieder eine AMD Karte versucht habe, war ich irgendwann wieder froh im NVidia Lager zu sein, auch wenn ich es ATI/AMD gewünscht hätte.

Wie kann man eigentlich so einen riesigen Müll schreiben? Nvidia-Treiber sind NICHT besser als AMD-Treiber, genausowenig wie AMD-Treiber besser als NVidia-Treiber sind! Vor meiner jetztigen 980 Ti hatte ich überwiegend AMD/ATI Karten und hatte jahrelang nicht ein einziges Problem mit den Treibern.
 
Zuletzt bearbeitet:
Pisaro schrieb:
Das darfst du so nicht sehen. Grafikkarten waren immer teuer! 1500DM und mehr für eine Geforce 2 Ti und so weiter. Viele Leute sind einfach nur verwöhnt von den kurrzeitig guten Preisen von der 8xxx Setie oder 2xx Serie...

Das sind immer noch 750 Euro und keine 1500.
 
Im Vergleich zur RX480 ist die GTX 960 'jetzt' zu teuer, aber auch erst jetzt.

Damals kam die GTX 960 4 GB für gut 270 Euro auf unseren Markt, die R9 380 4 GB kostete aber auch schon 240 €. - Die werden jetzt von der RX 480 in die Tasche gesteckt, so auch von der GTX 1060.

Es ist eben ein bedeutender Leistungssprung. - Die GTX 960 hatte noch das Niveau einer GTX 660 in den meisten Benchmarks, trotz kastriertem Speicherinterface.
Jetzt springen die GTX 1060 und die RX 480 schon in den Bereich der alten 400-500 € Karten.

Besonders bei der Umstellung der Shader-Architektur oder durch Farbkompression machen die Karten immer wieder alle paar Jahre einen Übersprung.
 
Das sind immer noch 750 Euro und keine 1500.

Von Inflation etc hast du aber schon gehört? Das ist der größte Fehler den man machen kann, einfach DM mal zwei nehmen und es Euro nennen. Aber gut, es gab auch Karten für 1000 DM. Diese Zeit mit den krassen Karten für 250-400 Euro ist einfach vorbei. Gewöhnt euch dran, jetzt sind die Preise seit einer Weile wieder halbwegs normal..
 
Cohen schrieb:
Laut der CB-Leistungsratings von 2013 und 2016 hat sich das Verhältnis der (performancemäßig recht naheliegenden und auch zeitnah erschienenen) GTX780 und R9 290X zumindest nicht so extrem verschoben, wie immer behauptet wird:

https://www.computerbase.de/2013-10/amd-radeon-r9-290x-test/5/#abschnitt_leistungsratings_spiele
https://www.computerbase.de/thema/grafikkarte/rangliste/

10/2013 Leistungsrating 1920x1080: GTX780 = 100%, R9 290X = 106%
04/2016 Leistungsrating 1920x1080: GTX780 = 100%, R9 290X = 105%

In 1080p hat sich das Verhältnis in den 2,5 Jahren bis auf Messungenauigkeiten / andere Spieleauswahl rein gar nichts geändert.

10/2013 Leistungsrating 2560x1600: GTX780 = 100%, R9 290X = 107%
04/2016 Leistungsrating 2560x1440: GTX780 = 100%, R9 290X = 109%

Hier hat sich das Verhältnis in den 2,5 Jahren 2% zugunsten der 290X verbessert.
Kleine Verschiebungen sind ja auch nicht untypisch, besonders in Anbetracht, dass die 290X eine theoretische Rohleistung von 5,6 TFlops hat und die GF 780 nur 3,9 TFlops. Demnach ist es verständlich, dass die Radeon Karten bei ausgeeiferten Treiber schneller werden müssen. Die Leistung ist also theoretisch da, wird aber wahrscheinlich beim erscheinen nicht Optimal genützt.

Aber es wurde behauptet, und ich Zitiere:
Luffy schrieb:
8gb und bei betrügernkauft man nicht! Bessere treiber und die rx 480wird immer besser und die nv karten werden immer langsamer mit der zeit.
Was bedeutet, dass eine NV Karte beim selben Benchmark später (also durch Treiber, weil anders geht es ja kaum) langsamer gemacht wird.
Deshalb muss man schauen, ob bei selben Bench NV Karten mit der Zeit langsamer gemacht werden. Denn nur weil eine Karte/GPU, welche schon seit beginn eine (deutlich) höhere theoretische Leistung hatte mit der Zeit schneller wird, bedeutet nicht, dass die andere Karte langsamer gemacht wird.
 
Is mir echt wurscht; wenn die NV-Fans zuviel Kohle haben sollen sie sie doch verschleudern. Ich hab in meinem ganzen Leben noch nie auch nur 200 Euro fü 'ne Graka ausgegeben. Meine aktuelle 760 gabs für unter 150, das fand ich schon viel. Letztenendes gehts hier um "Erwachsenenspielzeug", oder? NV oder AMD? Völlig egal, Hauptsache sie tut was sie soll und kostet nicht viel.
 
Pisaro schrieb:
Grafikkarten waren immer teuer! 1500DM und mehr für eine Geforce 2 Ti und so weiter. Viele Leute sind einfach nur verwöhnt von den kurrzeitig guten Preisen von der 8xxx Setie oder 2xx Serie..

Die Geforce 2 TI Karten waren nicht so teuer, kosteten 400-500DM, ähnlich wie die damals dagegen gestellte Radeon 7500, Ende 2001.
Nur die Geforce 2 Ultra, die kostete 1500DM (~500$) aufwärts, hatte aber auch eher den Status einer heutigen Titan.

Den Listenpreis der Radeon 7500 gibt ATI mit 399 Mark an. Sie soll mit 64 MByte DDR-DRAM bestückt Anfang Okto-ber in den Handel kommen. 100 Mark mehr verlangt Gainward für sein ‘Golden Sample’ mit dem GeForce2 Ti.

http://www.heise.de/ct/artikel/Hase-und-Igel-285258.html

With very fast memory, high yield chips, and a minimum of 64MB of SDRAM on the cards, how expensive do you think the new GeForce2 Ultra will be? It’s definitely not going to be at the $400 mark the 64MB GeForce2 GTS cards began selling at, nope, you’re looking at around $500 for a GeForce2 Ultra.

http://www.anandtech.com/show/601/3

Wobei zwischen Geforce 2 Ultra und Ti auch nochmal ~ 1-1,5 Jahre lagen. Die Ultra kam gegen Ende 2000 raus, die TI gegen Ende 2001.
 
Zuletzt bearbeitet:
Pisaro schrieb:
*Komplettzitat entfernt*

Lass mal Inflation 30% sein über die ganzen Jahre. Dan wäre man etwa bei 1000 Euro und nicht bei 1500 Euro!
 
Zuletzt bearbeitet von einem Moderator: (*Komplettzitat entfernt*)
Naja, so stark haut die Inflation nicht rein. Was damals in etwa 400-500DM kostete in der Mittelklasse (ergo 200-250€) wäre nach Inflation (gehen wir von gemittelt 2% aus pro Jahr) heute zwischen 250 und 300€ in etwa.

Nachdem wären die Preise ja "okay". Blos sind die Sprünge in den letzten Jahren von einer Generation zur nächsten nicht so immens gewesen, als das dies heute mancher als gerechtfertigt ansieht (die Probleme gabs aber damals auch schon, siehe Radeon 7500 zur Radeon DDR).

Liegt aber vllt auch daran, das recht viele "Zwischengenerationen" existierten, die einfach nur "verbesserte" Versionen der Vorgänger waren.

Bei NV gabs zwischen der 560TI und 660TI nichts, aber nach der 660TI gabs die 760 und 960 (TI wurde ja fallen gelassen bzw. wird nun für Highendkarten wieder genutzt), bei denen die Sprünge auch nicht so immens waren in der Mittelklasse.

AMD hatte nach der HD 7000er Serie die Chips weiter genutzt in der Mitteklasse, da gabs auch keinen Sprung von einer 7870 (schon gar nicht von einer XT Version) zu einer 270x weil es die gleichen Chips waren, der Unterschied 280/280x zur 285/380/380x war auch nur minimal/kaum vorhanden bzw. kam sehr auf die Spiele drauf an.
 
Zuletzt bearbeitet:
Palmdale schrieb:
Die Dimension und Zielauflösung bei 1060 und 480 ist allerdings mMn FHD, und dafür sind 6GB mehr als ausreichend für die kommenden Jahre (noch schlechtere Texturen und Programmierung kanns ja wohl nicht werden ;)).
Die Auflösung spielt da ja eher die untergeordnete Rolle, das meiste RAM fressen nunmal hochauflösende Texturen und das kostet kaum Rechenleistung, HisN hat das mal ganz schön demonstriert. Ich persönlich weiß noch nicht, ob mir 6GB reichen, ich möchte ein paar ältere Spiele modden, insbesondere GTA V, Watch Dogs und Fallout 4, da muss ich erst noch recherchieren, wie hoch dabei der RAM-Konsum unter FullHD ist. Und ein bisschen Zukunftssicherheit wäre auch ganz nett, ich möchte nicht alle 2 Jahre eine neue Grafikkarte kaufen müssen. Deswegen bin ich mit der 480 so noch nicht zufrieden, die bräuchte etwas mehr Rechenleistung.

Ich könnte wetten, dass im PCGH-Fazit zum 19.07. steht, dass die 6GB wirklich üppig dimensioniert sind - sprich wenn ich meine 980Ti nur in FHD Auflösung nutzen würde.
So wird es kommen, auch wenn es dann etwas widersprüchlich sein wird, denn die genannten Spiele werden dadurch ihren Hunger nach RAM nicht senken.
 
@D708

die Karte läuft ab werk mit soweit ich weiß 1,075V mittels Werks OC Tool kann man auf 1,15V erhöhen da war keine Überraschung drinnen, denke eher das der Sweetspot der GPU etwas niedrigere Taktraten hatte und diese Erwartung (Performance) nicht eingehalten werden konnte weshalb man in letzter Sekunde noch an den Taktraten geschraubt hat, was erklären könnte warum die 480 ein schlechtes Kühlsystem hat und der 6POL anschluss ziemlich ausgereizt wird.
 
xexex schrieb:
AMD fällt mit dem hohen Stromverbrauch raus...

Ist natürlich deine Entscheidung, aber ich meine, 30/40W Differenz machen den Braten nicht mehr fett. Das mit dem Treiber halte ich mittlerweile für eine Legende, der aktuelle AMD-Treiber ist richtig gut und holt selbst bei meiner alten 7870 mit jeder neuen Version ein paar mehr fps aus den Spielen raus, bei GTA V waren es sogar einmal mehr als 10%. Bei meiner letzten Nvidia-Karte sah das auch anders aus, das möchte ich aber jetzt nicht bewerten, weil ich den aktuellen Treiber von Nvidia nicht kenne. Ich werde mir jedenfalls die Tests und Benchmarks ansehen und die Karte mit dem besseren Preisleistungsverhältnis wird gewinnen, unabhängig von der Farbe des Firmenlogos. Wenn mir die Leistung der beiden GPUs denn überhaupt reicht...
 
Benji18 schrieb:
*Komplettzitat entfernt*

Ob alle Spiele unterstützt werden oder nicht is doch völlig egal, solange die Spiele unterstützt werden, die ich spielen will, n'es pas?
Und ganz ehrlich: Mikroruckler? Hast du die schon mal beim Spielen bemerkt? Lachhaft, nur ein Thema für Extrem-Ästheten. Bin ich nicht. Basta. Die extreme Leistung für deutlich weniger Kohle als bei NV ist aber das, was für mich zählt.
 
Zuletzt bearbeitet von einem Moderator: (*Komplettzitat entfernt*)
MartinFerber schrieb:
Du bist also der Meinung, AMD muss vom Markt, damit dann Nvidia als Monopolist jeden noch so überhöhten Preis verlangen kann, ja?

Naja, das Unternehmen mit den besseren Produkten gewinnt. AMD ist zwar innovativ, bekommt die hohe Leistung in GFlops aber nicht auf den Bildschirm, warum auch immer. Nvidia hat die schnelleren und sparsameren GPUs am Start, zudem sind sie Marktführer, da muss AMD schon strampeln, um diesen Mount Everest zu ersteigen. AMD muss mit ordentlichen Produkten wie der 480 peu a peu Marktanteile gewinnen, die Umsätze erhöhen, mehr Geld in F&E stecken, um dann irgendwann zu Nvidia aufzuschließen.
 
Palmdale schrieb:
Jein. Ich persönlich habe die 4GB tatsächlich kritisiert, ja. Allerdings wilderte die Fury in mindestens WQHD wenn nicht sogar UHD, für letzteres wurde sogar offiziell geworben. Die Dimension und Zielauflösung bei 1060 und 480 ist allerdings mMn FHD, und dafür sind 6GB mehr als ausreichend für die kommenden Jahre (noch schlechtere Texturen und Programmierung kanns ja wohl nicht werden ;)). Selbst die 6GB meiner 980Ti werden in WQHD nicht immer ausgereizt und selbst wenn, bedeutet das ja nicht unbedingt, dass das Spiel dadurch ruckelt.

Ich könnte wetten, dass im PCGH-Fazit zum 19.07. steht, dass die 6GB wirklich üppig dimensioniert sind - sprich wenn ich meine 980Ti nur in FHD Auflösung nutzen würde.

Was du da schreibst ist eig ziemliche Krütze!
CB hatte zu den 4GB doch einen Test gemacht in dem herauskam, dass die Karte einen wesentlich niedrigeren Vram Verbrauch hatte und sie daher im Vergleich zur TI keine Nachteile hatte! Sprich keine Speicherlimitierung.

Und das man 8 GB nur bei höheren Auflösungen braucht ist auch nicht wirklich wahr. Du kannst auch ohne weiteres in FHD den vollen Vram ausschöpfen. Die Texturen sind das entscheidende!
Hisn könnte dir die 8 GB auch unter 800*600 vollknallen und deswegen hab ich lieber zu viel Vram als zu wenig. Vor allem da ich nicht jedes Jahr eine neue Karte kaufe ;-)
 
HerrRossi schrieb:
*Komplettzitat entfernt*

In der Praxis, sprich, im Spiel sind die Unterschiede doch echt kaum fühlbar. Also ich persönlich kaufe ohnehin fast ausschließlich in der Bucht, wenn ich was neues brauche. Ob Nvidia oder AMD ist da nur Zweitrangig, die von mir benötigte Leistung zum günstigsten Preis zählt. Ich brauch keine Graka als Statussymbol. Bei 27 Zoll mit 1080p ist die 480 doch toll? Und wenn die "alten" Nvidias vom Schlage einer 970 o.ä. nun auch noch im Preis weit darunter fallen sollten, was eine 480 kostet, dann wirds eben eine solche... hab' ja immer noch 'ne Asus gtx 760 drinne, da spür ich die Mehrleistung in jedem Fall... :-)
 
Zuletzt bearbeitet von einem Moderator: (*Komplettzitat entfernt*)
Pisaro schrieb:
Wie kann man eigentlich so einen riesigen Müll schreiben? Nvidia-Treiber sind NICHT besser als AMD-Treiber, genausowenig wie AMD-Treiber besser als NVidia-Treiber sind! Vor meiner jetztigen 980 Ti hatte ich überwiegend AMD/ATI Karten und hatte jahrelang nicht ein einziges Problem mit den Treibern.
Und deshalb müssen deine Erfahrungen mit meinen übereinstimmen? Bei meiner ersten ATI Karte habe ich eine Ewigkeit warten müssen damit es einen Patch für FF7 gibt. Bei meinem letzten Versuch flog die Karte raus als es sich als unmöglich gezeigt hatte meinen neuen Fernseher als einen Monitor ohne Overscan anzusprechen. Bei NVidia war es damals im Treiber auch nicht direkt möglich aber in der Registrierung konnte man ein Workaround eintragen.
VIELLEICHT sind die neuen Treiber nun besser. Für ein vielleicht gebe ich aber kein Geld aus um womöglich bald wieder auf die Fresse zu fliegen.

HerrRossi schrieb:
Ist natürlich deine Entscheidung, aber ich meine, 30/40W Differenz machen den Braten nicht mehr fett...

Wieviel soll die 480 verbrauchen? Die Referenz verbraucht ja anscheinend bereits knapp 170 watt. Bei der GTX gehe ich von 120Watt Verbrauch aus. Das macht im Vergleich eben doch eine ganze Menge aus. Dabei geht es mir nicht mal so sehr um die Kosten sondern vor allem um Abwärme und entsprechend lautere Kühlung.
 
Zuletzt bearbeitet:
MartinFerber schrieb:
Ich brauch keine Graka als Statussymbol. Bei 27 Zoll mit 1080p ist die 480 doch toll?

Ich brauche auch kein solches Statussymbol, das finde ich sowieso affig, bei einer popligen Grafikkarte wird es dann richtig albern. Ja, die 480 ist eine richtig gute Karte für FullHD, ich möchte trotzdem etwas mehr Leistung, ob das jetzt mit Customs kommt oder ob mich die 1060 überzeugt werden die Tests zeigen. Kann auch gut sein, dass ich auf Vega warte und/oder darauf, dass die 1070 ordentlich im Preis sinkt, mein absolutes Limit sind 400,- €. Eine 970 werde ich jedenfalls nicht mehr kaufen, auch nicht, wenn sie unter 200,- € fällt.
 
HerrRossi schrieb:
Naja, das Unternehmen mit den besseren Produkten gewinnt. AMD ist zwar innovativ, bekommt die hohe Leistung in GFlops aber nicht auf den Bildschirm, warum auch immer. .

Weil DX11 dank Microsoft und Intel.
Bei DX 12 sieht es anders aus und DX12 ist die Zukunft ;)
Erst November Dezember wo viele Spiele mit DX12 raus sind, wird man sagen können,
ob die GTX 1060 oder die AMD 480 die bessere Karte ist.
 
Kurze Frage wenn der 1080p Bereich so knapp wird mit 6 bzw 8 GB Vram , wieso beschwert sich keiner von Euch das in 1440p,4K,5K es keine Karte mit 16 , 32 GB Vram gibt.
Also seltsam was Ihr hier treibt als Begründung wieso Karte A oder B schlechter ist beim Vram.
Wo bleibt der Shit Storm bei 1440p usw mit den 1070/80er Kartenmit dere nicht "ausreichenden" 8 GB Vram.

Nochmal die 480 und 1060 sind für den 1080p Bereich gedacht.

mfg
 
Zuletzt bearbeitet:
Zurück
Oben