News GeForce GTX 1060: Spezifikationen bekannt, soll schneller als RX 480 sein

Der Kunde (Ich) freut sich :-)
 
Otsy schrieb:
Sowohl die 4Gb der 'kleinen' 480 als auch, und im Besonderen, die 3Gb der 'kleinen' 1060 sind nicht mehr zeitgemäß

Auch meine Sichtweise - und ich habe bereits jetzt 4GB die ich mit Texturen locker voll bekomme.
(gogo Kompressionsfetischisten und Reglerrunterdreher steinigt mich)

Lieber habe ich in 1-2 Jahren etwas zuviel VRAM als zu wenig und gerade bei dem geringen Aufpreis brauch ich da nicht lange zu überlegen.
 
borizb schrieb:
Wenn das auch nur im Ansatz stimmt, geht mein fettes Grinsen
an alle 480er Hype Kinder, die überhastet zum Release schon
zugegriffen haben weil "AMD rules & Nvidia Suxx" und über die
1060 geschimpft haben, bevor die Zahlen raus sind.

Jetzt wirds Zeit, das Nvidia liefert. Da bin ich schon gespannt.

:stock:
 
Aha, laut Nvidia soll eine 1060 also "schneller" sein als eine 480. Und zu welchem Preis? :rolleyes:

Laut Nvidia Folie also angeblich ca. 15% schneller. Wieso dann fast +100% Balken abbilden? "MUCH FASTER THAN...". Da wird schon deutlich, welche Käuferschicht durch Nvidia angesprochen werden soll --> Akademiker mit Nivea... äähh Nvidia Präferenzen...


Zudem soll der Verbrauch bei 120W liegen? Bei Nvidia stimmt die Angabe ja aufs Watt genau (150W 1070er und 170W 1080er) Dafür, dass Pascal so ultra superduper effizient ist (solange man nicht OCt), finde ich das nicht grad wenig. Da sind ja schon fast die 160W der 480er absolut ok.

Am Ende werden sich wohl die Custom 480er OC mit 180-190W gegen Custom 1060er OC bei 170-180W messen müssen. Bei DX12 ist die Sache rel. eindeutig. Wird sich also wieder über DX11 entscheiden müssen.
 
Zuletzt bearbeitet:
Lars, ganz ehrlich, ich muss mich von DIR nicht belehren lassen. Dass gerade DU kein gutes Haar an AMD lässt, egal wo und was sie abliefern ist jedem bekannt, der deine Beiträge verfolgt.

Und du brauchst hier nicht so frech daherkommen mit aus dem Koma erwacht, oder was du dir da gerade einbildest
 
Im Endeffekt wird es so laufen, wie immer in den letzten Jahren....

Am Ende gibt es für jeden Preisbereich Karten, die sich auch leistungsmäßig genau da wiederfinden, wo sie sich im aktuellen Preissegment befinden.
Die nVidia Karten werden insgesamt meistens das etwas rundere Bild (Verbrauch, Geräuschkulisse usw) abgeben, dafür aber etwas teurer sein, als das entsprechende AMD Pendant.

Mit dem Unterschied, dass es inzwischen im High End Bereich keine AMD Karten mehr gibt.
Was schade ist, für alle Kunden - siehe Preise in dem Bereich.
 
Naja, mit 4GB kann ich noch leben, aber nicht mit 3GB und die 6GB wird mindestens 300€ kosten und für 300€ ist das ein enttäuschendes Angebot aus meiner Sicht. Wenn ich bedenke das meine Karte nur 160€ gekostet hat.
 
BookerDeWitt schrieb:
während der Vollausbau (40CUs)

Wer weiß, ob es nur 40 CUs sind und die GPU nicht sogar ein 386Bit Si hat. Das klingt jetzt echt unglaubwürdig, aber mit Volkers aussagen hier, würde das eigentlich voll zu Microsoft Scorpio passen, welche ein 386 Bit SI Interface hat.

Man könnte sich dann fragen, ist der Chip groß genug ? Aber bedenkt, Tonga hat auch ein 386Bit Si und ist 359 mm^2 groß.

PS: Das ist jetzt kein Wunschdenken an, RX 480X kommt usw um NV zu kontern, sondern, es ist Volker, der Impulse zu Überlegung gegeben hat.

Aber wenn das so kommt, wäre Polaris eigentlich ein Tonga 2.0 mit paar CU weniger und GCN Optimierungen.
 
Zuletzt bearbeitet:
pipip schrieb:
Wer weiß, ob es nur 40 CUs sind und die GPU nicht sogar ein 386Bit Si hat.

Glaub ich nicht, würde die Kosten unnötige hochtreiben. Dann dürfte GDDR5X wohl wahrscheinlicher sein, was ja auch schon 25% mehr Durchsatz bei geringerem Verbrauch bedeuten würde. Aber dann gibts die Karte garantiert nicht unter 350 Euro.
 
eiscreme schrieb:
Nun können sich die Spieleentwickler in Zukunft austoben und weniger Wert im Speichermanagement legen. Wie gut Programmierung mit Speicherknappheit sein kann hat uns Nvidia mit 3,5GB + 0,5GB gezeigt.

Genau, nämlich gar nicht.
 
pipip schrieb:
Aber wenn das so kommt, wäre Polaris eigentlich ein Tonga 2.0 mit paar CU weniger und GCN Optimierungen.

Was wäre daran schlimm? Tonga war ist ein sehr guter Chip.
Ich frage mich nur, wie konnte, wenn dass so kommen würde, AMD das geheim halten?
Ich meine dann haben Sie die letzten Monate gut genutzt um "Falschaussagen" zu streuen um NV aufs Glatteis zu führen...
 
flappes schrieb:
Glaub ich nicht, würde die Kosten unnötige hochtreiben. Dann dürfte GDDR5X wohl wahrscheinlicher sein, was ja auch schon 25% mehr Durchsatz bei geringerem Verbrauch bedeuten würde. Aber dann gibts die Karte garantiert nicht unter 350 Euro.

Also AMD hat mit Sicherheit viele Features in die neuen Konsolen integriert aber auch analog. An die 386Bit Si glaube ich ja auch nicht, aber die XBOX ONE Scoprio hat eines. Und es gibt noch eine andere Folie die mich schon zum Nachdenken gebracht hat.

Radeon-RX-400-Nomenklatur-pcgh_b2article_artwork.png



Da steht >256Bit SI für die RX 49X. Wenn Vega die RX 490 wäre, hätten sie HBM geschrieben und wäre es eine Polaris 10 wie wir sie jetzt kennen, wäre es eine 256Bit Si geblieben.

Also, auch wenn ich es unrealistisch empfinde und mit Sicherheit da keine Hoffnungen erwecken möchte, im Gegenteil, bin sehr, sehr skeptisch gegenüber diese Überlegungen.

Aber wenn es so kommt, hat Volker recht, AMD hat gut gepokert.

Doch wäre das dann schon ein sehr "unerwarteter" Schritt von AMD, mit einem 232 mm^2 Chip (auch wenn es ein anderes Verfahren ist, dass man mit TSMC nicht 1 zu 1 Vergleichen kann und immer noch unklar, wieviel Die-Size bei selber Struktur ein Unterschied wäre) würde AMD mit einem Mittelklasse Chip gleich 3 Klassen abdecken.

Und genau das macht das ganze so unglaubwürdig.


@VR Vergleich

Wette, dass man nur bei NV dessen Features verwendet und die Karte mit AMD @default optionen vergleicht. Die RX 480 hat ja ähnliche Features eingeführt.


Aber selbst wenn es so kommt, wäre die RX 480 trotzdem die Konkurrenz Karte.
Wie gesagt, ich bin gespannt, wie die Karte wird, auch wenn ich mir die 480 jetzt bestellt habe. Ein Kumpel von mir ist noch am Warten, weil er eine custom Design Karte haben möchte. Ein Vergleich zum Gegenstück wäre für ihm also sehr vorteilhaft.
 
Zuletzt bearbeitet:
Die bei NVIDIA sind schon Könner des Marketings, muss man ja anerkennen. Rein von den Balken der Vergleichsgrafik siehts so aus als wenn da ein wesentlicher Unterschied besteht. Schaut man sich dann aber die Achsenbeschriftung an muss man einfach lachen über soviel Dreistigkeit. Natürlich hat NVIDIA einkalkuliert, dass einige eben nur die schönen Balken sehen.

Da ich keinen Gaming PC besitze ist es mir persönlich schnuppe wer die Nase vorn hat, aber NVIDIA würde ich niemals nur ein Wort glauben. AMD ist da viel professioneller. Klar tricksen die auch aber keinesfalls so schamlos wie NVIDIA und das nicht erst seit kurzer Zeit.
 
Ich bin auf das PLV ggü. Custom 480ern gespannt, der Chip könnte jedenfalls auch den Weg in meinen Rechner finden. DX12-Leistung wird auch spannend, da wird die Karte ggü. AMD aber wohl ziemlich verlieren.
 
Mir persönlich gefällt der 3,2-mal längere Balken bei 44% Unterschied am besten. Marketing-Folien halt :D (macht aber leider fast jeder so)

Für mich persönlich ist die VR-Performance am interessantesten, die wird hier immerhin mit exakt +25% angegeben. Die Frage ist jetzt, ob das allein die Karte leistet oder ob damit Software-/Treiberlösungen gemeint sind, welche Spieleentwickler zusätzlich einbauen müssen (á la PhysX- oder Gameworks-Effekte).
 
Wenn die 480 bei 229$ und die 1060 FE bei 299$ liegt...
Sollten sich die Custom Varianten in der mitte treffen.
Das wird spannend!
 
GTX 1070 = GTX 980Ti/TitanX

Von daher keine Überraschung, dass sich die (schnellere Variante der) GTX 1060 bei der GTX 980 einsortiert. Das war exakt so zu erwarten.

Das "schneller als RX 480" dürfte sich allerdings nur auf DirectX 11 beziehen. In DirectX 12 wird die RX 480 aller Voraussicht nach die Nase vorn behalten. Die DX12 Tests werden dann neben Messungen der Effizienz das einzig Spannende am Test, denn wie eine GTX 980 unter DX11 abschneidet, wissen wir seit ca. 2 Jahren.
 
Zurück
Oben