Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsGeForce GTX 1060: Konter zur AMD Radeon RX 480 kostet ab 279 Euro
Außerdem scheint es doch jetzt einen festen Preis in Euro für Deutschland zu geben mit 279€, bei den 1070ern und 1080ern wars eher ein Umrechnen vom vorgebenen Dollar-Preis
Ist doch egal. Ich habe nur Dollar mit Dollar verglichen, da muss man nichts umrechnen. Ich habe bisher keine einzige 1070 oder 1080 gesehen, die neu für die angegebene "UVP" angeboten wurde.
Achim_Anders schrieb:
Naja, in der Realität kostet die RX480 auch 269€ bei einer UVP von 255€..
Leute lasst euch nicht verarschen von den beiden Unternehmen. Ende des Jahres kommt die 1080 Ti oder Titan die doppelt so schnell wie eine 1080 sein wird für ca. 800 €. Damit ist die 1080 mit einem Schlag nur noch 400 €, die 1070 nur noch 280 € wert. 1060 und 480X gehen dann für ca. 170 € über die Theke. 100 € versenkt in 4 Monaten. Nice!
Wer jetzt zur 1070 oder 1080 greift, weiß das er mehrere 100 € verlieren wird. Erst mit der GTX 1080 Ti werden sich die Preise stabilisieren und Pascal im Vollausbau.
Abwarten was die Karten wirklich können und Kosten.
Bei <10% Preisdifferenz (25-30€) dürfte die Nvidia-Karte aber klar vorne liegen, wenn die Performance wirklich auf Level der 980 liegt.
Gesehen auf das zu erwartende Leistungsplus, die anscheinend geringere TDP und damit simplere Kühlung...RIP AMD.
Von den Luftschlössern mGPU, Speichermenge, Speicherinterface, Vulkan und AC kann bekommt man keinen Frame mehr ATM.
Mit verarschen hat das nichts zu tun. Das ist normale "BWL" um es mal grob auszudrücken. Erstmal den Markt abschöpfen und das maximale raus holen. Wäre doch dumm wenn sie das nicht tun würden. Abgesehen davon ist das doch überall so; wer etwas sofort haben will hat es immer teuer. Ganz extrem bei Handys. Wer es ausgeben will soll es tun. Ich finde es gut denn so können später geringere Preise gemacht werden. Ist gut für LowBudged Menschen. ;P
Wer jetzt zur 1070 oder 1080 greift, weiß das er mehrere 100 € verlieren wird. Erst mit der GTX 1080 Ti werden sich die Preise stabilisieren und Pascal im Vollausbau.
Das ist nuneinmal das schicksal von Hardware Wer die Leistung früher will, zahlt mehr. Kannst ja auch bei Ebay auf Jagd gehen und dir eine " Geforce 5950 Ultra " besorgen, dürte noch so 5€ Kosten, FarCry sieht damit aber echt super aus.
Oder gleich eien 6800 Ultra, die kann sogar DX9.0c (HDR)
Leute lasst euch nicht verarschen von den beiden Unternehmen. Ende des Jahres kommt die 1080 Ti oder Titan die doppelt so schnell wie eine 1080 sein wird für ca. 800 €. Damit ist die 1080 mit einem Schlag nur noch 400 €, die 1070 nur noch 280 € wert. 1060 und 480X gehen dann für ca. 170 € über die Theke. 100 € versenkt in 4 Monaten. Nice!
Ich glaube dass wir vor weihnachten nichts unter 200€ sehen werden was ansatzweise was taugt. Anscheinend hat keiner wirklich interesse daran den normalen gelegentlichen Spieler zu bedienen ... dann kann ich in ruhe entweder AMD oder NV nehmen je nachdem was es gibt und P/L stimmt und 150-250€ und nicht mehr.
Die RX 470 (in ITX Bauweise) könnte eventuell Deine Anforderungen sehr gut abdecken (mit kolportierten 179 US$ für die 8GB Version dürfte die Karte locker unter 250 Euro bleiben) und sogar noch dieses Jahr weit vor Weihnachten erscheinen .
Ergänzung ()
BL@CKM@N schrieb:
Ende des Jahres kommt die 1080 Ti oder Titan die doppelt so schnell wie eine 1080 sein wird für ca. 800 €. Damit ist die 1080 mit einem Schlag nur noch 400 €, die 1070 nur noch 280 € wert.
Gerüchten zufolge könnte die Titan "Y/NX/X2" oder wie die heißen wird schon im August offiziell auf den Markt gebracht werden (FE dann für 1500 Euro?), somit wäre die GTX 1080Ti als Konter zur Vega10 Anfang kommenden Jahres wahrscheinlich (typischerweise ein halbes Jahr später um ungeduldige, potentielle GTX 1080Ti-Käufer mit der mächtig teuren Prestige-Titan-Karte (GP102 Vollausbau) lange genug auf die Folter zu spannen ) und ab dann könnten sich die Preise ziemlich stabilisieren, wobei evt. noch einmal ein kleiner Preisrutsch im Falle von Vega 11 (wenn dieser denn kommen sollte) später in 2017 möglich wäre.
Also 400 Euro für eine GTX 1080 kannst Du Dir aber wohl zum Anfang kommenden Jahres gewaltig abschminken, denke ich, mit sehr viel Glück vielleicht für 499 Euro. Solange Custom-Modelle der GTX 1070 etwas unter 400 Euro liegen (ca. 370 Euro wären wohl ok/möglich, von 280 Euro wirst Du vorerst nachts träumen können, mehr aber wohl auch nicht, denke ich 'mal) und eben auch die kleinste oder vergleichbare Vega10-Konkurrenzkarte, würde das eigentlich dann schon passen.
ich freu mich auf die karte.
preislich perfekt platziert und ausreichend arbeitsspeicher.
nur um die speicherbandbreite mache ich mir etwas sorgen.
hoffentlich kann man dem ram ordentlich die sporen geben.
Leute lasst euch nicht verarschen von den beiden Unternehmen. Ende des Jahres kommt die 1080 Ti oder Titan die doppelt so schnell wie eine 1080 sein wird für ca. 800 €.
Ich glaube, dass eher du dich von Nvidia verarschen lässt.
Mit Sicherheit wird es nicht die doppelte GTX 1080 Leistung für nur 800€ geben.
Die GTX 1080 Ti wird es wohl ab 800€ geben, aber niemals mit doppelter Leistung. Da werden einfach sanfte 15~20% Leistung hinzugefügt, bei wohl geringerem höheren Stromverbraucht.
Die Titan wird es dann für 1000+€ geben.
Die 1080Ti wird es überhaupt nicht geben wenn AMD das nicht notwendig macht. Die Titan wird es geben und da darf man für 50% Mehrleistung sicherlich 100% Aufpreis rechnen zur 1080.
Oder ist der Passat billiger geworden als VW den Phaeton eingeführt hat?
Sicher wird es eine TI geben, alleine schon deswegen da Nvidia für die 980 TI einen Nachfolger bringen muss, um einen Kaufanreiz für Potenzielle Kunden zu schaffen. Die 1080 ist ja nicht wirklich ein Grund eine 980 TI in Rente zu schicken.
Zuletzt bearbeitet von einem Moderator:
(*Komplettzitat entfernt*)
Aber nur Gefühlt, die Midrange GTX670 startete für 350-400€ Nachfolger im Leistungssegment war die GTX760 für 250-300€
Preislich so ähnlich wie GTX970 und GTX1060, aber mit Performanceplus.
Ich bin gespannt auf die Parnterkarten und die Preisgestaltung.
Die GTX x60 lagen bisher alle bei 200-250€ bei Release, ich sollte das wissen, weil ich die immer in dem Segment gekauft habe.
Die GTX 1060 liegt jetzt bei 300€+.
Leistungssegmente interessieren nicht, denn dann hätte die 1080 ja gar keinen Vorgänger.
Die 670 war auch keine Midrange-Karte sondern unteres High-End, Midrange sind die x50 und x60 Karten. Alles über x80 ist dann Enthusiast oder Supertopend oder givememoremoneyend oder wie man es auch nennen will. Die Kategorie über einer GTX x80 gab es auch lange Zeit nicht bzw. wurde dann von Dual-Chip-Lösungen belegt bis jemand auf die Idee kam man könnte auch einen Chip extrem hochzüchten, was wohl erst durch bessere Fertigungsmethoden möglich wurde.
Also für jemanden der bisher immer Midrange gekauft hat, sprich die x60er Karten oder die AMD-Äquivalente wie die 280 oder 380, sind die Dinger jetzt 50-100€ teurer geworden, alles andere ist Augenwischerei!
Ich wiederhole zur Sicherheit nochmal, dass ich bisher nur NVidia-Karten hatte und zwar alle aus der x60er-Reihe, ich sehe aber keinen Grund mir jetzt schönzureden, dass die teurer werden. Dieses Jahr wird es wohl mal AMD, nochmal 100€ auf den Monitor draufzulegen für G-Sync macht dann die P/L irgendwie auch wieder kaputt...
Ich find es echt albern wie man sich hier über die Leistungsaufnahme aufregt die höher als die TDP ist. Das finde ich auch nicht Okay aber bei der 970 haben die gut 160W (145W laut Nvidia) seltsamerweise kaum jemanden gestört
Nein. Man regt sich darüber auf, das die Leistungsaufnahme größer der PCI Spec ist und damit die Erwartungshaltung, die durch den 6 Pin Anschluss geweckt wurde, deutlich überschritten wurde.
…Und Nvidia hat mit TSMC ja auch den weit erfahreneren Chip-Produzenten, mit weit weit größeren Produktionskapazitäten. Wenn es da heisst, der Chip ist freigegeben, können die sicher ein vielfaches dessen produzieren, was Global Founderies schicken kann. Daher kann man die Partner sicherlich auch gut versorgen...
Aber natürlich! nVidia produziert AMD in Grund und Boden! Tzt …
Du weißt, daß TSMC im Moment ziemliche Probleme mit der Chip-Ausbeute hat? Nicht? Dachte ich mir …
Du hast im vorigen Thema zur GTX 1060 schon versucht, die mangelnde Verfügbarkeit wegzudiskutieren – auch da hatten es Dir einige Andere schon versucht zu erklären und anhand schlüssiger Sichtweisen zu widerlegen, unter anderem ich selbst.
Erst einmal, TSMC hat zwar theoretisch größere Kapazitäten, allerdings teilen sich diese unter Apple, nVidia, Huawei/HiSilicon, Qualcomm, LG, MediaTek und Xilinx auf. Diese Vertragspartner erhalten zusammen den Output von zur Zeit 55K bis 60K Wafer pro Monat in 16nm FinFET. Zwar sind seitens TSMC gegen Ende des Jahres respektive Anfang nächsten Jahres (lies: 4. Quartal '16) 80K projektiert, allerdings spielt hier Apple noch eine ziemlich gewichtige Rolle!
Sollte nämlich Apple sich gezwungen sehen, mit dem A10 – welcher exklusiv bei TSMC in 16FF+ mit TSMC‘s InFO-Technik gefertigt werden wird – ihr Volumen in Gänze von TSMC zu beziehen, sieht es für die restlichen Partner eher… nunja, bescheiden aus! Samsung konnte nämlich schon beim A9 lediglich gerade so um 40% des von Apple benötigten Volumens stemmen. Und dann ist stark anzunehmen, daß Apple hier einfach einmal mehr den Heinrich Haffenloher aus Kir Royal macht und TSMC dermaßen „mit ihrem Geld zuscheißt“ (Ausgleich für entgangene Konventional- & Vertrags-Strafen), daß alle anderen Abnehmer das große Nachsehen haben – Apple interessiert es nämlich nicht im geringsten, ob Kunde X bis Y keine Chips bekommt und auf dem Trockenen sitzt. Ohnehin bekommt Apple derzeit das ganz überwiegende Gros der Slots.
Wie dem auch sei …
Die derzeitige Situation ist, daß nVidia als einer der Kunden lediglich bestenfalls 7K-8K Wafer bekommt – was bei dem derzeitigen Yield von bloß wahnwitzigen 20% bei nVidia in geradezu lächerlichen 1500 Chips resultiert. Da selbst ihr zweiter Bin gerade einmal Fünfundsiebzig Prozent erreicht hat, kann man sich ausmalen, was da am Ende bei rumkommt. Himmel, selbst Fermi hatte beim zweiten Bin über 75% nutzbare Chips – und Fermi war ka·ta·s·t·ro·phal! Wir reden hier von zwanzig Prozent an überhaupt nutzbaren Chips! Was glaubst Du, wie viele davon überhaupt als GTX 1080 oder 1070 durchgehen mögen? Der Rest ist via Laser-Cut bestenfalls GTX 1060 oder aber 1050 und darunter (mobile Derivate).
Woran liegt‘s? nVidia. Weil nVidia wieder einmal mit dem Kopf durch die Wand wollte, einen riesen Chip kreiert hat und dieser auf dem besten Weg ist, Fermi zu beerben – zumindest, was die Fertigung, Ausbeute und Anzahl an nutzbaren Chips betrifft.
Wie wir ja als bestens Informierte Branchen-Kenner wissen, sind AMD und Qualcomm die praktisch einzigen Großkunden von Global Foundries.
GloFo hat einen derzeitigen Output von um 40K Wafer/Monat auf 14nm – wobei auch hier eine Kapazitätserhöhung auf 60K in 4Q16 stattfinden wird.
Kunden? AMD und Qualcomm. Macht per Kunde 20K Wafer/Monat.
AMD hat Sonderrechte, wird stets bevorzugt und GloFo ist per WSA gebunden, weiß man auch, falls man mit der Branche vertraut ist. Signifikant erleichternd für AMD ist hier, daß Polaris deutlich kleiner ist und dementsprechend die Ausbeute erheblich höher. Sie können schlicht so ziemlich jeden einzelnen Chip verkaufen, der produziert wird – und wenn auch nur als RX 470, RX 460 und darunter, das ist schlicht Gold wert!
Nicht böse gemeint, einfach nur eine liebe Bitte; Bitte informiere Dich doch vorher einmal anhand von Fakten, bevor Du hier ständig haltlose Scheinfakten postulierst. Damit untergräbst Du nur selbst Deine eigene Glaubwürdigkeit …
Wenn hier also irgendwer imstande ist, den Markt mit Karten zu fluten, dann ist es AMD – sie haben schlicht beinahe das 20-fache an Kapazitäten in der Hinterhand, aufgrund der Chipgröße die deutlich größere Ausbeute und somit allumfassend weniger Probleme …
Sie werden die Stückzahlen in den Markt drücken, nicht nVidia – alles andere ist schlicht Wunschdenken.
tl;dr: Kurzum, nVidia wird noch erhebliche Probleme bekommen, den Rest ihrer GPU‘s auf 16 nm FinFET+ zu hieven.
Wie dem auch sei …
Die derzeitige Situation ist, daß nVidia als einer der Kunden lediglich bestenfalls 7K-8K Wafer bekommt – was bei dem derzeitigen Yield von bloß wahnwitzigen 20% bei nVidia in geradezu lächerlichen 1500 Chips resultiert.