News Nvidia Turing: Angeblich drei Grafikkarten mit 120 bis 180 Watt geplant

Finde das immer spannend, wie hier nVidia schon vor erscheinen gelobt wird, das sie ja ganz tolle neue Sachen eingebaut haben.
....hast Du Dir mal angesehen was passiert, wenn AMD eine neue Grafikkarte bringt? Dann sind die AMD Jünger die ersten die hier mal eben bis zu 50% OC aus irgendwelchen Fake-Threads erwarten. Dann die Erwartung des Wundertreibers der nicht nur die neuen sondern auch die alten Grafikkarten enorm beschleunigen soll - was auch nie passiert ist.
Es ist halt so, wenn was neues kommt, erwartet man nun mal mehr - und das in beiden Lagern!
Schaut man sich die letzten Veröffentlichungen an ist es sogar so, dass nVidia, was die reine Leistung betrifft, doch eher noch mehr an der Wunschmarke liegt - was sie sich aber stattlich bezahlen lassen, AMD enttäuschte bei der Leistung der letzten neuen Grafikkarten doch schon sehr und die Preise zumindest bei Fury, Vega waren ebenfalls pervers. Wer weiß, wie es dieses mal ist.
 
Wenn man keine Wunschvorstellungen hat, dann kann man schlecht enttäuscht werden. Ich gebe deswegen auch keine Prognosen ab wie viel % Mehrleistung Generation XY zur vorherigen haben wird.
Ich orientiere mich was Leistung angeht strikt nach den Tests, sofern diese nicht künstlich für einen Hersteller bevorzugt aufgebaut sind.
Und wenn man die Preise mal außen vor lässt bei Pascal wie Vega/Polaris, dann liefern sowohl die Karten von nVidia wie auch die Karten von AMD genügend Leistung in ihrer jeweiligen Klasse ab. Dort ist nirgends eine Karte ein Rohrkrepierer noch eine Wunderkarte.
Und auch Turing wird keine Wunderkarte sein, dafür ist der Shrink zu klein und nVidia sicher nicht Willens genug mehr zu tun als nötig ist (Siehe Intel). Und ob AMD mit Navi plötzlich eine Wunderkarte aus dem Hut zaubert, ist auch eher unwahrscheinlich (Höchstens die striktere Trennung zwischen Gaming und Semi-Professionellen/Professionellen Bereich, könnte mit Navi endlich vollzogen werden).

Ich finde es, egal welche Hardware es betrifft oder welchen Hersteller, absolut fahrlässig immer den einen ohne Sinn und Verstand in den Himmel zu loben und den anderen zu verdammen. Und damit beziehe ich mich auf das Produkt. Nicht auf die Art und Weise wie eine Firma sich dar stellt. Da ist meine Meinung ganz klar.
Aber was Produkte angeht, da kann man eigentlich endlich von jedem User eines Techforums mehr Objektivität und weniger Subjektive Wahrnehmung erwarten. Man liest so oft in Threads hier und in anderen Unterforen so viel geistigen Unsinn, der im Grunde Null Aussagekraft hat, außer das derjenige der den Post gesetzt hat, im Grunde ein Unwissender Tölpel sein muss, oder eben ein Troll. Gerade bei letzterem sollten endlich mal die Moderatoren diese Einzeilerposts rigoros löschen.
 
  • Gefällt mir
Reaktionen: E1nweg, Baal Netbeck und Thraker
Wadenbeisser schrieb:
Und? Im Vergleich zur GTX580 war sie das deutlich leistungsfähigere Produkt und man hatte die Preisgestaltung lediglich an nvidias Niveau angeglichen. Das Problem ist jetzt wo? Das sie zur Drückung von nvidias Preisen gefälligst die Billigheimer sein haben weil sie eben AMD sind?

Bleib mal unten...

Die GTX 580 kam 500$ als MSRP und war nicht Gegenspieler der HD 7970. Das war immernoch Kepler mit der GTX 680 welche - Achtung - auch ne MSRP von 500$ hat und in der Leistung der ursprünglichen HD 7970 ein wenig das Wasser abgegraben hat.

Übrigens hatte auch die GTX 480 500$ als MSRP. Die GTX 980 eine MSRP von 549$ also erst zwei Serien später auf dem Level, was AMD aufgerufen hatte mit der HD 7970. Die MSRP der 1080 war zum Anfang 599$ und wurde dann auf 499$ gesenkt. Buhu ganz böhses NVIDIA.

Im übrigen sind 500€ 2010 heute inflationsbereinigt 556€.

Ich behaupte hier nicht das AMD als Billigheimer da sein soll; ich finde es nur lächerlich, dass sich hier ganz offensichtlich einige AMD Fans über NVIDIAs Preispolitik aufregen und dabei ganz vergessen, das AMD mit GCN 1.0 genauso hoch gepokert hat. Die MSRP war einfach mal von einer Generation auf die nächste sogar über jener der Konkurrenz angesetzt und eine Steigerung um 80% zum Vorgänger. Die Leistung war sicherlich da, aber so gewinnt man - wenn man eh zurück liegt - keine Marktanteile. Komisch, das man diesen Fehler mit Ryzen ja nicht mehr macht, sondern dort ebenbürtige Leistung günstiger anbietet, um Marktanteile wieder zurückzugewinnen. Der Zug mit GCN ist da leider aber etwas abgefahren. In meinen Augen hätte AMD da einfach ne viel aggressivere Politik fahren müssen. Für NVIDIA ist die Situation doch viel einfacher. Die können ohne Konkurrenz die Preise tatsächlich aufrufen.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Ludwig55
McMOK schrieb:
Irgendwas stimmt da nicht.
Ich glaube kaum das eine angebliche 120 WATT, GTX 1160 für 499$ eine GTX 1080 überholt usw.
Das Preis/Leistungsgefüge würde dann einfach garnicht mehr passen mit den anderen Karten.
Natürlich passt doch super, zum Abverkauf.

Die 1060 mit 115-118Watt kostet aktuell 240-340€

Die 1070 mit ca 147 Watt kostet aktuell 420-490€

Die 1070ti mit etwa 176 Watt kostet aktuell 440-480€

Die 1080 mit ca 173 Watt kostet aktuell 500-600€


Wenn jetzt die 1160 mit 120 Watt für 500€, die 1170 mit 150 Watt für 600€, die 1180 mit 180 Watt für 800€ über den Ladentisch geht, dann passt doch alles super, aus der Sicht von nVidia und ihrer Boardpartner mit vollen Lagern. Ca 200€ aufpreis für die neue Generation bis die alte Generation abverkauft wurde. Und es ist ja nicht das erste mal das so drauf geschlagen wird. Kann mich täuschen, aber war doch bei 6er, und 9er Serie doch nicht anders oder?
 
Zuletzt bearbeitet:
lynx007 schrieb:
Kann mich täuschen, aber war doch bei 6er, und 9er Serie doch nicht anders oder?
doch war es, wie nun inzwischen zig ma hier dargelegt, sind solche Preisaufschläge schlicht noch gar nicht vorgekommen in der Höhe. Die Leute bilden sich halt nur viel ein und nehmen Preise, die sie 2 Jahre später gezahlt haben, als Referenz. :rolleyes:
 
Mustis schrieb:
doch war es, wie nun inzwischen zig ma hier dargelegt, sind solche Preisaufschläge schlicht noch gar nicht vorgekommen in der Höhe. Die Leute bilden sich halt nur viel ein und nehmen Preise, die sie 2 Jahre später gezahlt haben, als Referenz. :rolleyes:

Also seit den Generationen angefangen von der 3570 dann die 6870 und meiner rx 480, war es immer so das die Grafikkarten bei Release deutlich teurer waren als zu deiesen zeitpunkt die alte Generation. Oft wurden schon 1 Jahr vor dem release die Preise reduziert, so das Karten vor dem release der neuen Chips auch abverkauft wruden. So kann ich mich noch daran erinnern wo mir das schnäpchen mit der 5870 von Saphire entging ich mich recht erinnere für nen Kampfpreis von 200€ rausgeschoben.... so das ich mich lange geärgert habe, da die 6870 selbst nach nem Jahr noch immer mit 250€ ein schlechteres Preisleistungs verhältniss hatt. AMD konnte mit der 6xxx Serie einfach eine Generation rauschieben die kaum schneller war als die alte. Nur weniger Strom hat sie verbraucht. nVidia konnte bei der 6er Generation gar nicht die Preise erhöhen weil so kontern wollten. Bei der 7er Serie von AMD waren die Preise zum Release richtig gesalzen. Da war ein Aufschlag von 150€ keine Seltenheit. nVidia hat mit der 7er Serie den Preisaufschlag mitgenommen. Das ist nichts neues. Was neu ist, das die Preise jetzt zum Release signifikant zur Vorgängergeneration steigen. Das liegt halt auch daran das AMD nichts vernünftiges nachschiebt. Bzw erst nach schieben muss. Erst dann muss nvidia die Preise anpassen.

So war beim release 2016 von der 1080 FE lag uvp mit 699€ schon 150€ über den der 980. Beim release von der 980 2014 lag der uvp bei 540€ aber etwa genauso hoch wie von 780 2013. Aber auch der UVP war aber auch mit 540 etwa 40€ höher als der UVP von der 680 der mit 499€ ähnlich hoch lag wie der von der 580. Gerade bei der 6er und 9er gab es gar keine Preiserhöhung bei AMD. Dafür hat AMD da die Preise hoch gezogen. Jetzt gibt es von AMD quasi gar nichts. und herrscht halt fast schon ein richtiges Monopol. AMD schwimmt nVidia her. nVidia kann jetzt die Preise diktieren und steht unter überhaupt keinen zugzwang wie es zb bei der 6er, und 9er Serie der fall war. Aufgrund der Miner sind die Lager der Boardpartner voll mit Maxwellchips. Mann braucht aufgrund der fehlenden Konkurenz auch nicht alte Generation noch nicht mit hohen Preisnachlässen abverkaufen. Man hält einfach die Preise oben, solange zumindest bis AMD was nach schiebt und hält den Rest notfalls in der Schublade. Willkommen im Monopol. :-( Aber das war nach VEGA leider auch ab zu sehen. Kein Unternehmer hier würde anders handeln. Warum neues auf den Markt werden wen das alte noch in Massen vorhanden ist und kein Mitbewerber druck erzeugt.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Chismon
Thraker schrieb:
Hast Du Dir den Nachtrag auch durchgelesen?Scheinbar nicht

Natürlich habe ich den gelesen, es ging aber aber um die Aussage das AMD nur wenig gekauft wird, auch wenn sie die besseren Karten am Markt haben und das stimmt eben so nicht, im Nachtrag wird von 53 zu 47% für Nvidia geschrieben und wenn man Steam mit heranzieht schaut es sogar noch besser für Nvidia aus, aber das betrifft nur Gamerkarten. Mir ging es aufzuzeigen, daß AMD auch Zeiten hatte, wo sie fast genau so viele Grafikkarten verkauft haben wie Nvidia, aber nicht dieses Niveau halten konnte, aus welchen Gründen auch immer.

Zu Turing, sollte das Gerücht stimmen, das eine 1180 nur etwas unterhalb einer 1080Ti und eine 1170 gerade mal die Performance einer 1080 erreicht, wäre das ein großer Fail in meinen Augen, da ja eine 1070Ti der 1080 schon recht nahe kommt, neue Features? ja welche denn und welches Spiel hat diese neuen Features?

Laut PCGH gibt es Spekulationen, das angeblich eine 1180Ti in 7-nm noch 2018 erscheinen wird, die Gerüchteküchen sind ja fleißig am arbeiten, aber in ein paar Wochen werden wir wahrscheinlich mehr wissen.
 
Zuletzt bearbeitet von einem Moderator:
Vulture schrieb:
Moralapostel??? Bitte was? Es geht mir um die Dummheit des Konsumenten der einfach immer nur Nvidia gekauft hat ohne sich zu informieren oder rationale Entscheidungen zu treffen.

Das Ergebnis ist das AMD, trotz sehr guter Hardware, nicht den nötigen Absatz hatte um im High-End weiterentwicklen zu können, und das hat jetzt zu völlig überhöhten Preisen geführt.

Und JA, diese Preise sind in letzter Konsequenz die Schuld der Käufer.
Wie ich schon sagte, bei RATIONALER Kaufentscheidung hätte AMD jetzt 50% Marktanteil und hätte die Geldmittel High-End auf Augenhöhe von Nvidia anzubieten.

Grundsätzlich hast du womöglich nicht Unrecht mit deinen Aussagen.
Trotzdem ist AMD - zumindest aus meiner Sicht - selbst schuld, das teilweise die Entscheidungen zu Gunsten von Nvidia getroffen werden.

Ich erzähle dir gern wie das "damals" bei mir war. Ich besitze eine Gainward GTX 1060 6GB. Ich hatte mir am 2. Juni 2016 auf Mindfactory meine PC Komponenten bestellt, baute den PC zusammen und verwendete noch die ältere EVGA 750 Ti mit 2 GB aus meinem alten PC, weil ich wusste, dass die RX 480 anstehen würde. Am 29. Juni 2016 wurde auf Computerbase der Test pünktlich um 15 Uhr veröffentlicht.

"AMD Radeon RX 480 im Test: Schnell und effizient mit 8 GByte für 260 Euro"

lautete damals die Überschrift.
Am 7. Juli 2016 kontert Nvidia mit der GTX 1060.

"GeForce GTX 1060: Konter zur AMD Radeon RX 480 kostet ab 279 Euro"

AMD bietet 2 GB mehr Speicher und eine bessere Vulcan/DX12 Performance. Bis heute kann man diese Titel (leider) an einer Hand abzählen und letztlich gehen/gingen die meisten Benchmarks in dieser Klasse zu Gunsten von Nvidia aus.

Letztlich fiel meine Entscheidung zur GTX 1060 wegen folgender Punkte:
-> Verfügbarkeit von Partnerkarten -> AMD hatte zum Zeitpunkt der Veröffentlichung nur das Referenzmodell mit schlechtem und lautem Lüfter
-> Höherer Stromverbrauch, vor allem bei Multi-Monitor-Betrieb war der Stromverbrauch im Idle fast doppelt so hoch wie bei der GTX 1060
-> Die Problematik mit der zu hohen Leistungsaufnahme der RX 480 über den PCI-Express Anschluss.

Mir hat es wirklich leid getan, da ich auf den Test der RX 480 hingefiebert habe und ich mir dieses Modell zuerst wirklich kaufen wollte.
 
  • Gefällt mir
Reaktionen: Kalsarikännit
Ich bleib bei meiner 1080 Ti … 11GB VRam sind mehr als genug (in WQHD hab ich bis dato nie mehr als 6-7GB gebraucht?! Wofür also "jetzt" 12-16gb?).

Mal abwarten wie gut die 1180 TI wird (bei 30-40% mehr Leistung würde ich umsteigen^^)
 
Galatian schrieb:
Bleib mal unten...

Die GTX 580 kam 500$ als MSRP und war nicht Gegenspieler der HD 7970. Das war immernoch Kepler mit der GTX 680 welche - Achtung - auch ne MSRP von 500$ hat und in der Leistung der ursprünglichen HD 7970 ein wenig das Wasser abgegraben hat.

Übrigens hatte auch die GTX 480 500$ als MSRP. Die GTX 980 eine MSRP von 549$ also erst zwei Serien später auf dem Level, was AMD aufgerufen hatte mit der HD 7970. Die MSRP der 1080 war zum Anfang 599$ und wurde dann auf 499$ gesenkt. Buhu ganz böhses NVIDIA
Und wie man angesichts deiner Ausführung sieht war der höhere Einführungspreis der HD7970 für die Preisgestaltung von nvidia vollkommen irrelevant, denn in dem Zeitraum (kam zwischen der GTX580 und der GTX680 raus) gab es keinerlei Auswirkungen auf nvidias Preisgestaltung. Deren Einführungspreise kletterten erst als man den Markt sicher dominierte. Das einzige was man daraus ableiten kann ist das AMD seinerzeit den inzwischen sinnlosen Preiskrieg aufgegeben hatte. Hier hatte nvidia das letzte mal bei der Einführung der deutlich günstigeren HD4000 Serie zu Rudern.
Glücksunsch!
 
Galatian schrieb:
Bleib mal unten...

Die GTX 580 kam 500$ als MSRP und war nicht Gegenspieler der HD 7970. Das war immernoch Kepler mit der GTX 680 welche - Achtung - auch ne MSRP von 500$ hat und in der Leistung der ursprünglichen HD 7970 ein wenig das Wasser abgegraben hat.

Was die 7970 mit der 770/680 zwei Jahre später gemacht hat weiß auch jeder.
Es bleibt auch zu erwähnen das die GTX580 ein 520mm² DIE war, das dickste was NV hatte in der Gen...quasie die Titan.
Die 680 war gerade mal 290mm² groß, da dann von "gleich bleibender MSRP" zu sprechen ist naja wahr aber irgendwie doch nicht....:rolleyes:
Die 680 hatte eine weit bessere Marge als die 580.

Mann muss NV lassen das sie seid kepler ihre GPUs von anfang an gut auslaten.
Was auch einer der Gründe ist wieso sie nicht mehr von DX11 weg wollen, die sind auf Gold gestoßen mit Maxwell.
Einer seits gut, auf der andren Seite werden es wohl 15Jahre DX11 werden jetzt wo AMD nicht mehr Direkt Konkurieren kann und will.

Oneplusfan schrieb:
Warum denn immer "Wunder"? Kepler auf Maxwell war doch auch kein "Wunder", dennoch war die 980 gut vor der 780ti.
Was willste den noch aus Maxwell streichen?:freaky:
Pascal hat einzig wegen der besseren Fertigung zugelt.
Die paar Optimierungen bringen nicht mal 5% in non VR Case.

Alleine schon das NV ihr RTX demonstriert hat zeigt das man aus der Optimierung auf DX11 und Maxwell nicht mehr viel rausdrücken kann.
 
Zuletzt bearbeitet von einem Moderator:
@Galatian
Ach und noch als Zusatz, die GTX580 war seinerzeit nvidias schnellstes single GPU Modell, nvidia rundete die Kepler Reihe aber nach oben hin mit der GTX780(Ti) und der Titan nach oben ab. Geht man also vom schnellsten single GPU Modell aus dann kletterte der Einführungspreis des schnellsten Kepler Modells innerhalb einer Generation auf ca. 1000$.
 
  • Gefällt mir
Reaktionen: Chismon
Mustis schrieb:
(...) Die amd pendants sind teurer (soviel dazu, nvidia sei zu teuer, bei amd regt dich jedoch kaum einer auf) (...)

Gute Anmerkung @Mustis aber nicht ganz richtig. Also ich rege mich zum einen sehr auf dass AMD GPUs à la RX Vega 56/RX Vega 64 zu teuer sind und zum anderen, dass es aktuell keine direkte Konkurrenz zur 1080Ti gibt.

Das ist u.a. auch der Grund weshalb ich meine RX Vega 56 (mit etwas Glück und dadurch Gewinn) wieder verkauft und ein Downgrade auf RX 580 gemacht habe.

Für mein Use Case, WQHD@144Hz@FreeSync bietet die Vega in meinen Spielen keinen Mehrwert, (hat) hätte mich aber zu dem Zeitpunkt 180-200 Euro mehr gekostet.

Gäb‘s zudem einen Konkurrenten für die 1080Ti, wäre ich vielleicht direkt auf UHD gegangen.

Auf einige Leute trifft deine Kritik sicherlich zu, aber es gibt auch Leute die AMD kritisch sehen.

Liebe Grüße
Sven
 
RYZ3N schrieb:
Für mein Use Case, WQHD@144Hz@FreeSync bietet die Vega in meinen Spielen keinen Mehrwert, (hat) hätte mich aber zu dem Zeitpunkt 180-200 Euro mehr gekostet.

Gäb‘s zudem einen Konkurrenten für die 1080Ti, wäre ich vielleicht direkt auf UHD gegangen.

So unterschiedlich sind die Ansprüche an ein Produkt. Mir ist selbst eine 1080ti zu langsam für WQHD@144Hz. Aber das ist schon Meckern auf sehr hohem Niveau.
 
Mich interessiert eigentlich nur eines: ob Turing ebenfalls Tensor Cores bekommt. Es gibt ja diverse Gerüchte, die dies in Aussicht stellen, weil damit wohl sehr gut z.B. das neue Raytracing von DirectX sich beschleunigen ließe.

Ohne die wäre ein Upgrade wahrscheinlich vollkommen unattraktiv für mich. So viel Geld würde ich nicht nur für Spiele versenken. Hauptsächlich läuft Linux und da ist eine flotte GPU ganz nett, wenn man gerade mal eine Simulation zu Hause testen will.
 
Ach ja. Schadenfreude ist schon eine feine Sache. Erst bombardieren sie den Markt wegen Mining mit überteuerten GPUs und nun bleiben die Hersteller auf den GPU Bergen sitzen. Und wieso? Na wegen Mining. :)
Jetzt müssen sie sich natürlich etwas aus den Fingern saugen. Aber 500 Euro für eine 120 Watt GPU ist ja mal krass. Ich hoffe, dass die Karte bei diesem Preis ein Ladenhüter wird, weiß aber dass die GPUs sowieso gekauft werden.

DeeJay85 schrieb:
Ich bleib bei meiner 1080 Ti … 11GB VRam sind mehr als genug (in WQHD hab ich bis dato nie mehr als 6-7GB gebraucht?! Wofür also "jetzt" 12-16gb?).
)

Geht mir genauso. Deshalb kann ich mich zurücklehnen und mir die Show gemütlich reinziehen. :)
 
Shrimpy schrieb:
[...]
Mann muss NV lassen das sie seid kepler ihre GPUs von anfang an gut auslaten.
Was auch einer der Gründe ist wieso sie nicht mehr von DX11 weg wollen, die sind auf Gold gestoßen mit Maxwell.
Einer seits gut, auf der andren Seite werden es wohl 15Jahre DX11 werden jetzt wo AMD nicht mehr Direkt Konkurieren kann und will.
[...]
Ob DX11 oder DX12 verwendet wird entscheidet aber nicht Nvidia.
Und 15 Jahre DX11 werden es gewiss nicht werden, nicht im AAA-Bereich.
 
Locuza schrieb:
Ob DX11 oder DX12 verwendet wird entscheidet aber nicht Nvidia.
Ziemlich oft tun sie das....Die Gameworks Spiele werden von Nvidia betreut und natürlich entscheidet Nvidia dann, das es kein DX12 gibt...oder das der DX12 render Pfad mies wird.
Da Nvidia kürlich verlauten ließ, dass sie jetzt low level APIs unterstützen wollen, gehe ich davon aus, dass die nächste oder zumindest übernächste GPU Generation von ihnen auch auf einen Hardwarescheduler setzen werden.
Das würde Maxwell und Pascal behindern....aber dann gibt es bessere Gründe für die Leute neue Nvidia GPUs zu kaufen....klingt also logisch^^
 
  • Gefällt mir
Reaktionen: Chismon
Zurück
Oben