News Nvidia Turing: Angeblich drei Grafikkarten mit 120 bis 180 Watt geplant

Neronomicon schrieb:

Ich würde es uns wünschen. ;)

Eine 1150Ti auf dem Niveau der 1070/1070Ti mit 100W TDP für 126,64€. :D

Hätte ich keinen FreeSync Monitor, ich würde schwach werden.

Liebe Grüße
Sven
 
RYZ3N schrieb:
750 Euro (1180)
600 Euro (1170)
500 Euro (1160)

...halte ich für realistisch.
350 Euro(1150Ti) hast du vergessen.

Wozu dann überhaupt neue Karten?
Die Leistung gibt's doch schon lange, sogar trotz immer noch hoher Preise günstiger als zu deinen vermuteten Preisen.
Wären somit völlig überflüssig(wenn sie nicht mehr Speicher haben, was u.U. als Kaufgrund gelten könnte), was vielleicht auch Nvidias Stillschweigen darüber erklärt, damit die Depression nicht zu früh um sich greift. Das einzig neue sind dann andere Namen und höhere Preise. Neues Futter für die vollen Lagerhallen. ;)
Ignorieren, aussitzen und 7nm abwarten halte ich für realistisch.
 
  • Gefällt mir
Reaktionen: SVΞN
Oneplusfan schrieb:
Also ich für meinen Teil geh von einer 1180 in 12nm mit 12-16GB Ram aus, ca. 30% über einer 1080ti.
[…]außerdem sind durch den Prozess alleine kaum Leistungssteigerungen möglich.

Du widersprichst dir doch selbst. Woher soll Nvidia bitte diese Leistungssteigerung nehmen, wenn der Prozess alleine kaum Leistungssteigerung ermöglicht? Eine 1080ti ist im Schnitt rund 30% schneller als eine 1080. Du erwartest eine 1180, die 30% schneller als die 1080ti sein soll, in Summe also rund 60% schneller rechnen soll als der Vorgänger in Form der 1080. Auch spricht die kolportierte TDP von 210W (30W mehr als beim Vorgänger) dagegen. Realistischer ist eher 1080ti Niveau bei gestiegener Energie-Effizienz und neuem Feature-Set.

Die Karte, die du dir erhoffst wird wohl eher eine 1180Ti sein. Nvidia wird ihre Performance-Chips schon so kastrieren, dass am Ende noch Luft nach oben ist in Form von GV102.

Ich denke das wird eher so aussehen:

GTX1160 (Turing)
GTX1070Ti (Pascal)
GTX1170 (Turing auf Pascal 1080 Niveau)
GTX1080ti (Pascal)
GTX1180 (Turing auf 1080ti Niveau)

Ich denke auch nicht, dass Nvidia der Performance-Klasse hier unnötig viel Speiche spendieren wird. Selbst jetzt gibt es wirklich nur Ausnahmefälle, wo 8GB grenzwertig sind. Ich habe noch nie gesehen, dass ein Spiel auch nur ansatzweise die 11GB der 1080ti genutzt hätte. Die 1180 hat bestimmt 11GB wie die 1080ti, damit sie sie ergänzt und erst die 1180ti wird noch einmal eine Schippe oben drauf legen was Speicher betrifft.^^
 
Zuletzt bearbeitet:
SKu schrieb:
Eine 1080ti ist im Schnitt rund 30% schneller als eine 1080. Du erwartest eine 1180, die 30% schneller als die 1080ti sein soll, in Summe also rund 60% schneller rechnen soll als der Vorgänger in Form der 1080.

Das wären rechnerisch sogar 69% wenn man die 1080 als Basis nimmt...

...Not gonna happen
 
Cronos83 schrieb:
Das wären rechnerisch sogar 69% wenn man die 1080 als Basis nimmt...

Und kann somit ins Reich der Mythen und Fabeln verwiesen werden. Ich würde gerne mal wieder ein solches „8800 GTX Reloaded“ erleben, aber ich halte es für ausgeschlossen dass die 1180 die 1080Ti überbieten kann und schon gar nicht um 30%.

NVIDIA wird die Effizienz weiter steigern und am Ende 20% vor dem direkten Vorgänger (1080) und 10% hinter der 1080Ti liegen, bei bessern Verbrauchswerten als eine 1080.

Ich erwarte keine Wunder, aber dennoch sehr gute, leistungsstarke und effiziente GPUs. Einzig der Preis wird interessant.

Liebe Grüße
Sven
 
  • Gefällt mir
Reaktionen: Thraker
Warum denn immer "Wunder"? Kepler auf Maxwell war doch auch kein "Wunder", dennoch war die 980 gut vor der 780ti.
Solange nirgends bestätigt wird, dass es sich bei Turing um die gleiche alte Architektur handelt, gehe ich davon aus, dass ähnliche Leistungssprünge stattfinden werden.
Ne 1180 auf 1080ti Niveau für mehr (!) Geld wird Nvidia mit ziemlicher Sicherheit nicht releasen.

Ja, auch Nvidia kocht nur mit Wasser, aber wenn man jetzt über 2 Jahre Zeit hatte zu kochen, sollte das Wasser schon gut heiß sein.
Oder gibts ne neue heiße Info, die bestätigt, dass man lediglich Pascal von 16 auf quasi 16nm geshrinkt hat?
 
Solange niemand heißeres Wasser hat, tut's auch lauwarm. Siehe Intel.
Die aktuellsten Gerüchte hatte ich vorhin mal verlinkt.
Nvidia lässt nichts verlauten+NDA. Alles Spekulation. Bestätigungen gibt's erst, wenn das NDA fällt.
Vielleicht gibt's ja auch nichts, was es groß zu verkünden gilt.
In vier Wochen sind wir alle schlauer. Oder auch nicht. ;)
 
ich freu mich schon auf die 1150 mit 96 bit speicherinterface für 399 EUR SRP (510 EUR strasse) xD
 
  • Gefällt mir
Reaktionen: nebulus
uwei schrieb:

Den Spekulatius von 3D Center meinst Du (?), denn mit 25% Leistungszuwachs hätte man blödsinniger Weise kein neues Schlachtschiff zu vermarkten bei nVidia und müsste sich in Grund und Boden schämen, wenn eine GTX 1180 keine GTX 1080Ti zumindest mit kleiner Marge (5-10%) knapp schlägt.

Sorrry, aber da klingen selbst die hier diskutierten Wccftech Gerüchte plausibler/weniger hanebüchen als die von 3D Center :p.

Es wird von höherem Verbrauch ausgegangen, durchaus möglich, aber von grösseren Architekturanpassungen nicht (?), nur haben es in der Vergangenheit beide GPU Entwickler geschafft auch ohne signifikanten Shrink deutlich mehr Leistung zu bieten und Huangs Aussage zum deutlich höherpreisigen Preis der Turing GPUs im Vergleich zu Pascal (bestimmt nicht nur wegen 12nm Fertigung, sonst hätte man sich Turing ganz sparen können) wird auch nicht berücksichtigt ;).

Dann könnte außerdem mit einer Vega20 und einem großen Navi-Chip in 7nm (die beide evt. eine GTX 1080Ti kassieren dürften) man nVidia die Krone (wenn auch nur kurz bis zu einer GTX1180Ti in 7nm gefertigt) bei den Single Gaming GPUs stehlen, glaubt Ihr nVidia würde denn sowas riskieren (dafür sind die doch viel zu große Kontrollfreaks)?
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan
Galatian schrieb:
Die HD 6970 hatte eine MSRP von 369$ die HD 7970 eine MSRP von 550$. Also fast 200$ mehr. Wurde übrigens auch von vielen Techseiten wie Anandtech kritisiert; die GHz Edition war dann - auch wegen der starken Kepler Konkurrenz - 50$ günstiger zu haben kein halbes Jahr später.

Und dann schau dir mal an, bei welcher Generation AMD am meisten Federn in der Marktdurchdringung lassen musste...
Und? Im Vergleich zur GTX580 war sie das deutlich leistungsfähigere Produkt und man hatte die Preisgestaltung lediglich an nvidias Niveau angeglichen. Das Problem ist jetzt wo? Das sie zur Drückung von nvidias Preisen gefälligst die Billigheimer sein haben weil sie eben AMD sind?
 
Wie die Lederjacke schon vor 2-3 Monaten gesagt hatte: "Es wird noch eine lange Zeit dauern, bis die nächsten GeForce-Generationen erscheinen werden."
Denke jetzt kommt erstmal ein Pascal-Refresh raus. Deutet alles darauf hin, ähnlich wie bei AMD's 300er-500er Grafikkarten Serie.
 
Oneplusfan schrieb:
Ne 1180 auf 1080ti Niveau für mehr (!) Geld wird Nvidia mit ziemlicher Sicherheit nicht releasen.

Deine Erwartung, dass die GPU knapp unter 70% mehr leisten wird als der direkte Vorgänger, wird dennoch nicht eintreten. Das wäre ein noch größerer Sprung als von Maxwell auf Pascal. Wie soll das bitte gehen, wenn hier von 16nm auf 12nm geshrinkt wird? Wer sagt denn, dass eine 1180 mehr Geld kosten wird als eine 1080ti? Die 1080 kostete als FE kurz nach Release fast 800€ und damit mehr als jetzige 1080ti mit Custom-Design. Die 1080ti wird im Preis reduziert, bis sie komplett verschwindet und Turing ergänzt die 1080ti nach oben hin. Wenn Nvidia eine 1180 auf dem Niveau der 1080ti releast bei niedrigerer TDP, dann ist die 1180 auch effizienter als die 1080ti und wird darüber hinaus wahrscheinlich neue Features besitzen, die Pascal nicht besitzt. Wie dem auch sei, knapp unter 70% Leistungssteigerung im Vergleich zum Vorgänger, der von 28nm auf 16nm geshrinkt wurde, halte ich für unrealistisch.
 
Sieht so aus, als ob nVidia hartnäckig bleibt und die Preise mit Abverkauf-Bundles attraktiver versucht zu mache.

Tja, die aktuell viel zu hoch angesetzten Preise für 2Jahre alte nVidia Pascal Grafikkarten treffen wohl doch nicht so den Geschmack der Käuferschaft, wie sich das Huangs & Co. für die wegen Krypto-Mining überproduzierenden GPUs wohl vorgestellt haben :p.
 
Warum sollte man auch verramschen? Die amd pendants sind teurer (soviel dazu, nvidia sei zu teuer, bei amd regt dich jedoch kaum einer auf) oder es gibt schlicht kein pendant. Ab der oberen mittelklasse bis zu high end ist nvidia stateof the art. Massive preissenkungen ergo unsinnig, auch wenn viele schnäppchenjäger und geiz is geil menschen drauf hoffen.

Die 1100er reihe kann mit neuen Features aufwarten, etwas besserer Effizienz und da muss kein riesen preisvorteil zu alten generation her. Da kann man mit geringen preisvorteilen die alte generation abverkaufen und die neue langsam etablieren. Die leute kaufen eh wenn sie merken, dass ihre träumereien eben solche sind und dann erst mal wieder 1 jahr ca nichts neues kommt.
 
Chismon schrieb:
Sieht so aus, als ob nVidia hartnäckig bleibt und die Preise mit Abverkauf-Bundles attraktiver versucht zu mache.

Tja, die aktuell viel zu hoch angesetzten Preise für 2Jahre alte nVidia Pascal Grafikkarten treffen wohl doch nicht so den Geschmack der Käuferschaft, wie sich das Huangs & Co. für die wegen Krypto-Mining überproduzierenden GPUs wohl vorgestellt haben :p.

Destiny 2 mit gpus als Bundle gabs aber auch schon letztes Jahr, wo noch kein Abverkauf stattgefunden hat. Und SSDs von Kingston gabs vor kurzem erst mit MSI Mainboards, dass dürfte also eher von Kingston ausgehen.
 
Mustis schrieb:
Warum sollte man auch verramschen?

Weil sie auf einem Berg von zwei Jahre alten Grafikkarten sitzen und diese nicht loswerden weil die Leute nicht bereit sind so viel Geld in "alte" Technik zu investieren?!
Ist mir doch egal ob die Karten state of the art sind oder nicht, so kurz vor Release einer neuen Generation zahle ich doch nicht die seit Release bestehenden UVP-Preise für die alten Schinken. Da kann Nvidia noch so viele Bundles schnüren...
 
  • Gefällt mir
Reaktionen: Flynn82
eXtra schrieb:
Weil sie auf einem Berg von zwei Jahre alten Grafikkarten sitzen und diese nicht loswerden weil die Leute nicht bereit sind so viel Geld in "alte" Technik zu investieren?!
Ach du warst in deren Lagern? Ich wusste gar nicht, dass aus dem Gerücht inzwischen ein Faktum geworden ist. :rolleyes: Die 1080 und die 1070 werden seit geraumer Zeit nicht mehr produziert.

Und ich wette mit dir "du" wirst kaufen, wenn die neue Generation leicht teurer ist und kaum schneller und die Erkenntnis reift, dass sowohl von Nvidia als auch AMD dann wieder 1 Jahr Minimum nichts kommt.
 
Welche neuen Features soll es bei Turing denn bitte geben @Mustis . Hast du schon eine Liste damit bei dir zu Hause rum liegen? Weil wenn ja, dann hau mal raus.
Finde das immer spannend, wie hier nVidia schon vor erscheinen gelobt wird, das sie ja ganz tolle neue Sachen eingebaut haben.
Warte doch erst einmal Tests ab, bevor du mit deiner Lobhudelei beginnst.
Denn wenn es nur ein Refresh mit ein bisschen Shrink ist und endlich die aktuellen DX12 Featurelevels dabei sind, dann ist dies wohl eher kein Grund zur Freude. Außer man ist ein kleiner nVidia Jünger, dann könnte nVidia Scheiße in Goldpapier auf den Markt bringen, es würde gefeiert werden. :lol:
 
  • Gefällt mir
Reaktionen: modena.ch und Thraker
Thraker schrieb:
Hast Du Dir den Nachtrag auch durchgelesen?Scheinbar nicht

Dort steht, dass Nvidia damals ggf. noch immer leicht besser an der Front stand, AMD aber das Momentum hatte. Hat AMD aber nicht genutzt und hat seitdem kontinuierlich Boden verloren. Die grundlegende Tatsache also, dass AMD und Nvidia den Markt mal nahezu gleich unter sich aufgeteilt hatten und AMD zu diesem Zeitpunkt produkttechnisch besser da stand, hat also weiterhin bestand. Das dies gekippt ist, liegt allen vor an an strategischen Fehlentscheidungen seitens AMD und an nichts anderem. Diese Fehlentscheidungen hat AMD nicht nur im GPU Sektor gehabt, sondern auch im Bereich CPUs und auch generell marktstrategisch (schlechte, mangelnde Imagepflege, Fehlinvestitionen bzw. zu teure Zukäufe etc.). Kurz gesagt, man hat sich stellenweise verzockt und muss dies nun ausbaden. Ryzen ist ein erster richtiger Weg dahin, im GPU Sektor muss aber noch etwas vergleichbares folgen wenn AMD weiterhin bestand in seiner heutigen Form haben will.
 
  • Gefällt mir
Reaktionen: Ludwig55 und Hardware_Hoshi
Zurück
Oben