News Nvidia GeForce GTX 1080: Pascal GP104-400 mit 8 GByte GDDR5X von Micron

Zotac2012 schrieb:
Wobei ich mich immer noch Frage, welcher Chip letztlich auf die Pascal Titan kommt, denn der GP100 soll ja nur im Profibereich auf der Tesla P100 verbaut werden und für den Desktop-Bereich eher ungeeignet sein. Nach den Gerüchten soll die GTX 1080Ti/GTX 1080 und GTX 1070 alle auf den GP104 aufbauen, dann müsste ja eigentlich der GP102 auf der Titan zum Einsatz kommen, von dem man aber noch recht wenig weiß, oder nicht? :confused_alt:

Ist es nicht etwas früh um über die neuen Titanen zu spekulieren? Letztendlich hat die TitanX auch recht schnell Ihre Daseinsberechtigung verloren nachdem hochgezüchtete 980ti ala Palit Super Jetstream auf den Markt gekommen sind.

cypeak schrieb:
nichts für ungut: die zeiten in denen man für 150€ noch quantensprünge erwarten konnte sind länger vorbei...[...]

mit an der preisakzeptanz sind aber auch die sog. "enthusiasten" schuld denen kein preis zuviel ist[...]

aber die problematik kenne ich auch..ich hab meine 770er auch ende 2013 (für gut unter 300 euro) gekauft - und für nennenswert mehr performance (+25-30%) müsste ich mindestens zu einer 390er amd oder gtx970 greifen.

Ich verstehe nicht so ganz zu welcher Zeit man mit jeder neuen Generation die doppelte Leistung in der 150Euro klasse bekommen haben soll. Aber wundern tun mich solche Märchen nicht weil Gamer relativ selektiv sind was die Vergangenheit angeht. Im Zweifelsfall war früher alles besser :D

Das im Moment recht viele Karten verkauft werden, die gefühlt einen hunderter zu teuer sind, liegt erstens an dem schwachen Euro und vorallem daran das die 28nm Chips in den letzten Jahren recht groß und damit teuer geworden sind. Wenn nicht alle 24 Monate der nächste Shrink verfügbar ist, müssen die Chips halt größer werden, wenn die Leistung nennenswert gesteigert werden soll. Und das macht die Karten teuer.

Wenn einem 25 bis 30 Prozent mehrleistung reichen kann man gerne zuschlagen. Mir ist das zu wenig. Mit 30 Prozent kommt man gerade mal von 30 auf 40fps.
 
Raycrate schrieb:
Ja nur du verwechselst hier die 1080 mit high end, was sie nicht ist. Die 80er sind nur noch mittelklasse so wie damals die 60er. Wenn die 660 so stark wie die 580 war, dann passt es genau dass die 1080 so stark wie die 980ti ist. Was mit der neuen high end karte (titan/1080ti) ist, steht auf einem anderen blatt.

So ein Schwachsinn. Natürlich wird die GTX 1080 eine High End - Karte. Nur, weil nicht der "Big Chip" verbaut wird, wird sie trotzdem als High End - GPU platziert und auch dementsprechend deutlich schneller als die GTX 980 Ti sein.

Auf der GTX 680 wurde btw. auch nur die Kepler-Mittelklasse verbaut. Trotzdem war sie, wenn ich mich nicht irre, über 50% schneller als die GTX 580, welche eine "echte" High End - GPU war . Nach deiner "Rechnung" hätte die GTX 680 dann auch nur so schnell wie die 660 Ti sein dürfen...

Wenn die GTX 1080 trotz kleinerer Strukturbreite, verbesserter Architektur und besserem DX12-Support nur so schnell wie die GTX 980 Ti wird, kann sich Nvidia in "AMD 2.0" umbenennen und anschließend zusperren.
 
Zuletzt bearbeitet:
Wir werden sehen. Würde mich freuen wenn du recht hast, solang die preise vergleichbar mit den 900er modellen sind. Ich glaube es jedoch nicht.
 
Higgs Boson schrieb:
Mit welchem System, CPU + GPU ?
​Mein aktuelles System (Sig.) kommtr auf max. 320 Watt.

E3-1230v2 nicht undervoltet, Radeon R9 390 @950 MHz -12mV und Seasonic G-550. Da zieht der PC in GTA5 @1440p Sehr Hoch (50+ fps) bis zu 280W. Messgerät eine CB Empfehlung, weiss gerade nicht genau wie es hieß. @1040 MHz sinds etwa 330-340W. @1040 MHz -50 mV 310-320W.
 
iHabAhnung schrieb:
So ein Schwachsinn. Natürlich wird die GTX 1080 eine High End - Karte. Nur, weil nicht der "Big Chip" verbaut wird, wird sie trotzdem als High End - GPU platziert und auch dementsprechend deutlich schneller als die GTX 980 Ti sein.

Ähhm also High End definiert sich dadurch dass das technisch mögliche gemacht wird und nicht dadurch dass die Marketingabteilung einen schicken Sticker auf den Karton klebt ;-)
 
Also wenn Polaris 10 wirklich zwischen 390x und Fury X liegem würde und bei der effizienz etwas besser wird dann werd ich auch wieder mal Rot kaufen.
Ich würd ja so lachen wenn AMD trotz allem nicht ganz voll auf Effizienz geht und mit einem 320 bit Si GDDR5 und 10 GB Vram auf den Markt kommt.
Da wäre man auch flexibel und könnte noch ne 3te Karte bringen mit 5gb vram was auch noch ganz ordentlich wäre.
 
Visualist schrieb:
Er hält die 2000 nur nicht für unmöglich .
Ich denke da etwas konversativer und sage mit OC wird man den Pascal je nach güte bis (ca.)1800 kriegen unter Wasser.
Das heist dann auch nicht jeder Chip.

richtig, GPU sind ja seit jeher nach oben nicht ausgelotet sondern man setzt kleine Spannungen an zwecks der Effizienz (eine gewisse Mindestspannung ist immer nötig und nahe an dieser geht zunehmend mehr Takt).

Dieses Effizienz Optimum verschiebt sich aber stets weiter nach oben.

Schau ich mir den Takt zwei Fertigungsstufen vor 28nm an (55nm) dann lagen die vergleichsweise hoch taktenden AMD Karten bei ~750Mhz. Heute taktet man schon deutlich höher, bei weniger Spannung.

Big Maxwells 610mm² bei bis 1480mhz Boost und 300W sind schon viel Takt. Eine hypothetische 150W GTX 1080 mit ~1500 Mhz Boot würde sich, passende Dimensionierung der Spannungsversorgung der Karte vorausgesetzt, sicher gut auf 2 Ghz OC lassen. Klar wäre sie dabei weniger effizient (vermutlich ähnlich effizient heutiger 28nm Modelle), aber Problem dürfte das kaum eins sein.

Aber wird man ja sehen ;)
 
tek9 schrieb:
Ich verstehe nicht so ganz zu welcher Zeit man mit jeder neuen Generation die doppelte Leistung in der 150Euro klasse bekommen haben soll. Aber wundern tun mich solche Märchen nicht weil Gamer relativ selektiv sind was die Vergangenheit angeht. Im Zweifelsfall war früher alles besser :D

.

z.B.
8600GT -> 8800GS -> GTX260 -> GTX560 dann musste schon für 300€ eine GTX770 für doppelte Performance her.
 
Vitec schrieb:
Ich würd ja so lachen wenn AMD trotz allem nicht ganz voll auf Effizienz geht und mit einem 320 bit Si GDDR5 und 10 GB Vram auf den Markt kommt.
Kommt Sie aber nicht, Polaris wird genauso wie zunächst die Pascal jeweils mit 8.GB Speicher kommen. Die einzigen Grafikkarten die mit 16.GB HBM2 Speicher kommen, sind die Pascal Titan und von AMD der Big Vega Chip. Das was Nvidia jetzt mit der Pascal GTX 1070 und 1080 mit 8.GB Speicher macht, ist nichts anderes als Marktanpassung, was es ja mit der AMD R9 300er Serie schon länger gibt. In dem Bereich wird es unter 8.GB nichts mehr geben, viel interessanter als nur der Speicher wird zum einen die Leistung sein, bei den neuen Pascal und Polaris GPUs.

Aber auch gerade bei Nvidia wird man gespannt sein, wie diese sich unter DX12 bewähren und ob man neben GSync auch FreeSync nutzen kann. Sollten die neuen Pascal GPUs FreeSync auch weiterhin nicht unterstützen, muss Nvidia entweder günstige Nachrüstkits für GSync anbieten oder dieses gar in die Grafikkarten integrieren, andernfalls wird der Absatz zurück gehen. Denn die GSync Monitore sind zu teuer und es gibt zu wenig Vielfalt, da sieht es bei FreeSync schon ganz anders aus. Und das diese Feature immer mehr an Bedeutung gewinnen, kann man ja auch hier im Forum, gerade wenn es um einen neuen Monitor kauf geht, sehen. ;)
 
Gorby schrieb:
Hat doch niemand was anderes behauptet. Ich habe nur aufgelistet, wo sich die neuen Karten mMn leistungsmäßig einordnen werden.
Ja das is auch korrekt, aber das die 1080 ohne ein ti soviel mehr Leistung kriegt als die derzeitige ti? Naaaajaaaa...

Mein Wunsch wäre ne GTX1080 mit der Leistung der GTX980ti bei dem gedeckelten Power Target der EVGA GTX980 aka 180W. Wenn man sich die Steigerungen der alten Generationen anguckt, wäre zumindest eine solche Leistungssteigerung realistisch, ob es bei dem kleinen Stromverbrauch machbar ist, warte ich ab.
IBISXI schrieb:
eine AMD Fury hatte vor einem Jahr schon 512 GByte/s Speicherbandbreite.

Mal im Ernst: In welchen Spielen limitiert bei High-End Karten derzeit das Speicherinterface? Ja, genau, bei keiner ;)
Und eine Ati Radeon 2900XT schon 2007 512bits Anbindung (bzw gab es nich sogar vorher schon ATIs mit soviel Speicheranbindung...da war doch was...?), nur war die Chiparchitektur nich so prall, das sie die GTX8000er abkochen hätte können.

Mag durchaus sein, das auch die am meisten genutzten 256bit nirgends limitieren, aber wenns schon Gurkenkarten gibt die mit 4GB (DDR3 teils...) beworben werden -warum zieht man dann nicht wieder auf 384bit bei NV an und nutzt das als Marketing-Argument? Hohe Werte eignen sich doch immer, um Kunden zu locken, auch wenns praxisfern ist. Siehe die winzigen 4GB-Karten...
haiopai schrieb:
..Selbst die 390 hat 8gb und höheren speicherdurchsatz als die 1080.
Das legt entweder die Vermutung nahe, dass Pascal nicht so leistungsstark wird wie angenommen ... oder der speicher mal wieder der flaschenhals wird. (In 4k zumindest)
Die 390 ohne X hat zwar viel Speicher, aber zuwenig Leistung im Verhältnis... Speicherbandbreite, Speichermenge und GPU-Leistung müssen in einer gewissen Relation zueinander stehen...

CB hatte doch garnicht lange her, nen Test gemacht und festgestellt, das 4GB mittlerweile knapp sind. 8 wiederum aber bieten -je nach Spiel- auch in 4K noch nen gewissen Puffer meine ich mich zu erinnern.
Locuza schrieb:
Nvidia hat es geschafft mit einer relativ hochpreisigen GPU ein sehr hohes Marktvolumen zu erreichen.
Eigentlich ist die GTX970 der würdige Nachfolger der 8800GTS 640= Noch ein bezahlbares Oberklassemodell mit vernünftig viel Leistung. 8800GTX -> GTX980 und 8800 Ultra -> GTX980ti, wenn man den Vergleich weiter zieht.

Die Geforce 8800er waren in Sachen Leistung ein Meilenstein, die beiden großen Maxwells einer in Sachen Leistung <-> Verbrauch. Und genau das will AMD nun auch packen, also endlich mal wieder legendäre Hardware bringen.
 
Zuletzt bearbeitet von einem Moderator: (265bit auf 256bit kastriert, weil zuviel bit)
tek9 schrieb:
Ist es nicht etwas früh um über die neuen Titanen zu spekulieren? Letztendlich hat die TitanX auch recht schnell Ihre Daseinsberechtigung verloren nachdem hochgezüchtete 980ti ala Palit Super Jetstream auf den Markt gekommen sind.

Es gibt eine Zielgruppe, die ihre Karten nicht nur zum Spielen nutzt und eben glücklich über 12GB VRAM ist. Eine Quadro mit der gleichen Menge Speicher kostet immer noch das vierfache einer Titan X und oftmals benötigt man nicht die Extras die eine Quadro so teuer macht. Da ist eine Titan X dann ein Schnäppchen :) Wobei die 24GB Quadro für 4600 EUR durchaus interessant ist.

Ich hoffe auf ein Pascal Flaggschiff zur Jahreswende+ mit 16GB VRAM.
 
Zuletzt bearbeitet:
Spawn182 schrieb:
die ihre Karten nicht nur zum Spielen nutzt und eben glücklich über 12GB VRAM ist

Bei der Titan Classic und der Titan Black könnte ich das nachvollziehen, aber bei der Titan X?


Was macht diese Karte für professionelle Anwender attraktiv?

- fehlende 10-bit Farbausgabe pro Kanal?
- fehende DoublePrecision Rechengenauigkeit?
- fehlende zertifizierte OpenGL-Treiber und Support für professionelle Anwendungen?
 
Exotisch, aber valide ;)

Ich denke trotzdem, dass die Titan X bei professionellen Anwendern keine große Zielgruppe hat.
 
Gelbsucht schrieb:
Mag durchaus sein, das auch die am meisten genutzten 256bit nirgends limitieren, aber wenns schon Gurkenkarten gibt die mit 4GB (DDR3 teils...) beworben werden -warum zieht man dann nicht wieder auf 384bit bei NV an und nutzt das als Marketing-Argument?

​Weil die Karte dann 9GB V-Ram haben müsste, und wenn nicht wären es wieder nur die 6GB.
​Also müsste das Speicherinterface auf 512bit angehoben werden damit es zu den 8GB passt.
​Das wäre dann wieder zu teuer und würde die Effizienz senken.
 
Dass die 1080 mit GDDR5X kommen soll überrascht mich ein wenig. Ich dachte der wär noch nicht so weit. Das ist natürlich schlecht für mich, weil neue Technologien die Preise erstmal hochschrauben werden.

Die 1080 wirds vermutlich nicht unter 600€ geben, das wär natürlich schon happig.
Die Preisgestaltung wird durch GDDR5X nicht so sein, wie bei den bisherigen 70/80er mit 300/500€, da bin ich mir ziemlich sicher.
 
Kommt drauf an ob AMD gleichzieht und eine ähnlich gute Karte in der gleichen Preiskategorie bringt. Wenn die 1080 auch nur 10% schneller ist als ihre roten Kameraden wird der Preis saftig sein.
 
Wenn die Karten dann wieder nur 20 % schneller werden als die jetztigen (und entsprechend auch teurer), dann kann mdan das doch gleich vergessen. Was ist da im moment los? Seit jahren so gut wie kein Fortschritt.

Vor paar Jahren wurde ein Artikel veröffentlicht, in dem stand, dass es in den nächsten Jahren einen immensen Sprung bei Grafikkarten geben wird mit ca. 500-facher Leistung. Und nu? Wo sind diese Karten?

Wo ist der Flaschenhals? Man könnte doch in ganz vielen Schichten Transistoren drauf machen, sagen wir mal 1000 Schichten = 1000 fach so viele Transistoren, dann wär die karte 1000 mal so schnell.
Wobei so dünn wie die sind könnte man auch zig millionen Schichten nehmen.

Warum macht man das nicht, wird das künstlich kleingehalten evtl?

Irgendwann wird es nen Durchbruch geben, da wird dann ein Stecknadelkopf-Chip 1000 mal schneller sein als derzeit alle Rechenzentren der Welt zusammen oder noch sehr sehr viel schneller, davon gehe ich ganz stark aus... aber vllt erst in 100 jahren^^
 
M.B.H. schrieb:
Vor paar Jahren wurde ein Artikel veröffentlicht, in dem stand, dass es in den nächsten Jahren einen immensen Sprung bei Grafikkarten geben wird mit ca. 500-facher Leistung.
Wer hat denn so einen Mist erzählt?

M.B.H. schrieb:
Man könnte doch in ganz vielen Schichten Transistoren drauf machen, sagen wir mal 1000 Schichten = 1000 fach so viele Transistoren, dann wär die karte 1000 mal so schnell.
Man könnte doch auch einfach 1000 Motoren in ein Auto einbauen, dann wär das sicher auch 1000 mal so schnell? 250km/h * 1000 = 250.000 km/h - die Welt könnte so einfach sein :p :evillol:

Im Ernst: nein, funktioniert nicht - noch nicht. Erste Ansätze gibt es, ist aber noch nicht marktreif. Zudem wüsste ich dann auch nicht, wie man die entstehende Wärme aus den inneren Schichten herausbekommen sollte.
Eine genauere Auflistung der dabei zu lösenden Probleme gibt's hier: https://de.wikipedia.org/wiki/3D-Integration#Herausforderungen
 
Zurück
Oben