Test GeForce GTX 1080 im Test: Ein Paukenschlag in 16 nm mit 1,8 GHz und GDDR5X

Nicht nur NVIDIA hat das geschafft, alle "großen" haben das hinbekommen woran Apple so lange gearbeitet hat - bedingungslose Gefolgschaft. Meine Marken sind mein Freund, beleidigt einer die von mir gewählte Marke dann geh ich bis in die letzte Instanz!

Faszinierend wie sich das in der Zeit gewandelt hat.

Man siehts ja auch hier bei dem Test. Die Karte ist zu langsam und zu teuer aber wird hier als Paukenschlag und sonst was tituliert - verrückt.
 
Mich würde mal interessieren ob der i5 6600k eine 1080 auch auslastet wie ein 6700k. Wer weiss ob der 6700k überhaupt eine 1080 auslastet.
 
..::Borni::.. schrieb:
Und was in der GPU Branche passiert wenn man seine Kosten nicht deckt haben wir an 3Dfx und ATI gesehen.

ATI war eine solvente Firma die zu dem Zeitpunkt keinerlei Probleme hatte, im Gegenteil - fröhlich expandiert ist. AMD hat sie sich schlicht und ergreifend gekauft - eine feindliche Übernahme quasi. Dafür haben sie extra Milliarden Schulden gemacht und sind selbst fast abgestürzt weil sie sich damit übernommen hatten ;) 3dfx war einfach nur überheblich.

..::Borni::.. schrieb:
Es gibt genug Dinge über die es sich Lohnt nach zu denken. Hilf der Sea Shepherd Wale zu retten. Das ist weitaus edelmütiger als Leute in Forum für Hardware über die Preise von Luxusartikeln wie High End GPUs aufzuklären.

Das mach ich normalerweise, hier bin ich nur in Teilzeit dabei die Welt zu retten ;)
 
Galatian schrieb:
Cool wäre es, wenn du noch die Chipgröße hin zu fügen kannst. Letztlich ist es ja die verkleinerte Fläche des Chips, bei gleichbleibender Wafer-Größe, welche neue Strukturgrößen überhaupt rentabel macht.
Das einzige relevante hier sind die Yield-Raten und um nichts Anderes und die sind bei einem Wechsel auf einen neuen Fertigungsprozess immer unter aller Sau. Hinzu kommt auch noch der Wechsel auf GDDR5X stattfindet, die Chips Moment ebenfalls nur in sehr begrenztem Maße hergestellt werden können. Zudem sind die auch noch sehr teuer, da die Yield Raten dort sicherlich auch noch sehr hoch sein werden.
 
sTOrM41 schrieb:
Warum bitte soll das jetzt übertrieben sein?

Das ist Marktwirtschaft und genau so funktioniert Marktwirtschaft.

Du hast mich nicht verstanden.

Ich verstehe vollkommen dass die 1080 für mehr als 500€ angeboten wird. Ist ganz normal wenn man gerade das neue und schnellste Produkt am Markt anbieten kann. Deswegen sind Forderungen ala "mehr als 500€" einfach nur naiv. genauso naiv ist aber der von dir vorgeschlagene Ramschverkauf der Fury für 100€ das Stück.

Genau hier hat Conceptions recht. Wem es nicht passt => Konsumverzicht oder einfach aufhören herum zu weinen.

Keine Angst ich versteh die Marktwirtschaft und btw haben wir in Dt. eigentlich eine "Soziale Marktwirtschaft"
 
..::Borni::.. schrieb:
Und was in der GPU Branche passiert wenn man seine Kosten nicht deckt haben wir an 3Dfx und ATI gesehen. Gilt natürlich auch für alle anderen Sparten in der freien Marktwirtschaft.

Jepp. Ich bin schon gespannt wie AMD mit der neuen Generation gedenkt die Kosten zu decken. Zu 16nm und nVidia habe ich bezüglich Kosten der Entwicklung die Zahl 2 bis 3 Milliarden Dollar gefunden. Weiß nur nicht ob das die Entwicklungskosten für den Fertigungsprozess, die Entwicklungskosten für das Chipdesign oder beides gemischt war.
Wie auch immer sich das verteilt, am Ende muss es jemand bezahlen. Und das werden sicherlich nicht nVidia und auch nicht TSMC tun.
TSMC nimmt entsprechende Preise von nVidia und nVidia entsprechende Preise von den Kunden. Fragt sich was AMD nehmen muss, um gerade bei den kleinen Varianten unterhalb von Vega kostendeckend zu arbeiten.
 
Zuletzt bearbeitet:
noxon schrieb:
Das einzige relevante hier sind die Yield-Raten und um nichts Anderes und die sind bei einem Wechsel auf einen neuen Fertigungsprozess immer unter aller Sau. Hinzu kommt auch noch der Wechsel auf GDDR5X stattfindet, die Chips Moment ebenfalls nur in sehr begrenztem Maße hergestellt werden können. Zudem sind die auch noch sehr teuer, da die Yield Raten dort sicherlich auch noch sehr hoch sein werden.
Der nächste Quartalsbericht inklusive Rekordgewinnmeldung wird verraten, wie mies die Yieldraten und die Kosten damit wirklich sind
 
Depp_vom_Dienst schrieb:
Ziemlich gewagte Aussage, wenn man keine Ahnung davon hat. Das geht natürlich nur gut, wenn der Netzteilhersteller die Kabel überdimensioniert hat und das Netzteil ausreichend Leistung auf der Schiene bringt, an der der 8-pin Port hängt.

Also lieber erstmal informieren, bevor man so einen Mist von sich gibt.
bei 225w -> 6,25A pro kabel(3x12V), die im schnitt 2,5mm²(schätzung meinerseits atm) haben - geht locker, da würde sogar noch viel mehr gehen ...
 
sTOrM41 schrieb:
da haste sogar recht, allerdings bin ich hier immerhin jemand der überhaupt irgend etwas belegt anstatt einfach irgend etwas von sich zu geben.

Ich sehe bei anderen auch Links (z.b. bei mir...........) 2 Andere Forenmitglieder geben ihre eigene Erfahrung an - wie will man dazu einen Link bekommen?

Du machst dich aber leicht lächerlich desto öfter du Balkendiagramme mit FPS postest und nicht Frametimeverläufe. Aber Hauptsache Andere als "Mob" deklassieren. Man kann sich eben die technischen Eigenheiten schön reden oder versuchen objektiv zu sehen was für ein "Problem" die 970 hat und parallel dazu den Treibersupport bei der 700er Serie nach erscheinen der 900er anschaut..... ich weiß das sind alles Verschwörungstheorien und ich bin ein von AMD angestellter Troll...
Ergänzung ()

sTOrM41 schrieb:
wenn du mir verrätst wie ich ich mein gta wieder zum laufen bewege zeige ich die sogar wie dieses spiel auf der 970 läuft.

Starkes Ding- wieso Argumentieren wir mit dir überhaupt noch :freaky:
 
Schon eigenartig das hier immer wieder von der schnellsten Karte geredet wird obwohl es die Pro Duo gib, welche interessanter Weis ein keinem mir bekannten Test als Vergleichsmodell auftaucht. Der Preis scheint ja laut Aussage diverser User keine Rolle zu spielen.
 
Könnte daran liegen, dass es keine Single GPU Karte ist. Kann auch daran liegen, dass AMD keine Sample Karten rausgegeben hat. Kann sein das die keine rausgeschickt haben, da vernichtende Reviews zu erwarten wären. Das Teil ist der reinste Speicherkrüppel.
 
@Wadenbeisser: Könnte daran liegen, dass es von AMD keine Testmuster gegeben hat und sich sicherlich kein Magazin die 1500 Euro ans Bein binden möchte. Und genauso wie angeblich der Preis bei diversen Usern keine Rolle zu spielen scheint, scheint der Stromverbrauch anscheinend bei diversen anderen Usern keine Rolle zu spielen. Könnte an unterschiedlichen persönlichen Präferenzen liegen.

Nur mal zur Info: Die Pro Duo hat 3 8-Pin Stromstecker für theoretische 525 Watt verbaut.
 
Zuletzt bearbeitet:
@Fruuky & DocWindows
Das es eine dual GPU Karte ist ist irrelevant da es um die Grafikkarte und nicht um die GPU geht.
Selbst seiten wie PPGH, welche die Pro Duo getestet hatten ließen sie bei der GTX1080 außen vor und nach den bisherigen Testergebnissen hätte man zumindest 2 Nanos als Stellvertreter antreten lassen können aber auch diese blieben außen vor.
 
Ich sehe keinen Sinn darin Doppel-GPU Karten gegen Single-GPU Karten antreten zu lassen, Sorry. Wenn die Pro Duo gegen ein SLI aus 2 1080 gestellt wird, meinetwegen. Aber die Anzahl der alternativen Grafikkarten so lange zu erhöhen bis man ein für sich passendes Ergebnis hat, macht 0 Sinn. Es ist einfach nur beliebige Spielerei.
Wenn sogar 2 Nanos als Stellvertreter fungieren können, kann man auch gleich gegen ein Quad-SLI aus 4 Titan X testen. Was jeweils schneller ist weiß ich jetzt schon.
 
Wolfgang schrieb:
...
Die Pro-ALU-Leistung ist bei Maxwell und Pascal aber identisch.
...
Wie ist diese Aussage genau einzuordnen?
Beudeutet das, dass Pascal lediglich durch den Takt die gebotene Leistung erreicht und die "neue" Architektur mehr oder minder kaum was zur Leistungsteigerung beiträgt?
 
Fruuky schrieb:
Das Teil ist der reinste Speicherkrüppel.
zeigt wie immer, du hast keine ahnung. befasse dich lieber erstmal besser mit pro duo!
 
Warum ist die Karte immer noch nicht unter Gaming Last auf ca. 65-67°C, luftgekühlt, wie in der Präsentation? Das scheint hier niemanden zu interessieren.

Fury X Overclockers dream.
1080 Cool as a cucumber.

Warum macht man sowas, obwohl die genau wissen sollte, dass das gar nicht stimmt? :/

Natürlich lässt sich ein Fury X mit LN2 overclocken.
Natürlich lässt sich ein 1080 mit Wasserkühlung bändigen oder man setzt den Lüfter auf 100% und betäubt sich die Ohren damit...
 
issenia schrieb:
Wie ist diese Aussage genau einzuordnen?
Beudeutet das, dass Pascal lediglich durch den Takt die gebotene Leistung erreicht und die "neue" Architektur mehr oder minder kaum was zur Leistungsteigerung beiträgt?
Die neue Strukturbreite bringt aber eben das höhere Takt Potential und die Karte bezieht daraus ihre Mehrleistung. Taktbereinigt dürfte die Ti mit mehr Shadern vorne liegen.
 
tic-tac-toe-x-o schrieb:
Warum ist die Karte immer noch nicht unter Gaming Last auf ca. 65-67°C, luftgekühlt, wie in der Präsentation? Das scheint hier niemanden zu interessieren.

Fury X Overclockers dream.
1080 Cool as a cucumber.

Warum macht man sowas, obwohl die genau wissen sollte, dass das gar nicht stimmt? :/

Natürlich lässt sich ein Fury X mit LN2 overclocken.
Natürlich lässt sich ein 1080 mit Wasserkühlung bändigen oder man setzt den Lüfter auf 100% und betäubt sich die Ohren damit...

Gab es denn ne Info das die Lüftersteuerung bei der Präsentation auf weniger als 100% stand?
 
Zurück
Oben