News Nvidia Turing: Angeblich drei Grafikkarten mit 120 bis 180 Watt geplant

Und was kann Nvidia dafür das AMD DX11 nicht richtig gebacken bekommt, letztendlich liegt es doch an AMD selbst, das sie da schwächer sind als Nvidia und weniger an Gameworks oder sonstige Optimierungen.....
 
Baal Netbeck schrieb:
Ziemlich oft tun sie das....Die Gameworks Spiele werden von Nvidia betreut und natürlich entscheidet Nvidia dann, das es kein DX12 gibt...oder das der DX12 render Pfad mies wird.
Da Nvidia kürlich verlauten ließ, dass sie jetzt low level APIs unterstützen wollen, gehe ich davon aus, dass die nächste oder zumindest übernächste GPU Generation von ihnen auch auf einen Hardwarescheduler setzen werden.
Das würde Maxwell und Pascal behindern....aber dann gibt es bessere Gründe für die Leute neue Nvidia GPUs zu kaufen....klingt also logisch^^
Das entscheidet Nvidia ganz sicher nicht, dafür ist der ISV verantwortlich und der muss Gründe für/gegen eine DX12/Vulkan-Implementierung sehen.

Es ist bis dato nicht offenkundig, dass Nvidia selber jemals eine DX12-Implementierung verhindert hätte.
Und ob der DX12 Renderer mies ausfällt, dass ist nun wirklich im Verantwortungsbereich des Entwicklers und seinem Code, nicht von einem Hardwarehersteller.

Nvidia hat jedenfalls bei mehreren Spielen mitgewirkt, wo es DX12 Support gab, teilweise nur DX12.
Z.B. bei Gears of War Ultimate hat Nvidia mitgeholfen, vermutlich auch bei Gears of War 4, beide Spiele DX12 only.
Rise of the Tomb Raider war ein GameWorks Titel und bekam einen DX12 Pfad später nachgepatched.
The Division war auch ein GameWorks Spiel bzw. hatte GameWorks Middleware wie PCSS und HFTS und bekam einen DX12-Pfad.

Nvidia unterstützt seit Fermi (nicht alle Modelle) DX12, ab Kepler DX12 und Vulkan.
Entsprechend passt die Formulierung das Nvidia "jetzt low level APIs unterstützen wollen" nicht.
Dann meint man eher Hardware, welche besser mit dem Programmcode zurecht kommt, welchen Entwickler bei DX12/Vulkan verwenden, aber es zeigt sich bei den bisherigen Umsetzungen das die Implementierung hauptverantwortlich für die Performance ist und nicht die Architektur.

Wenn Turing die bisherigen Resource-Limits aufhebt und die unterschiedlichen Queue-Types effektiver umsetzt, dann kann das helfen, aber wenn der Entwickler Resource-Barriers, die Speicherverwaltung und ähnliches schlecht umsetzt, dann wird es dennoch langsamer, als unter DX11 laufen.
Sieht man auch bei AMD, Total War: Warhammer und Deus Ex: Mankind Divided (beide Gaming Evolved Titel mit AMD) hatten eine sehr miese DX12-Implementierung (bei Deus durch Patches deutlich verbessert) die auch langsamer, als unter DX11 liefen.
http://www.pcgameshardware.de/DirectX-12-Software-255525/Specials/Direct-X-11-Vulkan-1218975/
 
@Blueline56
Erkläre mal nicht gebacken bekommt. Brechen Spiele auf AMD Karten in DX11 massiv ein? Erzeugen AMD Karten unter DX11 nicht genügend FPS zum flüssig spielen? Laufen AMD Karten immer im Anschlag unter DX11?

Und das du noch immer brav abstreitest das Gameworks AMD Karten eben ausbremst (Obwohl schon oft genug bewiesen), zeigt halt wie immer, das du eben die Realität nicht wahrhaben willst. Aber dann kommst du wieder mit deinem: Ich habe schon X AMD Produkte gekauft. ;)

EDIT:
@Locuza
Rede auch du dir es immer wieder ein. Vielleicht wird es irgendwann doch wahr.
nVidia ist ein Herzensgutes Unternehmen, das immer nur das beste für den Kunden will. ;)
 
  • Gefällt mir
Reaktionen: Thraker
@Dark_Knight

Es gab Grid Autsport (neutraler Titel, früher mit AMD Kooperationen), welches dank dem DX11 Overhead unter 60FPS fiel (290x), während die Konkurrenz deutlich besser performente:
http://www.pcgameshardware.de/Grid-...karten-Benchmarks-CPU-Kernskalierung-1126276/

Auch Watch Dogs 2 viel unter so eine Line mit der Fury X:
http://www.pcgameshardware.de/Watch-Dogs-2-Spiel-55550/Specials/Test-Review-Benchmark-1214553/

Unter Anschlag laufen die DX11 GPUs natürlich nicht, aber AMD könnte die Performance ihres DX11-Treibers verbessern.

Und GameWorks bremst AMD Karten pauschal nicht aus, es gibt schließlich 10 Effekte oder gar mehr im Angebot.
Meistens kommt HBAO+ zum Einsatz, welches sich unauffällig bei beiden Herstellern zeigt.
Anders dagegen HairWorks, teilweise PCSS.

Und nein, Nvidia ist mehr als offensichtlich kein herzensgutes Unternehmen.
Das unglaublich arrogante Abhandeln der 3,5GB Thematik bei der 970 (it's a feature/so you do love 3,5GB <3), der kundenunfreundlichen Verweigerung von Adaptive-Sync Support und vieles mehr, macht es natürlich offen, dass nicht für den Kunden agiert wird (es ist auch kein fester Punkt, jedes Unternehmen bewegt sich auf einer Linie, nur Nvidia bewegt sich extra mies für den Kunden).
Nur sind deswegen nicht alle Dinge welche Nvidia vorgeworfen werden auch automatisch wahr.
 
  • Gefällt mir
Reaktionen: Ludwig55
@Dark_Knight
ich habe ja nicht geschrieben das unter DX 11 AMD Karten nicht Spielbar sind, aber Nvidia kommt mit DX11 besser zu Rande und was Gameworks betrift, klar ist das auf Nvidia zugeschnitten, wenn wunderst, ist ja ihr Baby sozusagen, mich regt nur immer auf, das da auf Nvidia geschimpft wird, umgekehrt in DX12 und Async Compute
zb. , liest man ja auch nirgends das AMD da unfair wäre, siehe zb. Wolfenstein, da spricht auch keiner davon oder regt sich darüber auf, das daß Spiel auf Vega zugeschnitten ist und auch zu recht tut das keiner.

Wenn AMD unter DX11 vor allem mit Draw Calls Probleme hat, ist das alleine AMDs Problem und nicht wie hier oft kolportiert wird Nvidia und Entwickler von Spielen, die einseitig auf Nvidia optimieren, keiner hält AMD ab, es Nvidia gleich zu tun und mehr Softwareentwickler in den Studios zu schicken.
 
  • Gefällt mir
Reaktionen: Ludwig55 und Locuza
Locuza schrieb:
Ob DX11 oder DX12 verwendet wird entscheidet aber nicht Nvidia.

Vielleicht nicht immer, aber beim derzeitigen Gaming GPU Anteil richten sich alle Entwickler danach (tanzen nach nVidias Pfeife, insbesondere, wenn dann Gameworks- oder/und Bundle-Sponsoring noch dazu kommt) und selbst Bethesda als Vorzeige-Partner für AMDs/RTGs Grafikkarten(-architektur), ist auf nVidia angewiesen (um als Großpublisher relevant zu bleiben).

Aller nVidia-Allmachtsphantasien zum Trotz haben bzgl. GPP zum Glück Dell, HP und Intel (sowieso) dagegen aufbegehrt und es zu Fall gebracht, auch wenn man die 3 großen/bei GPUs zweigleisig fahrenden Mainstream-Boardpartner (ASUS, MSI und Gigabyte) wohl schon im Sack hatte.

Des Weiteren ist der Schritt von DX11 zu 12 für die meisten Entwickler unbequem, da letzteres deutlich aufwendiger/schwieriger einsetzbar ist und mehr Knowhow erfordert als das alteingesessene DX11 und bisher ist bei DX12 noch nicht viel (ausser Entlastung alter CPUs) herumgekommen, evt. auch weil nicht fundamental DX12 bei der Entwicklung genutzt sondern nur nachträglich hinzugefügt wird.

Vulkan ist leider immer noch fast Bethesdas Exklusivnische und wenig relevant und ob Microsoft irgendwann ein einfacher zu handhabendes DX13 mit weiteren Vorteilen gegenüber DX11/12 nachschieben wird (ohne nennenswerten Mantle/Vulkan Druck) steht in den Sternen.
 
Zuletzt bearbeitet:
Bin gespannt wann die GTX1180Ti erscheinen wird, wohl eher dann wenn AMD es schafft ihr HighEnd zu präsentieren.

Den Laut WccfTech werden die Karten in 3 Leistungstufen eingeteilt 120, 150 und 180 Watt und mit Preise und Ram Bestückung. Keine Ahnung was Dran ist. Zu dem Soll die 1080 und 1080 ti um 50 und 100$ Gesenkt werden

120 Watt = 1160/65/70 499$ 8GB VRAM
150 Watt = 1170/75/80 599$ 8GB VRAM
180 Watt = 1180/85/90 699-749$ 11GB VRAM
 
Zuletzt bearbeitet:
Natürlich ist es AMDs Schuld, dass sie auf den Hardware Scheduler gesetzt haben in dem Moment als Nvidia erkannt hat, dass die Zeit noch nicht reif ist und damit zurück gerudert ist.
Sie hätten den auch besser überarbeiten können, denn sie hatten ja jetzt einige GPU Generationen Zeit.
Nur über den Treiber geht es wohl nicht...da ist das Problem in der Hardware.

Und so sieht man bei vielen DX11 Spielen wie die AMD GPUs in ein single thread limit laufen und Nvidia es über den Treiber umgeht.
Es gibt natürlich auch Spiele, die für AMD ran gegangen sind und den Hauptthread von Last befreit haben (Total War Warhammer z.B ).
Das ist aber eher die Ausnahme....in der Regel kranken AMD GPUs unter DX11 und solange die Umsetzung nur lieblos gemacht wurde auch unter DX12.

Das sich Spiele Entwickler, die Nvidia mit ins Boot holen um Hairworks usw zu implementieren nicht unbeliebt machen wollen (DX12 pushen) sollte klar sein.
Und das Nvidia bis jetzt kein Interesse daran hatte das zu ändern ist auch klar.
Unter DX11 gewinnen sie ja regelmäßig gegen die direkten Kontrahenten und unter DX12 holt AMD regelmäßig mehr Leistung raus.

Nur ewig kann Nvidia auch nicht auf DX11 sitzen bleiben. Sie wollen ja mehr Features und immer schnellere GPUs....igendwann müssen auch sie den Treiber Hokuspokus aufgeben und eine Lösung mit besserer Multicore Unterstützung und direkteren Wegen(jeder Thread macht seine eigenen Drawcalls und sendet sie direkt zur GPU) wählen.
 
BestinCase schrieb:
Den Laut WccfTech werden die Karten in 3 Leistungstufen eingeteilt 120, 150 und 180 Watt und mit Preise und Ram Bestückung. Keine Ahnung was Dran ist. Zu dem Soll die 1080 und 1080 ti um 50 und 100$ Gesenkt werden
Ich würde auch eine 180Ti neu für 500 Euro kaufen, aber das wird wohl nicht passieren.
Die 1080 liegt gerade neu bei 500 Euro.
 
Hallo zusammen,

@ Chismon

Chismon schrieb:
Des Weiteren ist der Schritt von DX11 zu 12 für die meisten Entwickler unbequem, da letzteres deutlich aufwendiger/schwieriger einsetzbar ist und mehr Knowhow erfordert als das alteingesessene DX11 und bisher ist bei DX12 noch nicht viel (ausser Entlastung alter CPUs) herumgekommen, evt. auch weil nicht fundamental DX12 bei der Entwicklung genutzt sondern nur nachträglich hinzugefügt wird.

Du hast den Nagel ziemlich auf den Kopf getroffen. Vor allem müssen Spiele von Grund auf für Direct X 12 entwickelt werden, um davon wirklich Profitieren zu können. Und dazu ist eben ein höherer Aufwand nötig, Respektive damit einhergehend, höheren Kosten. Dies Scheuen die Firmen, zumal mit Direct X 11 eine ausgereifte Schnittstelle vorhanden ist, wo man alle Macken kennt, mehr oder weniger.

Noch dazu ist, im Gegensatz zu früheren Jahren, mittlerweile genug CPU-Power in jedem Spiele-Rechner. Beide maßgeblichen CPU-Hersteller haben jetzt durch die Bank mehr als ausreichend Potente CPU`s im Programm. Aus meiner Sicht kommt da eines zum anderen. Die Notwendigkeit ist nicht mehr so gegeben wie noch vor 2-3 Jahren.

So long....
 
  • Gefällt mir
Reaktionen: Chismon
Luxmanl525 schrieb:
Noch dazu ist, im Gegensatz zu früheren Jahren, mittlerweile genug CPU-Power in jedem Spiele-Rechner. Beide maßgeblichen CPU-Hersteller haben jetzt durch die Bank mehr als ausreichend Potente CPU`s im Programm.
Sehe ich nur bedingt so.
Ja die CPUs sind potenter geworden, das ist aber vor allem durch mehr Kerne im Mainstream geschehen.
Die single core Leistung ist zwar auch gestiegen aber nicht so wie die Anforderungen der Spiele.
Noch ist das dadurch überkompensiert worden, dass inzwischen auch DX11 Titel mehr als 4 Threads sinnvoll nutzen können.
Das hat die 4 core 8 thread CPUs aufgewertet und endlich bringen auch 6 und 8 Kerne mehr Leistung.

Aber die vielen Kerne und Threads richtig nutzen kann eigentlich nur DX12 und Vulkan.
Ich habe einige Spiele getestet(ja mit AMD GPU). Und was da DX12 für einen Unterschied macht ist gewaltig.
Rise of the Tomb Raider, Hitman und natürlich Ashes of the Singularity....alle drei brechen unter DX11 stark ein, sobald die Szene CPU lastig wird. Und DX12 schafft es einfach die Threads auch auszunutzen.

Egal wie gut DX11 auch optimiert ist, ab einem gewissen Punkt wird DX12 gewinnen.
In AotS liegt im DX12 CPU Test die Auslastung meiner 16 Threads zwischen 80-90%.
Und da wurde immer behauptet, das Spiele nie so gut parallelisiert werden könnten, dass eine 8 Kern CPU Sinn macht.

Das die Entwickler die low level APIs scheuen weil es oft noch Neuland ist, da stimme ich dir zu...aber es wird wohl kein Weg daran vorbei führen. Und ich bin mir sicher, dass Nvidia auch besser in DX12 abschneiden könnten wenn sie denn wollen.
 
BestinCase schrieb:
Bin gespannt wann die GTX1180Ti erscheinen wird, wohl eher dann wenn AMD es schafft ihr HighEnd zu präsentieren.
Die 1080 Ti ist so viel schneller als die Vega 64 bei gleichem Preis, dass es mich
wundern würde, wenn der Nachfolger schneller wäre - wiederum bei gleichem Preis.
In Far Cry 5 zum Beispiel sind das unabhängig von der Auflösung 20% Differenz.

Schwer vorstellbar, dass AMD das mit einer Generation aufholt oder toppt - und das
bei gleicher Energie-Effizienz. Ich sehe Nvidia hier überhaupt nicht unter Zugzwang,
zumal AMD mal wieder nichts in den Startlöchern hat, genau wie damals zum Release
der 1080/1080Ti.

Da fehlt mindestens 1 Jahr von AMD auf Nvidia, zumal man noch im Hinterkopf haben
muss, dass Nvidia sich in den letzten 2 Jahren mit dem R&D Team massiv auf die AI
/Deep Learning Geschichte und den Automotive Sektor fokussiert hat, d.h. die sind
mglw. nicht an die Grenzen gegangen. Sieht man auch gut an der 1060, die selbst
mit kleinerem Speicherinterface der 580 ziemlich gut das Wasser reichen kann.

Wenn man sieht, dass Nvidia aktuell nicht nur eine bessere Performance pro Watt,
sondern auch bessere Leistung pro Euro hat, müsste Vega 2 DIE Überraschung der
letzen 10 Jahre werden. Nicht wie Ryzen, also nur durch den Preis und Parallelisierung
besser, sondern durch schiere Performance. Und wo soll so ein Plus bitte herkommen?
 
Neue Maßstäbe wird so oder so erst die 1180Ti setzen. Da stehen aber 300W TDP im Raum und selbst 250W der aktuellen 1080ti sind gerade im Sommer alles andere als schön.^^

Für mich ist der Stromverbrauch immer noch Nebensache. Ich will maximale Leistung für meinen 4k Monitor. Über 250 Watt kann ich da nur Müde lächeln. Hatte damals ein Sli Verbund aus zwei Gtx480, da verbrauchte schon eine Karte 450 Watt, zusätzlich dazu hatte ich den I7 auch noch übertaktet. 350W TDP wären für mich vollkommen akzeptabel, wenn geliefert wird. Dieses Effizienzgesülz kotzt mich an! :D
 
Zuletzt bearbeitet:
Chismon schrieb:
Vielleicht nicht immer, aber beim derzeitigen Gaming GPU Anteil richten sich alle Entwickler danach (tanzen nach nVidias Pfeife, insbesondere, wenn dann Gameworks- oder/und Bundle-Sponsoring noch dazu kommt) und selbst Bethesda als Vorzeige-Partner für AMDs/RTGs Grafikkarten(-architektur), ist auf nVidia angewiesen (um als Großpublisher relevant zu bleiben).

Aller nVidia-Allmachtsphantasien zum Trotz haben bzgl. GPP zum Glück Dell, HP und Intel (sowieso) dagegen aufbegehrt und es zu Fall gebracht, auch wenn man die 3 großen/bei GPUs zweigleisig fahrenden Mainstream-Boardpartner (ASUS, MSI und Gigabyte) wohl schon im Sack hatte.

Des Weiteren ist der Schritt von DX11 zu 12 für die meisten Entwickler unbequem, da letzteres deutlich aufwendiger/schwieriger einsetzbar ist und mehr Knowhow erfordert als das alteingesessene DX11 und bisher ist bei DX12 noch nicht viel (ausser Entlastung alter CPUs) herumgekommen, evt. auch weil nicht fundamental DX12 bei der Entwicklung genutzt sondern nur nachträglich hinzugefügt wird.

Vulkan ist leider immer noch fast Bethesdas Exklusivnische und wenig relevant und ob Microsoft irgendwann ein einfacher zu handhabendes DX13 mit weiteren Vorteilen gegenüber DX11/12 nachschieben wird (ohne nennenswerten Mantle/Vulkan Druck) steht in den Sternen.
Irgendwo muss es ja auch rational ablaufen.
Oder sollen Entwickler GPU-Hardware, welche den größten Marktanteil im PC-Umfeld besitzt, links liegen lassen ohne irgendwelche Optimierungen?
Nur weil man sich an die Marktrealität richtet tanzt man nicht nach der Pfeife eines Herstellers.

Marktrealität ist auch das AMDs GCN in den Konsolen steckt und eine Menge Engine Code und Assets danach gerichtet sind und Nvidia dagegen insgesamt wenig tun kann.

DX12/Vulkan werden in naher Zukunft vor allem dank besserer Tools (Radeon GPUProfiler, Nvidia Nsight Graphics, Microsoft Pix, RenderDoc) und Validation-Layer profitieren, es gibt auch eine Menge Middleware (AMD Memory Allocator, V-EZ), welche die Handhabung erleichtern.
Der Faktor Zeit ist aktuell wie es scheint das Hauptproblem, nicht das API-Design.

Baal Netbeck schrieb:
Natürlich ist es AMDs Schuld, dass sie auf den Hardware Scheduler gesetzt haben in dem Moment als Nvidia erkannt hat, dass die Zeit noch nicht reif ist und damit zurück gerudert ist.
Sie hätten den auch besser überarbeiten können, denn sie hatten ja jetzt einige GPU Generationen Zeit.
Nur über den Treiber geht es wohl nicht...da ist das Problem in der Hardware.

Und so sieht man bei vielen DX11 Spielen wie die AMD GPUs in ein single thread limit laufen und Nvidia es über den Treiber umgeht.
Es gibt natürlich auch Spiele, die für AMD ran gegangen sind und den Hauptthread von Last befreit haben (Total War Warhammer z.B ).
Das ist aber eher die Ausnahme....in der Regel kranken AMD GPUs unter DX11 und solange die Umsetzung nur lieblos gemacht wurde auch unter DX12.

Das sich Spiele Entwickler, die Nvidia mit ins Boot holen um Hairworks usw zu implementieren nicht unbeliebt machen wollen (DX12 pushen) sollte klar sein.
Und das Nvidia bis jetzt kein Interesse daran hatte das zu ändern ist auch klar.
Unter DX11 gewinnen sie ja regelmäßig gegen die direkten Kontrahenten und unter DX12 holt AMD regelmäßig mehr Leistung raus.

Nur ewig kann Nvidia auch nicht auf DX11 sitzen bleiben. Sie wollen ja mehr Features und immer schnellere GPUs....igendwann müssen auch sie den Treiber Hokuspokus aufgeben und eine Lösung mit besserer Multicore Unterstützung und direkteren Wegen(jeder Thread macht seine eigenen Drawcalls und sendet sie direkt zur GPU) wählen.
Es gibt zig unterschiedliche Hardware-Scheduler und die ganze Thematik wird meist falsch dargestellt.
Siehe folgenden Beitrag und weitere:
https://www.computerbase.de/forum/t...-wow-und-bei-hdr.1813364/page-2#post-21520779

Nvidia ist nie zurück gerudert was den Aspekt angeht, sondern hat das Queue-Management stets verbessert und AMD hindert auch nichts daran ihre Treiberimplementierung zu verbessern und dort das Ganze soweit es geht Multithread fähig zu machen, z.B. sind Deferred Contexts bzw. Multithreaded Command-Lists ein offizieller Standard von DX11, welchen AMD und Intel nicht umsetzen und die HW-Scheduler, die sich bei AMD in dem Kontext sowieso nur um Compute-Queues kümmern, hindern sie daran nicht.
----

Und ein paar Entwickler haben sich dann wohl bei Nvidia ungeliebt gemacht?
Nixxes/Square Enix hat bei Tomb Raider DX12 implementiert (GameWorks Spiel), Massive Entertainment/Ubisoft bei The Division 2 (GameWorks Spiel).

Luxmanl525 schrieb:
Du hast den Nagel ziemlich auf den Kopf getroffen. Vor allem müssen Spiele von Grund auf für Direct X 12 entwickelt werden, um davon wirklich Profitieren zu können. Und dazu ist eben ein höherer Aufwand nötig, Respektive damit einhergehend, höheren Kosten. Dies Scheuen die Firmen, zumal mit Direct X 11 eine ausgereifte Schnittstelle vorhanden ist, wo man alle Macken kennt, mehr oder weniger.

Noch dazu ist, im Gegensatz zu früheren Jahren, mittlerweile genug CPU-Power in jedem Spiele-Rechner. Beide maßgeblichen CPU-Hersteller haben jetzt durch die Bank mehr als ausreichend Potente CPU`s im Programm. Aus meiner Sicht kommt da eines zum anderen. Die Notwendigkeit ist nicht mehr so gegeben wie noch vor 2-3 Jahren.
Die Limitierungen von DX11 sind gegenüber DX12/Vulkan aber immer gegeben, entsprechend bleiben auch die Argumente für so eine Umsetzung, im Gegenteil spricht über die Zeit dennoch immer mehr für DX12/Vulkan.
Die Perf/Watt ist besser, im mobile Bereich kann man mehr herausholen und man kann neue Rendering-Architekturen etablieren, wo das DX11-Modell gar nicht vernünftig mitkommt.
Wolfenstein II verwendet viele Draw-Calls ohne aufwendiges Batching, damit die Artists bei ihren Geometrie-Budget nicht so pingelig aufpassen müssen, dass beschleunigt und vereinfacht die Content-Erstellung.
Die Raytracing DXR API wurde aufgrund der API-Konzepts von DX11 gar nicht dafür umgesetzt, wer die API verwenden möchte kommt um DX12 gar nicht herum und wenn er nur Compute-Shader mit den API-Schranken von DX11 verwenden möchte, muss er eben mit den Restriktionen und der schlechten Performance leben.
Und Spiele werden kontinuierlich komplexer, die Pro-Kern-Performance ist aber seit 2015 nur durch den Takt gestiegen und Multi-Threading skaliert mit DX11 schlechter.
Wenn die Next-Gen Konsolen 2020/21 erscheinen, dann hält auch die schwache Jaguar-Performance den Grad der Komplexität nicht mehr auf.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: Oneplusfan, Ludwig55 und Galatian
@Wadenbeisser

Ich bin da größtenteils eigentlich total bei dir. Die Punkte nehme ich dir aber wie gesagt nicht ab. Du kannst nicht einfach die Titan bzw. Ti dazu packen, damit dein Argument wieder passt. Die x80 Serie bei NVIDIA kostet seit es die Tesla Architektur gab 500$ MSRP. Das was durch kleine Fertigung eingespart wurde, gleicht gestiegene Kosten durch immer teurere Fertigung und Inflation so ziemlich aus. Auch die MSRP der 1080 ist ganz offiziell bei 499$; natürlich darf man gerne anprangern, dass NVIDIA mit der Founders Edition Early Adopter gemolken hat. Es darf aber bitte jeder selbst entscheiden, ob er - wohlwissend weil NVIDIA die Preisgestaltung der FE klar kommuniziert hat - das Angebot annimmt oder nicht.

Im übrigen - und das geht auch raus an @Shrimpy - hatte die 680 zur 580 ebenfalls 500 Millionen Transistoren mehr. Sie blieb also total im Gefüge; letztlich hat NVIDIA oben nur noch eins drauf gesetzt und halt noch größere Karten auf den Markt gebracht. Warum sich darüber immer aufgeregt wird ist mir schleierhaft. Die x80 Chips sind damit eben nicht kleiner geworden und eigentlich auch nicht teurer.

Preiskampf bei AMD ist gut und schön, aber es kauft halt auch keiner einer Oberklassewaagen, bei einem Hersteller, der sonst nur mit kleinen kompakten Autos zu trumpfen weiß. VW hat den Phaeton ja 2016 auch eingestellt, nicht etwa weil der Waagen per se schlecht war, sondern weil der Kunde erstmal überzeugt werden musste, dass VW auch anders kann. Wenn AMD halt von einer Generation auf die nächste 200$ mehr verlangt ist das schlicht und ergreifend ne Ansage, weil man dann auch schauen kann was bietet mir die Konkurrenz, die seit jeher auf dem Preisniveau agiert, für Leistung.

Und nein @Shrimpy anhand der Benchmarks von CB ist die 7970 in den allermeisten Spielen gleichauf mit der 680, z.B. bei Bioshock Infinite.
 
Was hier alle meckern. Ich bin von einer gtx680 auf eine 1070 umgestiegen. Viel Leistung, wenig Verbrauch, leise, kühl. Preis vor dem Bitcoin Unsinn akzeptabel. Ich brauche nicht jedes Jahr ne neue Generation.
 
Galatian schrieb:
Das was durch kleine Fertigung eingespart wurde, gleicht gestiegene Kosten durch immer teurere Fertigung und Inflation so ziemlich aus
Man muss doch letztendlich nur auf Nvidias Marge gucken, welche die letzten Jahre nur gestiegen ist, dabei stellt der Gaming-Sektor den mit Abstand größten Umsatzanteil dar und es ist nicht davon auszugehen, dass Nvidas Marge nur wegen besseren Einkünften aus dem Server-Umfeld so stark gestiegen ist.
Entsprechend doch, Nvidia hat die Preise über die Jahre kontinuierlich erhöht.
 
  • Gefällt mir
Reaktionen: Ludwig55
Galatian schrieb:


Im übrigen - und das geht auch raus an [USER=540563]@Shrimpy
- hatte die 680 zur 580 ebenfalls 500 Millionen Transistoren mehr. Sie blieb also total im Gefüge; letztlich hat NVIDIA oben nur noch eins drauf gesetzt und halt noch größere Karten auf den Markt gebracht. Warum sich darüber immer aufgeregt wird ist mir schleierhaft. Die x80 Chips sind damit eben nicht kleiner geworden und eigentlich auch nicht teurer.

Preiskampf bei AMD ist gut und schön, aber es kauft halt auch keiner einer Oberklassewaagen, bei einem Hersteller, der sonst nur mit kleinen kompakten Autos zu trumpfen weiß. VW hat den Phaeton ja 2016 auch eingestellt, nicht etwa weil der Waagen per se schlecht war, sondern weil der Kunde erstmal überzeugt werden musste, dass VW auch anders kann. Wenn AMD halt von einer Generation auf die nächste 200$ mehr verlangt ist das schlicht und ergreifend ne Ansage, weil man dann auch schauen kann was bietet mir die Konkurrenz, die seit jeher auf dem Preisniveau agiert, für Leistung.

Du solltest vielleicht lieber Chipklassen vergleichen.
NVs Benamung ist seit Kepler Schall und Rauch.

GTX 580, GF 110, Highend, 520mm2, 384 Bit SI, 320W Verbrauch
GTX 680, GK 104, Performance Klasse, 294mm2, 256 Bit SI, 228W Verbrauch
Wo ist jetzt das keine Preiserhöhung, wenn man einen Chip der oberen Mittelklasse als
Highend verkauft?

Und natürlich war eine 7970, da deutlich moderneres Featureset, grösser und besser ausgestattet
auch teurer als die GTX 680.
HD 7970, Tahiti R1000, Performance Klasse (-Highend), 365mm2, 384 Bit SI, 296W Verbrauch

Auf lange Sicht hat man ja auch gesehen, dass die GTX 680 gröber an Boden verloren hat.
 
Zuletzt bearbeitet:
Bei Gamezoom stand auch, dass Turing erstmal knapp verfügbar sein wird, weil soviele Altkarten über sind, da offebar die Krypto-Blase geplatzt ist oder so. Ich weiß aber nicht mehr, was die als Quelle angegeben haben. Ich bin mal gespannt, wann und zu welchem Kurs ich meine 1080 loskriege. Bis zum angedachten Marktstart sollte ich auf 200-250€ Ersparnisse kommen und hätte dann rund 600 plus X mit dem Verkauf, hoffe ich. Durch den Verkauf eines anderen Gegenstandes sollten dann 700€ plus X vorhanden sein. Der Marktplatz auf Hardwareluxx bietet andernfalls junge Gebrauchte an.
 
@Banger
Nimms mir nicht übel, aber wenn man effektiv immer über den Verkauf der alten Karten (und anderes Zeug) nachdenken muss, damit man sich die neue Karte leisten kann/möchte, befindet man sich m.M.n. im falschen P/L Segment. Aber wenn man Spass daran hat - go for it. :daumen:

Ich für meinen Teil hoffe, dass der nächste Nvidia Release - GTX 1180 oder wie sie heissen mag, einen „High End“ Chip, wie die 1080 Ti mit sich bringt. Eine wiedermals überteuerte Performance Karte für Ti Preise sollte man sich nicht antun.
 
Zurück
Oben