Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Nvidia GeForce: GTX 1080 schneller als 980 SLI, 1070 so schnell wie 980 Ti
- Ersteller Wolfgang
- Erstellt am
- Zur News: Nvidia GeForce: GTX 1080 schneller als 980 SLI, 1070 so schnell wie 980 Ti
nur ein Mensch
Lt. Commander
- Registriert
- Okt. 2013
- Beiträge
- 1.173
Erkläre doch mal bitte, was deiner Ansicht nach die Leaks aussagen und beachte bitte dabei genau, was dort überhaupt verglichen wird...Fruuky schrieb:Issenia die Leaks sagen das Gegenteil...
A
Amusens
Gast
Dai6oro schrieb:Nö. Async Compute (also mehrer Compute Queues) konnte schon Maxwell. Async Shaders ist aber parallel Compute Queues und Graphic Queue laufen zu lassen und genau das findet keinerlei Erwähnung. Sprich: Nvidia kanns immer noch nicht.
Und bringt das mehr FPS? Oder warum ist viel so wichtig?issenia schrieb:QDai6oro
So sieht es wohl aus. AS bleibt für nVidia auch mit Pascal hardwareseitig wohl ein Ding der Unmöglichkeit.
Somit ist diese Architektur bereits vor dem Launch schon überholt/veraltet.
BookerDeWitt
Lieutenant
- Registriert
- Jan. 2014
- Beiträge
- 1.016
@Amusens
Das ist der Grund, warum die AMD-Karten unter DX12 im absoluten Grafikkartenlimit bis zu 30% zulegen und die nVidia-Karten ein paar Prozent im GPU-Limit verlieren.
Ich schlage vor, du liest dich mal in das Thema ein.
http://m.3dcenter.org/artikel/die-fehlenden-asynchronous-shader-bei-nvidia
Es gibt viel bessere Artikel dazu, andererseits sind diese mMn für Anfänger auch deutlich schwieriger zu verstehen. Unkorrekte Kurzfassung: Async Shaders helfen, Latenzen in der Pipeline zu minimieren und die Shader einer Grafikkarte besser auszulasten.
Das ist der Grund, warum die AMD-Karten unter DX12 im absoluten Grafikkartenlimit bis zu 30% zulegen und die nVidia-Karten ein paar Prozent im GPU-Limit verlieren.
Ich schlage vor, du liest dich mal in das Thema ein.
http://m.3dcenter.org/artikel/die-fehlenden-asynchronous-shader-bei-nvidia
Es gibt viel bessere Artikel dazu, andererseits sind diese mMn für Anfänger auch deutlich schwieriger zu verstehen. Unkorrekte Kurzfassung: Async Shaders helfen, Latenzen in der Pipeline zu minimieren und die Shader einer Grafikkarte besser auszulasten.
OZZHI
Vice Admiral
- Registriert
- Juli 2009
- Beiträge
- 6.588
BookerDeWitt schrieb:Es gibt viel bessere Artikel dazu, andererseits sind diese mMn für Anfänger auch deutlich schwieriger zu verstehen. Unkorrekte Kurzfassung: Async Shaders helfen, Latenzen in der Pipeline zu minimieren und die Shader einer Grafikkarte besser auszulasten.
Dadurch werden Nvidia Karten auch nicht schlechter, sondern AMD (grösster Sprung war bei den R9 390X zu sehen) wird schneller, weil ihre bisher lausige Auslastung korrigiert werden konnte. Der zusätzliche Stormverbrauch muss natürlich nicht erwähnt werden. 330W hust -> http://www.tomshardware.com/reviews...e-multi-adapter-power-consumption,4479-5.html
B
BlauX
Gast
Die MSI ist das einzige Modell, was diesen Verbrauch zulässt.
Solltest schon erwähnen, wenn du das Ergebnis über alle anwenden versuchst
Solltest schon erwähnen, wenn du das Ergebnis über alle anwenden versuchst
Dai6oro schrieb:Nö. Async Compute (also mehrer Compute Queues) konnte schon Maxwell. Async Shaders ist aber parallel Compute Queues und Graphic Queue laufen zu lassen und genau das findet keinerlei Erwähnung. Sprich: Nvidia kanns immer noch nicht.
Lesen scheint nicht deine Stärke zu sein:
Demnach soll die parallele Ausführung von Compute- und Rendering-Aufgaben nun die "Effizienz und Gaming-Performance verbessern".
Das Maxwell das schon kann sollte klar sein, es geht aber um die Effizienz beim Wechsel. Der Aufwand beim Wechsel ist bei AMD quasi null, benötigt kein Context Switch. Compute und Graphic Tasks laufen nie parallel. AMD kann hier jedoch ohne Verlust einfach hin und her schalten. Warum, schau dir das Bild von AMD mit dem Reißverschluss an. Bedeutet mehrere Queues parallel, der Task der bearbeitet wird aber weiter sequentiell. In einer Pipeline liegen also hintereinander - immer wieder zwischen geschoben wenn Platz da ist und Compute Queue ein Task besitzt - aus den Queues Compute und Graphic Tasks. Die dann aus dieser sequentiell bearbeitet werden. NV braucht bis dato einen Context Wechsel der teuer ist. Bedeutet auch dort liegen in der Pipeline Compute und Graphic Tasks hintereinander in gemischter Weiße, folgt nach einem Graphic ein Compute Task in der Pipe oder umgekehrt, muss erst ein Context Switch ausgeführt werden. Der kostet gewaltig Leistung. Um wie es mit der Effizienz nun dort, insbesondere beim Wechsel bzw. Ausführung des Switches, steht weiß bis jetzt außer NV noch keiner. Also gibt es bis jetzt auch noch keine Aussage ob besser oder gleich schlecht. NV behauptet das wurde verbessert. Ob das so ist, wird man sehen. Irgendwas haben sie jedenfalls nach eigener Aussage gemacht. Könnte bedeuten, erheblich reduziert Aufwand oder doch per Hardware. Vielleicht muss Pascal auch kein Context Switch mehr durchführen. Beides würde zur Aussage zu treffen, dass "Effizienz und Gaming-Performance" verbessert wurde. Wer weiß, wer weiß.
issenia schrieb:QDai6oro
So sieht es wohl aus. AS bleibt für nVidia auch mit Pascal hardwareseitig wohl ein Ding der Unmöglichkeit.
Somit ist diese Architektur bereits vor dem Launch schon überholt/veraltet.
Na wenn Pascal den Context Switch nun deutlich schneller kann, braucht es das auch nicht. Es gibt mehrere Wege das zu lösen oder zu implementieren. Das hat nichts mit "überholt/veraltet" veraltet zu tun, sondern eine Design Geschichte. Ob und wie werden wir in späteren Tests sehen.
-> Also wissen wir aktuell rein gar nichts, außer das was gemacht wurde.
Zuletzt bearbeitet:
BookerDeWitt
Lieutenant
- Registriert
- Jan. 2014
- Beiträge
- 1.016
ODST schrieb:Dadurch werden Nvidia Karten auch nicht schlechter, sondern AMD (grösster Sprung war bei den R9 390X zu sehen) wird schneller, weil ihre bisher lausige Auslastung korrigiert werden kann.
Nun ja, die nVidia-Karten werden durch ihre Preis/Leistung sowie die geringere Langlebigkeit schlechter. Eine 300€ 390 ist unter DX12 so schnell, wie eine OC 980Ti für über 600€? Mir würde das als Käufer nicht gefallen. Den Bash mit "lausiger Auslastung" kannst du dir auch sparen, jede Architektur hat unter DX11 immer Bereiche, die idlen, da sie durch die API nicht angesprochen werden können. Unter DX12 wird zumindestens versucht, diese Lücken zu stopfen. Wenn auf einer Konsolen-GPU 35% Mehrleistung generiert wurde, dann erkennt man, welches Potential darin steckt. Vielleicht mag nVidia tatsächlich deren Shader bereits unter DX11 dank massiv angepasstem Treiber besser auslasten. Dennoch sollte auch Maxwell gut umgesetzte Async Shader helfen.
Auf den erhöhten Strombedarf sind ja bereits andere kompetente User eingegangen.
BookerDeWitt schrieb:Vielleicht mag nVidia tatsächlich deren Shader bereits unter DX11 dank massiv angepasstem Treiber besser auslasten. Dennoch sollte auch Maxwell gut umgesetzte Async Shader helfen.
Dann müsste aber Maxwell noch einiges an Rohleistung offen haben die nicht verwendet wird. Das bezweifle ich aber, da sie doch im Gegensatz zu AMD deutlich weniger Tflops haben, aber in den gleichen FPS Regionen arbeiten. AMD profitiert hier besonders, da sie deutlich mehr Rohleistung benötigen als NV, um auf gleiche Werte zu kommen, haben dann aber auch durch Optimierung noch mehr Luft nach oben, wenn der Flaschenhals ala DX11 oder Treiber verbessert wird. Das kann NV nicht so einfach, denn die können über eine bessere Software-Umgebung nicht mehr Rohleistung erzeugen als da ist, denn die ist einfach nicht da.
Das sagt uns dann das Maxwell bereits auf's Maximum ihrer Rohleistung optimiert wurde. Das erklärt dann auch die kaum relevanten Steigerungen von NV bei DX12, denn die Rohleistung wurde bereits bei DX11 auf's massivste ausgenutzt bzw. drauf optimiert. Mehr Rohleistung kann dann NV nicht umsetzen, denn die wird bereits auf die letzten Prozente verwendet. Das ist für den Käufer von AMD gut, wächst doch in der Zukunft noch etwas an Leistung. AMD hat aber für günstigeren Preis gemessen an der Halbleiterfläche verkaufen müssen, um konkurrenzfähig zu sein. Wäre DX12 schon früher gekommen, wäre NV in der Soße gesessen, weil man die Chips auch deutlich größer produzieren hätte müssen, weil mehr Rohleistung gefragt ist. Das hätte die Marge verkleinert. Heißt, NV Produktmanager haben beim Verkauf wieder alles richtig gemacht, Marge erhöht durch Optimierung und kleiner Fläche. Wirtschaftlich sind die durchaus recht kompetent, wenn es auch mit der Kommunikationsfähigkeit immer etwas hapert
Zuletzt bearbeitet:
IXI_HADES_IXI
Commodore
- Registriert
- Apr. 2006
- Beiträge
- 4.247
Hardwareluxx AOS
Ganz so rosig scheint es in Direct X 12 auch nicht zu sein mit den neuen Karten.
Denke auch ohne DX12 wird die Leistung in jetzigen Games der 1080 und 980 TI in etwa gleich ausfallen...
Immer mehr Informationen sickern durch und die versprochene Leistung wird wie immer nicht erreicht werden...
Ganz so rosig scheint es in Direct X 12 auch nicht zu sein mit den neuen Karten.
Denke auch ohne DX12 wird die Leistung in jetzigen Games der 1080 und 980 TI in etwa gleich ausfallen...
Immer mehr Informationen sickern durch und die versprochene Leistung wird wie immer nicht erreicht werden...
Zuletzt bearbeitet:
Dai6oro
Admiral
- Registriert
- Okt. 2006
- Beiträge
- 9.718
strex schrieb:Lesen scheint nicht deine Stärke zu sein:
Das Maxwell das schon kann sollte klar sein, es geht aber um die Effizienz beim Wechsel. Der Aufwand beim Wechsel ist bei AMD quasi null, benötigt kein Context Switch. Compute und Graphic Tasks laufen nie parallel. BlaBlub l
http://images.anandtech.com/doci/10195/pastedImage_5.png
https://community.amd.com/community/gaming/blog/2016/03/28/asynchronous-shaders-evolved
AMD kann beides. Parallel und schneller Context Switch aber weißte ja ne?
Zuletzt bearbeitet:
Tramizu
Vice Admiral
- Registriert
- Sep. 2014
- Beiträge
- 6.281
Weis ich auch nicht wirklich, aber ich denke es liegt es am Bratofen/Stromverbrauch der AMD-Karten. Dazu kommt das nVidia auch bei einem 2-Karten-Verbund leichte Vorteile hat (Mikroruckler). Oder für die meisten ist AMD einfach kein Sympathieträger. Waren sie z.B. bei mir auch nicht mehr, seit dem aus Radeon AMD wurde.ODST schrieb:Da stellt sich die Frage, was haben sie denn so falsch gemacht, dass es ab Q2 2014 so bergab ging... ah ja R9 290 Release
http://www.kitguru.net/components/g...op-graphics-cards-hit-10-year-low-in-q2-2015/
Anhang anzeigen 558397
Dai6oro schrieb:AMD kann beides. Parallel und schneller Context Switch aber weißte ja ne?
Aber nicht ein einzelner Shader, der bearbeitet auch nur Compute oder Graphcis. Sonst wären ja beide Balken auf 100%. Der Shader selbst muss bei AMD auch umschalten. Da aber "resource scheduling" wie es im Text schön heißt in Hardware erledigt, stößt die kein Switch mehr an. NV kann auch warps gleichzeitig ausführen.
Man sollte sich vielleicht erst einmal auf eine Größe der Ausführungseinheiten einigen, oder wir schauen uns das Eisenbahnvideo (http://www.pcgameshardware.de/Nvidi...ynchronous-Compute-Schwaeche-Maxwell-1190461/) an
Zuletzt bearbeitet:
pipip
Fleet Admiral
- Registriert
- Jan. 2011
- Beiträge
- 11.409
strex schrieb:Hat auch nichts mit der Sache zu tun, wie man wirtschaftet kann AMD von NV lernen.
Das war kein troll post, es war eher eine Feststellung.
Es wäre für NV wieder die beste Möglichkeit die eigenen Karten(900 Serie) auszubremsen und für den User wäre es auch kaum einsehbar, ob es denn möglich wäre.
Ob das gut oder schlechtes ist, soll jeder für sich selbst entscheiden, das hat nichts mit "Seitenstich" oder "Trollerei" zu tun. Eher mit persönlicher Einstellung.
Ich muss aber auch zugeben, du bist der letzte Mensch mit dem ich über Ethik philosophieren würde.
Zuletzt bearbeitet:
Conceptions schrieb:Wenn du doch so schlau bist, dann erörtere doch in dem Zusammenhang den Begriff "open".
Sich hinstellen und zu sagen "Du bist doof" kann jeder.
ist das wirklich selbst für fanboys so schwer zu verstehen? einfach selbst überlegen, wer wem verbieten kann, für pc zu entwickeln. dann weiss man, wie sehr "open" der pc als plattform ist. man weiss dann auch, das gameworks damit überhaupt nichts zu tun.
Conceptions
Banned
- Registriert
- Dez. 2015
- Beiträge
- 1.003
Und wieder nur am rumbeleidigen. Keine sachliche Ebene möglich.
Es ist eben sehr ironisch von den Vorteilen einer offenen PC Plattform zu reden um dann im nächsten Atemzug (teil-)proprietäre Lösungen anzupreisen.
Es ist eben sehr ironisch von den Vorteilen einer offenen PC Plattform zu reden um dann im nächsten Atemzug (teil-)proprietäre Lösungen anzupreisen.
Alienate.Me
Captain
- Registriert
- Aug. 2010
- Beiträge
- 3.163
es war aber eine köstliche ironie jetzt muss NV nur noch das offene adaptive sync entdecken
Pure Existenz
Banned
- Registriert
- Juli 2013
- Beiträge
- 2.899
[F]L4SH schrieb:Also wenn NVIDIA jetzt pauschal 100$ Aufpreis für das Referenzdesign haben will, dann sollte der Kühler besser verdammt gut und kaum zu überbieten sein. Also halbwegs leise bei guter Performance, Vaporchamber+Heatpipes und Vollkupfer-Lamellen. Ansonsten ist es mal wieder die reinste Abzocke. Eigentlich ist es das auch mit Premiumkühler
Die Fanboys bezahlen es...
Wahrscheinlich haben sie das positive Feedback gelesen und legen nun richtig los.
Also die Leute abzocken.
Somit kostet am Ende eine 1080 über 800.- ohne guten Kühler.
Die guten Modelle dann 900-1.000.-
Günstig im Vergleich zur GTX 980 für damaliges Geld.
(Ironie)
Ähnliche Themen
- Antworten
- 874
- Aufrufe
- 144.231
- Antworten
- 121
- Aufrufe
- 22.473
- Antworten
- 36
- Aufrufe
- 5.339
- Antworten
- 301
- Aufrufe
- 43.235