Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Video: Performance-Vorteil durch DX 10.1
- Ersteller Wolfgang
- Erstellt am
- Zur News: Video: Performance-Vorteil durch DX 10.1
Och, ich finde schon. Man hat erstens das Design deutlich optimiert und zudem die Effizienz gesteigert, sowohl was die Logik, siehe AA, als auch die Thermik betrifft. Bei nVidia war dies in der Tat weniger der drastisch. Der G92 wurde eigentlich nur entschlackt (Fertigungsverfahren, Busbreite) und der G200 nur skaliert (plus einige GPGPU Zusätze wie DP FP).y33H@ schrieb:Vollbracht im Sinne von Neuerungen. Selbst der RV790 ist an sich ja auch "nur" ein R600 mit mehr Funktionseinheiten, höherem Takt sowie D3D10.1. Technisch hat sich da nicht wirklich viel getan
Ja, hast du. Selbst der RV670 konnte schon DP FP.y33H@ schrieb:Habe ich das mit FP64-DPs falsch im Kopf?
Ansichtssache.y33H@ schrieb:Und noch was kann der GT200 - gescheites AF *g*
Daran glaube ich ehrlich gesagt nicht. Ganz im Gegenteil, ich habe da ganz andere Vermutungen. Wie schon gesagt, wir reden über Standardisierung. Da spielt Wirtschaftlichkeit keine Rolle.Konti schrieb:Es ist eine wirtschaftliche Entscheidung gewsesen, DX10.1 auszulassen.
Jetzt lass doch langsam mal deine Unsachlichkeiten stecken. Die RV7xx Generation ist klasse, daran gibt es nichts zu rütteln. Weitaus smarter und wirtschaftlicher als nVidias Monster G200.y33H@ schrieb:Was hat AMD denn im Grafiksektor tolles entwickelt seit dem R600? Nicht viel, sieht man von der D3D10.1-Implementierung ab.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
ob die entscheidung, dx10.1 nicht zu implementieren, rein wirtschaftlich war, ist nichtmal sicher. schließlich untstützen selbst s3-grafikkarten dx10.1 und s3 (bzw via) haben eindeutig ein kleineres budget . ich habe mal gelesen, das nv diesen standart darum nicht unterstützen würde, weil ms den gpu herstellern und spieleprogramieren zu viele vorgaben machen würde und die freiheiten zu stark beschneiden. was da dran ist, weis ich nicht, aber es wäre auch eine erklärung, warum fast kein spielehersteller in den letzten jahren auf diesen standart gesetzt hat.
aus marketing sicht, war der verzicht auf dx10.1 sicher ein nachteil.
aus marketing sicht, war der verzicht auf dx10.1 sicher ein nachteil.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.665
Die verkrüppelten ROPs, ja. Das wars dann aber auch schon. Und von wegen Effizienz - die 5-Vecs sind nach wie vor schwerer auszulasten als die ALUs eine GT200(b) und die geringe Anzahl an TMUs gleicht man durch das qualitativ schlechtere AF aus. Das kann man dann auch "optimieren" nennen.gruffi schrieb:Man hat erstens das Design deutlich optimiert und zudem die Effizienz gesteigert
Der Chip ist kleiner, ergo passen mehr auf einen Wafer und man kann billiger produzieren. ABER:gruffi schrieb:Die RV7xx Generation ist klasse, daran gibt es nichts zu rütteln. Weitaus smarter und wirtschaftlicher als nVidias Monster G200.
Man spart an den TMUs und pumpt die Transistoren in die ALUs und bewirbt dann die theoretischen 1,2 GLFOPS die man in der Praxis nicht mal annähernd erreicht. Und wenns dann eine Anwendung gibt, die mit den 5-Vecs sehr gut skaliert - den Furmark - wird die Leistung bewusst gedrosselt, weil viele HD4870 (vor allem Custom-Designs) ansonsten überhitzen. Und ganz nebenbei sprengt man auch noch die PCIe-Spezifikationen.
Klasse und smart? Nun ja.
Denke ich nicht. AMD hat das ja kaum beworben.Lübke schrieb:aus marketing sicht, war der verzicht auf dx10.1 sicher ein nachteil
Zuletzt bearbeitet:
Konti
Banned
- Registriert
- Apr. 2005
- Beiträge
- 6.421
Jo, hier im Forum ... die meisten Leute "da draußen" sind aber lange nicht so informiert.
@gruffi
Welche Vermutung hast du denn? Daß sie's nicht hinbekommen?
Finde ich persönlich dann doch arg weit hergeholt. Wenn's stimmt, dürften wir das ja bald bemerken, da sich NVidia mit derartiger Inkompetenz wohl in kurzer Zeit auf steilem Abwärtskurs befinden dürfte.
Wird sich zeigen, wie lange die für DX11 benötigen ... wenn die damit nicht aus dem Kram kommen, kann man beginnen, an deren Ingenieuren zu zweifeln. Im Moment finde ich das noch ziemlich voreilig.
@gruffi
Welche Vermutung hast du denn? Daß sie's nicht hinbekommen?
Finde ich persönlich dann doch arg weit hergeholt. Wenn's stimmt, dürften wir das ja bald bemerken, da sich NVidia mit derartiger Inkompetenz wohl in kurzer Zeit auf steilem Abwärtskurs befinden dürfte.
Wird sich zeigen, wie lange die für DX11 benötigen ... wenn die damit nicht aus dem Kram kommen, kann man beginnen, an deren Ingenieuren zu zweifeln. Im Moment finde ich das noch ziemlich voreilig.
Ich glaube, du verstehst nicht, was mit Optimierung des Designs gemeint ist. Das hat nichts mit der Implementierung der Logik zu tun, sondern dem Die. Genauso wenig wie ich explizit von der Effizienz der Shader Architektur sprach. Und auf welchen Fakten basiert denn, dass ATI ihre Shader nicht so gut auslasten kann wie nVidia? Wieder nur Tagträume? Oder gibt es zur Abwechslung auch mal Belege von dir?y33H@ schrieb:Die verkrüppelten ROPs, ja. Das wars dann aber auch schon. Und von wegen Effizienz - die 5-Vecs sind nach wie vor schwerer auszulasten als die ALUs eine GT200(b) und die geringe Anzahl an TMUs gleicht man durch das qualitativ schlechtere AF aus. Das kann man dann auch "optimieren" nennen.
Doch. Du hast leider das Problem, dass du zu sehr an Spiele denkst.y33H@ schrieb:Man spart an den TMUs und pumpt die Transistoren in die ALUs und bewirbt dann die theoretischen 1,2 GLFOPS die man in der Praxis nicht mal annähernd erreicht.
Mal abgesehen davon, dass das für mich immer noch ein Hoax ist, aber anscheinend kannst du dich ja an nichts anderem hochziehen, was hat das bitteschön mit AMD zu tun? AMD bzw ATI designed und fertigt nur den Chip. Wenn Partner dann minderwertige Komponenten auf der Karte verbauen, ist das nicht deren Schuld.y33H@ schrieb:Und wenns dann eine Anwendung gibt, die mit den 5-Vecs sehr gut skaliert - den Furmark - wird die Leistung bewusst gedrosselt, weil viele HD4870 (vor allem Custom-Designs) ansonsten überhitzen. Und ganz nebenbei sprengt man auch noch die PCIe-Spezifikationen.
Im Vergleich zu nVidia natürlich.y33H@ schrieb:Klasse und smart? Nun ja.
Nein. Ich vermute eher, dass ihre Architektur davon weniger profitiert bzw schlechter skaliert als die Konkurrenz.Konti schrieb:Welche Vermutung hast du denn? Daß sie's nicht hinbekommen?
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.665
Sie sollten aber ein Auge drauf haben und das Problem nicht einfach "lösen" in dem sie per Treiber die Software limitieren.gruffi schrieb:Wenn Partner dann minderwertige Komponenten auf der Karte verbauen, ist das nicht deren Schuld.
Ich belege alles falls gewünscht Bitte sehr *LINK*gruffi schrieb:Und auf welchen Fakten basiert denn, dass ATI ihre Shader nicht so gut auslasten kann wie nVidia? Oder gibt es zur Abwechslung auch mal Belege von dir?
PCGH schrieb:In der Gesamtübersicht fällt auf, dass die real erreichte Pixel-Shader-Leistung der Geforce-GTX-Karten trotz nominell großen Rückstandes meist höher liegt als die der HD 4800.
Darauf liegt nun mal aktuell noch der Fokus einer solchen Karte für den Heimanwender. Oder willst du ernsthaft behaupten die Mehrheit der HD4870- oder GTX280-Nutzer nutzt die Karte nicht zum zocken, sondern für andere Dinge?gruffi schrieb:Du hast leider das Problem, dass du zu sehr an Spiele denkst.
Und zudem das Referenz-PCB und Angaben zur TDP. Und wenn diese mit der Realität bzw. dem Worst-Case wenig zu tuen hat, ist das die Schuld von AMD, weil dieses Werte an die Boardpartner weitergeben.gruffi schrieb:AMD bzw ATI designed und fertigt nur den Chip
HT4U schrieb:AMD hat offenbar ein Problem mit dem Design dieser Boards, denn damit hatte man nicht gerechnet. Die Übergabe der TDPs an den Hersteller des Referenzkonstrukts führte zu dem erwarteten Punkt. Die GPU wurde ausreichend gekühlt, diese kleinen Bauteile aber sind nicht ausreichend durch die Abluft zu kühlen. Und damit haben die Konstrukteure nicht gerechnet.
[...]
Verglichen zu unserem ersten Test änderte sich wirklich nur wenig. Die HD 4890 spielt wieder überhalb ihrer eigenen Nennung zur Maximum Board Power. Es bleibt weiterhin zu rügen, dass AMD hier Kanada nicht auf die Finger klopft. Derartig unnütze Informationen braucht einfach kein Mensch und es ist schon bezeichnend, dass man die Ansicht vertritt die Presse und insbesondere auch den Anwender problemlos belügen zu können.
Man möge uns diese offenen Worte bitte verzeihen, doch müssen sie endlich in aller Offenheit gesprochen werden, sonst ändert sich einfach nichts. Bei Profi-Karten der Fire-Serie verkauft AMD (wollen wir "sie" vielleicht ATI nennen?) den Partnern eben andere Wertigkeiten - ganz ungeachtet unserer Messungen.
[...]
Lustig bei AMD bleibt aber auch, dass man das Profi-Pendant (Fire) im AMD-Lager zur HD 4870 mit einer "typischen Leistungsaufnahme" von 160 Watt auszeichnet und Peaks von bis zu 220 Watt nennt. Die Präsentation führt sich nach Messungen selbst ad absurdum, da man die Idle-Power eine HD 4870 nun mit 90 Watt nennt, obgleich Messungen von 60 Watt sprechen - die HD 4890 nun darum aber energieeffizienter mit 30 Prozent eingestuft wird - und auch dieses Produkt wurde im Idle mit ca. 60 Watt vermessen. Ein Statement von AMD fehlt leider weiterhin.
[...]
Es wäre an diesem Punkt langsam höchste Zeit, dass AMD auch gegenüber der Presse deutlich offener agiert und klare Zahlen und Fakten kommuniziert. Offenbar scheint es ein paar Leute in Kanada zu geben, welche Presse für den Desktop-Bereich weiterhin als dumm einstuft.
Und was soll das belegen? Dort geht es erstmal um Pixelfüllraten. Dir ist schon bewusst, dass die Shader hier nur eine untergeordnete Rolle spielen? Und wie im Artikel nachzulesen ist, kann man Effizienz unter mehreren Gesichtspunkten betrachten. Letztendlich hängt dies vom Konzept ab. Und ja, da ist ATI teils deutlich effizienter.y33H@ schrieb:Ich belege alles falls gewünscht Bitte sehr *LINK*
Die Effizienz der Shader Architektur kannst du übrigens nur mittels GPGPU stichhaltig nachweisen.
Es ging um die Architektur und nicht um konkrete Modelle. Welchen Markt man damit letztendlich bedient, war doch überhaupt nicht das Thema. Diese werden ja auch im professionellen Bereich verwendet. Die Bedeutung von Spielen tendiert dort gegen Null.y33H@ schrieb:Darauf liegt nun mal aktuell noch der Fokus einer solchen Karte für den Heimanwender. Oder willst du ernsthaft behaupten die Mehrheit der HD4870- oder GTX280-Nutzer nutzt die Karte nicht zum zocken, sondern für andere Dinge?
Was noch lange nicht verbindlich ist. Kannst du mir denn nachweisen, dass Furmark nur mit Karten im Referenzdesign getestet wurde?y33H@ schrieb:Und zudem das Referenz-PCB
Mal abgesehen davon schaue ich mir die HT4U Messungen auch nicht mehr an. Ich gehe davon aus, dass sie grundsätzliche Fehler in ihrer Messtechnik haben. Leider auch schon bei CPU Messungen zu beobachten. Insofern kommentiere ich das nicht.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.665
AMDs praktisch in Spielen erreichte GFLOPS sind deutlich weiter von der Theorie entfernt als die von Nvidia - um mehr geht es mir nicht. Gerade angesichts der PR hinsichtlich der 1.200 GFLOPS ist das imo ebenso kundenfeindlich wie die MBP-Angabe.gruffi schrieb:Und was soll das belegen?
Die im Falle von Grafikkarten welche wären?gruffi schrieb:Ich gehe davon aus, dass sie grundsätzliche Fehler in ihrer Messtechnik haben.
Korrekt. Das das PCB aber nicht verbindlich ist, ergeben sich hier in Kombination mit falsch angegebenen MBP Custom-PCBs, die die SpaWas derart vernachlässigen, dass Abstürze und Defekte auftreten.gruffi schrieb:Was noch lange nicht verbindlich ist.
Es gibt Furmark-Werte von Referenz- wie Custom-PCBs. Ich verstehe leider den Sinn dieser Frage nicht.gruffi schrieb:Kannst du mir denn nachweisen, dass Furmark nur mit Karten im Referenzdesign getestet wurde?
aspro
Captain
- Registriert
- Mai 2004
- Beiträge
- 3.355
lol und ich gehe davon aus, dass du nicht im entferntesten irgendetwas belegen kannst. Was mich zu der Frage bringt, wieso man dich überhaupt ernst nehmen sollte?!gruffi schrieb:Mal abgesehen davon schaue ich mir die HT4U Messungen auch nicht mehr an. Ich gehe davon aus, dass sie grundsätzliche Fehler in ihrer Messtechnik haben. Leider auch schon bei CPU Messungen zu beobachten. Insofern kommentiere ich das nicht.
@y33H@
Wenn du klug bist, spar dir weiteres posten und somit vergeudete Zeit. Allein diese Aussage belegt doch deutlich, dass er nur Argumente akzeptiert, die ihm in den Kram passen.
Und wo ist das Problem dabei? Ist doch schon lange bekannt, dass bei Spielen noch viele freie Ressourcen auf Radeons brach liegen. Interessant wird es dann, wenn zusätzliche Berechnungen ins Spiel kommen, wie Physik oder KI.y33H@ schrieb:AMDs praktisch in Spielen erreichte GFLOPS sind deutlich weiter von der Theorie entfernt als die von Nvidia - um mehr geht es mir nicht.
Nein, ist es nicht. Solche Angaben sind vollkommen üblich. Zudem gibt es nicht nur Spiele. Ist das endlich angekommen?y33H@ schrieb:Gerade angesichts der PR hinsichtlich der 1.200 GFLOPS ist das imo ebenso kundenfeindlich wie die MBP-Angabe.
Ich habe nicht explizit von Grafikkarten gesprochen. Fehler wurden zB beim Nehalem gemacht. Weiterhin gab es sehr viele Ungereimtheiten. So hat man zB mehrfach das gleiche getestet, immer wieder mit anderen Ergebnissen.y33H@ schrieb:Die im Falle von Grafikkarten welche wären?
Insgesamt hinterlässt das nicht gerade einen seriösen Eindruck. Das ist aber meine Meinung. Die musst du nicht teilen. Ich will damit nur sagen, HT4U ist genauso wenig verbindlich wie andere Printmedien auch.
Dann bitte ich um eine Quelle.y33H@ schrieb:Es gibt Furmark-Werte von Referenz- wie Custom-PCBs.
tza
Lt. Commander
- Registriert
- Feb. 2009
- Beiträge
- 1.361
Kindergartenniveau....
Warum manche Menschen nicht einfach mal akzeptieren können das es keine Übermarke gibt...vor allem die geradezu fanatische Bindung an eine Marke als würde man damit was verdienen ohne jeglichen sinnvollen Hintergrund finde ich immer wieder putzig.
NVidia und ATI nehmen sich nix beim Marketing aber die Masse der Kunden springt ja auch drauf an und fasselt dann jeden gequirlten Mist nach und verteidigt diesen dann auch noch vehement. Also hats doch funktioniert. Wenn technische Tests kommen werden diese in frage gestellt und fakten solange verwischt bis es wieder alles ins heile, kleine Gesamtbild passt um ja keine ungereimtheiten aufkommen zu lassen die einen dazu bewegen könnten nachzudenken. Menschen sind schon was tolles...solange sie bloss nicht anfangen über einen Tellerrand zu gucken...ab dann wirds nur kompliziert.
Warum manche Menschen nicht einfach mal akzeptieren können das es keine Übermarke gibt...vor allem die geradezu fanatische Bindung an eine Marke als würde man damit was verdienen ohne jeglichen sinnvollen Hintergrund finde ich immer wieder putzig.
NVidia und ATI nehmen sich nix beim Marketing aber die Masse der Kunden springt ja auch drauf an und fasselt dann jeden gequirlten Mist nach und verteidigt diesen dann auch noch vehement. Also hats doch funktioniert. Wenn technische Tests kommen werden diese in frage gestellt und fakten solange verwischt bis es wieder alles ins heile, kleine Gesamtbild passt um ja keine ungereimtheiten aufkommen zu lassen die einen dazu bewegen könnten nachzudenken. Menschen sind schon was tolles...solange sie bloss nicht anfangen über einen Tellerrand zu gucken...ab dann wirds nur kompliziert.
y33H@
Fleet Admiral
- Registriert
- Apr. 2006
- Beiträge
- 25.665
pcgh.dann bitte ich um eine quelle.
XamBonX
Commander
- Registriert
- Nov. 2002
- Beiträge
- 2.952
A.l.e.x schrieb:Checkt nVidia nicht wie man 10.1 in die Chips einfließen lassen soll, oder warum sträuben die sich seit Jahren DX10.1 zu implementieren o.O
Die Checken es sehr gut sogar. Wozu sinnfreien DX10.1 Chip verbauen, wenn der keinen nutzen hat?
Lieber Geld einsparen und in DX11, auch Sinnfrei, oder anderes investieren.
ATI ist der ganz doofe hier. Die werkeln schon am DX11...das genau für die nächsten Jahren 0 bringt.
Heute gibt's n Handvoll DX10 Spiele....bis DX10 das alte DX9 ersetzt vergehen noch Jahre. Bis dahin hat ATI dann DX200 entwickelt...
Euphoria
Admiral
- Registriert
- Apr. 2007
- Beiträge
- 9.123
@XamBonX
Du hast wohl sehr wenig über DX11 usw. gelesen?
Da es auf DX10 basiert wird es sehr wohl viele Spiele dafür geben.
Die werden auch deutlich schneller kommen als DX10 Spiele.
DX10.1 wird gerade dort die Vorteile ausspielen.
Abwarten und Tee trinken.
Du hast wohl sehr wenig über DX11 usw. gelesen?
Da es auf DX10 basiert wird es sehr wohl viele Spiele dafür geben.
Die werden auch deutlich schneller kommen als DX10 Spiele.
DX10.1 wird gerade dort die Vorteile ausspielen.
Abwarten und Tee trinken.
Ähnliche Themen
- Antworten
- 18
- Aufrufe
- 1.263
- Antworten
- 7
- Aufrufe
- 2.367
- Antworten
- 3
- Aufrufe
- 1.674