News Intels Grafiktreiber mit fragwürdigen Optimierungen?

gruffi schrieb:
Nochmal genau lesen. Intel verstösst damit gegen die Richtlinien des 3DMark Vantage.
Hast du die Regeln schon gelesen? Ich hab auch schon einmal hier gefragt, gegen welche Regel nun verstoßen wird - ich finde keine.

gruffi schrieb:
Jemand schaut sich Vergleiche an und sieht bei AMD und Intel die gleiche Anzahl von Punkten, etwa 2100. Nun ist er unentschlossen, recherchiert weiter und schaut sich mehr Vergleiche an. Schnell merkt er, die AMD IGP ist potenter und bekommt den Zuschlag.
Was passiert nun, wenn die Intel IGP plötzlich 2900 Punkte zu bieten hat? Sie bekommt sofort den Zuschlag und der Kunde merkt nicht mal, wie er veräppelt wurde.
Wenn dann wurde er aber von Futuremark veräppelt: die "Optimierung", die Intel hier durchgeführt hat, kann bei jedem Spiel gemacht werden und bringt in manchen Spielen eine Besserung und in manchen eine Verschlechterung. Man merkt hier vor allem wieder, dass der Futuremark doch immer noch ein sehr spezielles Pflaster ist und nicht viel über die Leistungsfähigkeit von Grafikkarten in echten Spielen aussagen kann.
 
Trotzdem fließen so einige synthetischen Benches in die Gesamtwertung mit ein und jeder ruft dann wie toll doch Intel ist.

Das sich die CPU Leistung durch das Betrügen bei dem reinen Grafikchiptest um 10% verschlechtert ist dann auch so gewollt.
 
Ich sehe hier keinen Betrugsversuch.
Intel lässt doch nur die CPU mitrechnen, was an sich sehr sinnvoll ist.

Auch die Grafikkartenhersteller erhöhen die Ergebnisse, indem sie die CPU-Last erhöhen, wo ist jetzt genau das Problem?

Ich verstehe also die Aufregung nicht...
Wenn sich ein DAU dann eine Kiste damit kauft, weil er meint er könne damit Spielen, dann soll er doch, macht doch nichts und hat mit diesem Test hier rein gar nichts zu tun.

Der kauft sich auch eine Lowend Grafikkarte mit bis zu 1024 MB und glaubt was er da tolles hat und selbst die selbsternannten Experten sind teilweise so dumm, dass sie sich eine Grafikkarte mit viel zu viel Speicher für die gebotene Rechenleistung kaufen.

Fängt doch schon bei den Tests hier an...
Da wird groß getönt:

Wenn eine 4870 auf fast 4890-Niveau in Far Cry 2 bei 1600x1200 schon fast an der Grenze ist, wie soll die 5770 dann flüssig laufen?

Irgendwo muss man dann eben den Verstand einschalten und darf nicht alles glauben, wie wenn in den Foren immer alle erzählen, dass Crysis mit Max-Einstellungen und AA und AF auf der 8800 GT auf der höchsten Auflösung völlig ohne Ruckler läuft.

PS:

Immerhin haben die DAUS im Gegensatz zu uns NERDS nicht das Problem, dass sie sich über solch einen Schwachsinn aufregen müssten.
 
Simpson474 schrieb:
... die "Optimierung", die Intel hier durchgeführt hat, kann bei jedem Spiel gemacht werden und bringt in manchen Spielen eine Besserung und in manchen eine Verschlechterung. .....

Und hier ist auch schon wieder der Haken. Die Grafikkartentreiber von Intel sind mehr als mangelhaft. Gut dann sind die Treiber für eine handvoll Spiele und 3DMark optimiert und dann? Dann kommt von Intel nichts mehr und die Treiber veralten und die Leute mit anderen IGPs fahren besser, egal ob nun ATi oder nvidia.


Und zum Thema Marketing. 99% der PC Nutzer sind einfach Laien, dann steht da in großen Lettern geschreiben XXXX 3D Mark Punkte, tolles Produkt. usw

Auf dem Karton meines Gigabyte GA-MA90GP-DS4H wird auch ganz toll mit der HD3300 IGP und den 2800+ geworben die erreicht wurden. Hier geht es Intel nicht um die Leistungsoptimierung, sondern rein darum die Mitbewerber schlechter dastehen zu lassen bzw dem Kunden zu suggerieren sie seien gleichauf.... was aber nicht der Fall ist.
 
gemelli schrieb:
Auch die Grafikkartenhersteller erhöhen die Ergebnisse, indem sie die CPU-Last erhöhen, wo ist jetzt genau das Problem?

Wie ist das gemeint? Beispiel?

gemelli schrieb:
Immerhin haben die DAUS im Gegensatz zu uns NERDS nicht das Problem, dass sie sich über solch einen Schwachsinn aufregen müssten.

full ack ;)
 
Ich kann mir garnicht vorstellen, das sich jemand mit Intel-Grafik diese Benchmarks überhaupt antut.
 
RyoBerlin schrieb:
Öhmmm wenn die Optimierung nicht Benchmarks betrifft sondern bestimmte algorythmen die es auch bei Spielen anwendet ist es ja keine reine Benchmark Optimierung mehr....
Gruffi hat schon recht, ich hab es auch schon versucht zu erklären.
Es ist ja schön wenn Intel in realen Spielen dadurch zulegen kann, ist für alle vorteilhaft. Nur ein Benchmark ist kein Spiel. Der 3D-Mark soll die GPU-Leistung beurteilen. Dadurch ist die CPU-Last auch nicht wirklich hoch. Nicht verwunderlich das Intels Optimierung hier also gut klappt. In realen Spielen aber, hat die CPU noch andere Aufgaben zu erledigen und die Optimierung funktioniert wohl teils gar nicht oder vielleicht schlechter.
Das Problem ist eben dass der 3D-Mark-Ergebnis als Durchschnitt der Spieleleistung angesehen wird.
Simpson474 schrieb:
Man merkt hier vor allem wieder, dass der Futuremark doch immer noch ein sehr spezielles Pflaster ist und nicht viel über die Leistungsfähigkeit von Grafikkarten in echten Spielen aussagen kann.
Richtig, so sieht es aus. Der 3D-Mark ist einfach dumm. Sinn macht einzig ein vernünftiger Testparcour mit reellen Spielen. Vor allem bei weniger versierten Leuten wird der 3D-Mark als alleiniges Kriterium angesehen. Und dann ist es eben ein Problem wenn der X4500 gut abschneidet und von den Leuten das Ergebnis auf alle Spiele umgemünzt wird.
 
Wen man im GPU Benchmark ein CPU zu Untterstützung nimmt, ist das definitiv Betrug.

Als nächstes stecken die noch ne GTS 250 für die PhysX AUfgaben dabei und schon läuft alles super toll.


Aber was will man sagen, wir reden ja von Intel...
 
Ich wäre schon froh, wenn Fallout1/2 mit Resolution Patch in nativer Auflösung auf meinem Netbook laufen würde... aber geht net, da der GMA-Chip für diese (eigentlich 2D-)Beschleunigung über DirectX9 zu lahm ist.

Insofern ist es für mich eher uninteressant, diese unterirdisch langsamen GMAs mit derlei Benchs zu testen. Skandalös ist nicht, dass mit den Treibern optimiert wurde, sondern dass die Performance am Ende immernoch im unspielbaren Bereich liegt ^_^.
 
Turbostaat schrieb:
Und hier ist auch schon wieder der Haken. Die Grafikkartentreiber von Intel sind mehr als mangelhaft. Gut dann sind die Treiber für eine handvoll Spiele und 3DMark optimiert und dann? Dann kommt von Intel nichts mehr und die Treiber veralten und die Leute mit anderen IGPs fahren besser, egal ob nun ATi oder nvidia.
Wobei da die neue Optimierung bei Weitem nicht das größte Problem sind. Wenn man bedenkt, dass die ATI IGP ca. 3x so schnell bei Crysis war als Intels Gegenstück und trotzdem beim Futuremark in etwa das gleiche Ergebnis rauskam, so ist die Situation jetzt auch nicht schlechter (ca. 2x so schnell bei Crysis, dafür ein paar Punkte mehr im Futuremark). Die eigentlich Diskussion hätte auch schon vor dieser Optimierung heißen müssen: ist der Futuremark wirklich geeignet um die Performance einer GPU zu messen - dies hätte zumindest im Vergleich zum 785G von ATI bereits vor dieser letzten Optimierung eindeutig mit "Nein" beantwortet werden müssen.

cbmik schrieb:
Wie ist das gemeint? Beispiel?
Auch wenn es nicht unbedingt das gleiche ist, aber nVidia hatte unter OpenGL schon immer eine sehr gute Optimierung bei den Display Lists - welche natürlich zu Lasten der CPU geht. Dort war es jedoch nicht so kritisch, da Display Lists im Normalfall nur zu Beginn erstellt werden und im normalen Spielbetrieb dann nur noch verwendet werden.
 
Zuletzt bearbeitet:
3D Mark stammt aus einer Zeit, als es noch große Unterschiede zwischen den HW-Konfigurationen gab und hatte daher seine Darseinsberechtigung.

Aber heute, da HW immer homogener und die Leistungen markenübergreifend im gleichen Segment fast gleich aufliegen, ist das nur noch ein Instrument zur Veranschaulichung der theoretischen bzw. synthetischen Leistung abseits der realen Spielewelten. Und gerade die sind es, welche eigentlich die Aufgabe von 3D-Mark übernommen haben und gleichermaßen mit gezielten Optimierungen für die eigene Anwendung die Vergleichbarkeit ad absurdum führen.

Das Intel hier ebenfalls *optimiert* liegt schlicht und einfach daran, dass es geht. Und was gibt es besseres, als auf die eigene HW abgestimmte Anwendungen oder Anwendungen abgestimmt auf die eigene HW.

Ob das jetzt Mogelei ist oder nicht, muss jeder selbst entscheiden.
 
Zuletzt bearbeitet von einem Moderator:
Aus der Konsequenz daraus, müsste man eine faire Vergleichsmöglichkeit schaffen.
Da die Grafikperformance mit dem verwendeten Prozessor mitsteigt, müsste man einen recht schwachen Prozessor nehmen um die reine Grafikperformance überhaupt messen zu können.

In ihrem Intelsystem sollten sie daher mal einen älteren einkern Celeron verbauen und die Tests nochmal wiederholen.

Und was man auch mal messen könnte wäre der höhere Strombedarf so einer Kiste, wenn softwaretechnisch zugearbeitet wird, dann müsste der Stromverbrauch steigen.
 
BTW kann das Intel nicht in vielen Spielen machen.
Verstößt sowieso gegen die Regeln des Futuremark und ist verarsche Pur.
Ich würd mir sowas nicht bieten lassen.
 
Suxxess schrieb:
Da die Grafikperformance mit dem verwendeten Prozessor mitsteigt, müsste man einen recht schwachen Prozessor nehmen um die reine Grafikperformance überhaupt messen zu können.

Aber genau hier liegt doch das Problem: Im Regelfalls limitiert die CPU und lässt somit eine Bewertung der reinen Grafikleistung nicht wirklich zu. Das versuchte man mit der Einführung von 3D-Mark zu umgehen und entwickelte gezielte synthetische Tests für die Grafikkarte, aber genau diese waren dann wieder nicht all zu praxisbezogen, da für die FPSmax immer das Gesamtsystem zählt und nicht die Leistung einer einzelnen HW-Komponente.
 
Zuletzt bearbeitet von einem Moderator:
Zitat von gemelli Beitrag anzeigen
Auch die Grafikkartenhersteller erhöhen die Ergebnisse, indem sie die CPU-Last erhöhen, wo ist jetzt genau das Problem?

cbmik schrieb:
Wie ist das gemeint? Beispiel?
Ich bin mir da nicht so sicher, aber ich glaube es war damals die Radeon 9700, da glaube ich einmal aufgeschnappt zu haben, dass ATI die Treiber derart verbessert hätte, dass man eben in Kombination mit der CPU mehr Leistung rausholt.

Wie und was das damals war... da bin ich leider überfragt, wahrscheinlich ist das heute überall drin und sollte ich mich irren, dann war das eben nicht so... ich weiß jedenfalls noch, dass damals sofort jeder neue Treiber noch mit Modem gesaugt werden musste und dann wurden auch gleich die wildesten Benchmarks gefahren... mit übertaktetem Athlon XP2500 und Alpha Kühler und 9700 (ohne Pro) auf bis zu 380 MHz übertaktet, luftgekühlt versteht sich.

1 % Mehr Leistung... Wahnsinn... heute kann ich über diese Benchmarks auch hier nur noch müde lächeln.

PS:

Wenn jetzt einer versucht mich an meiner Behauptung festzunageln, gerne. Wird mich nicht stören, ich habe mich schon gerechtfertigt...

PPS:

Ich habe mir vor einiger Zeit im Onlineauktionshaus ein ECS 945GCT-M2 Board für deutlich unter 20 € ersteigert. Voraussetzung war:

Billig, Sockel 775 (Unterstützung für E4300), PCIe, DDR2

Als ich den Rechner dann zusammengebaut habe, hatte ich keine Grafikkarte und oh Schreck, was ist denn da an dem Mainboard dran? Ein VGA-Anschluss!

Was soll ich sagen, der intel-Chip macht ein ordentliches Bild (ich weiß ohnehin nicht, wie gewisse Experten die Darstellung des Desktops in gut und schlecht aufteilen) und das hat mir gelangt um das System zu installieren.

Jetzt werkelt da drin eine passive 7600 GT, ein E5200 und 2 GB Ram.

Lange Rede kurzer Sinn: Lasst diese Onboard Chips doch einfach am Leben. Die wollen nur ein wenig den Desktop darstellen und das langt doch auch...

Wenn sie dann noch (sei es auch durch Betrug) ausreichen um Filme abspielen zu lassen, dann ist doch ohnehin alles in Ordnung.


PPPS:

Spielen mit Onboard-Grafik ist genauso sinnvoll wie spielen am Notebook.
Das lustigste ist ja, dass die Mobile-Grafikchips dann noch genauso heißen wie ihre großen Desktop-Brüder, aber meist nur halb so schnell sind.

Das nenne ich dann einmal richtigen Betrug am Kunden!
 
Das macht nur nVidias mobile-Abteilung.
Bei Ati sind fast so schnell wie die Desktop-Brüder.

Diese Vorgehen von Intel ist Anwendungsbezogen.
Die Liste der .exe-Dateien steht in der Datei.
Und es verfälscht zu stark die Leistung der eigentlichen GPU.
Intel will schlicht mehr auf der Packung stehen haben.
Warum sonst bei Vantage? Das bringt niemanden außer Intel etwas.
 
Zuletzt bearbeitet:
die spinner sollten mal lieber die energie die sie für so nen scheiss aufwenden in ihre chips investieren. ka wie man so ne verkorkste moral haben kann. ich hab nacher wegen diesen spinnern nur wieder stress. die leutz stehen dann bei mir im laden und fragen mich warum crysis bei ihnen nicht läuft^^
 
Bei AMD ist eine 4850M eine 4850 Desktop mit etwas weniger Takt. Wobei AMD den Herstellern es offen lässt wie hoch der Takt sein soll.

Bei Nvidia ist eine GTX260M keine GTX260 Desktop sondern eine 9800GT Desktop. Die GTX280M ist eine 9800GTX+ oder eben eine GTX250.
 
Zuletzt bearbeitet:
Hi,
ich finde es eigentlich nicht schlecht, wenn langsamere IGPs durch die CPU unterstützt werden könnten.
Note- und Netbooks zum Beispiel, könnten dadurch Strom sparen und trotzdem bedingt spieleteuglich bleiben.


Wenn die "Optimierungen" auch real beim beim Kunden ankommen, ist das doch eine tolle Sache, da auch ältere Hardware dadurch profitiert.
Es wird doch nur die ungenutzte Rechenleistung der CPU genutzt, wenn sie gebraucht wird.
Ich verstehe nicht warum sich hier einige so darüber aufregen.


Allerdings geht es schon irgendwie an der Zielgruppe vorbei, den IGP mit Crysis zu benchen. Aber das gehört dann wohl zusammen mit dem 3dMark Testergebnis in die Schublade "Bauernfang" .


Schon komisch, erst wollten alle GPGPU und jetz solls doch wieder die olle CPU richten^^...



cheers
 
Zuletzt bearbeitet: (Rechtschreibung....und war bestimmt nicht der letzte Fehler...)
Strom sparen, in dem der größte Stromfresser
an Aufgaben rechnet, die nicht für ihn gedacht sind?

Bei Netbooks kann man das eh vergessen,
der Atom ist viel zu langsam dafür.
 
Zurück
Oben