News Intel-Ausblick auf „Haswell“, 14-nm-Atoms und neue Grafik

Ralf555 schrieb:
Es ging um die Leistung. Wie bereits geklärt liegt die HD3000 mit aktuellen Treibern auf dem Thron. Erst Llano wird Intel ablösen...bis Ivy Bridge kommt.

Das mag ja ganz toll sein das die fps Zahlen hoch sind, doch entscheidend ist die dabei produzierte Bildqualität. Und die war bei den Intel Grafikchips immer unterste Schublade.
 
Lübke schrieb:
es wurde doch bereits bewiesen, dass die 320m schneller ist. jemand der anderen ahnungslosigkeit unterstellt, sollte wenigstens in der lage sein, balkendiagramme zu lesen :rolleyes::
http://images.anandtech.com/graphs/graph4084/34991.png


Mit veralteten Treibern. Mit aktuellen Treibern wird die HD3000 vorne liegen. Und deine 28 fps average sind so ziemlich unspielbar und daher alles andere als praxisnah.

averageyg6x.png



PiPaPa schrieb:
Das mag ja ganz toll sein das die fps Zahlen hoch sind, doch entscheidend ist die dabei produzierte Bildqualität. Und die war bei den Intel Grafikchips immer unterste Schublade.

Die Bildqualität ist in den getesteten Spielen völlig gleichwertig, das ist entscheident.
 
und das siehst du an welchem Balkendiagramm nochmal? Nur weil etwas in den selben Qualitätseinstellungen im Treiber getestet wurde, bedeutet es nicht das ein identisches Bild am Monitor ankommt.

Das man die BQ dahingehend so verändern kann das mehr Leistung rauskommt haben nvidia / ATi(AMD) in den letzten 10 Jahren beide eindrucksvoll bewiesen.
 
PiPaPa schrieb:
und das siehst du an welchem Balkendiagramm nochmal? Nur weil etwas in den selben Qualitätseinstellungen im Treiber getestet wurde, bedeutet es nicht das ein identisches Bild am Monitor ankommt.

Das man die BQ dahingehend so verändern kann das mehr Leistung rauskommt haben nvidia / ATi(AMD) in den letzten 10 Jahren beide eindrucksvoll bewiesen.


Weil anandtech im IGP Test von ihren getesteten Spielen Vergleichsbilder hochgeladen hat mit einer dedizierten HD5450 und Intels HD3000. Darauf ist kein Sieger auszumachen. Außerdem, nenne mir nur ein einziges Spiel das auf einer aktuellen Intel IGP mit oft getesteten low settings ohne AA/AF minderwertiger aussieht als auf einer Nvidia oder AMD Karte. Mir ist keines bekannt. Ich bin gespannt ob du mir eins nennen kannst.
 
Als ob man anhand von Screenshots die echte Bildqualität vergleichen kann - besser gesagt was genau berechnet wurde, oder noch besser gesagt was nicht berechnet wurde. :rolleyes:
Man kann soviel tricksen, nicht nur bei AA und AF.
 
PiPaPa schrieb:
Als ob man anhand von Screenshots die echte Bildqualität vergleichen kann - besser gesagt was genau berechnet wurde, oder noch besser gesagt was nicht berechnet wurde. :rolleyes:
Man kann soviel tricksen, nicht nur bei AA und AF.


Solange keine Abstriche zu erkennen sind ist es völlig egal was da getrickst wird. AMD und Nvidia tricksen und optimieren ja auch nie, schon klar. :rolleyes:
Wie gesagt, nenne mir doch mal ein Spiel beim Namen. Hast du denn überhaupt schonmal die HD3000 live selber gesehen? Erscheint mir nämlich unwahrscheinlich.
 
hier mal ein vergleich 320m (c2d p8600) vs. hd3000 (i5 sandybridge):
http://www.anandtech.com/bench/Product/241?vs=343
in den cpu-lastigen benches sieht man zwar, dass das system mit dem hd3000 immernoch klar sträker ist, aber zumindest nicht mehr ganz so extrem wie der i7 gegen den p8600. in den spielebenchmarks liegt die 320m satt vorne.
das problem mit der vergleichbarkeit ist halt, dass es kein sandybride-notebook mit 320m igp gibt (wäre auch widersinnig). das problem wird es leider auch mit llano und der hd6620 geben...
 
Zuletzt bearbeitet:
Lübke schrieb:
hier mal ein vergleich 320m (c2d p8600) vs. hd3000 (i5 sandybridge):
http://www.anandtech.com/bench/Product/241?vs=343
in den cpu-lastigen benches sieht man zwar, dass das system mit dem hd3000 immernoch klar sträker ist, aber zumindest nicht mehr ganz so extrem wie der i7 gegen den p8600. in den spielebenchmarks liegt die 320m satt vorne.
das problem mit der vergleichbarkeit ist halt, dass es kein sandybride-notebook mit 320m igp gibt (wäre auch widersinnig). das problem wird es leider auch mit llano und der hd6620 geben...

Das ist der richtige Link: http://www.anandtech.com/bench/Product/241?vs=327

Und zweitens hast du immer noch nicht verstanden, dass mit neueren Treibern die HD3000 davonzieht.
 
nein das ist der falsche link. du vergleichst äpfel mit birnen. bereits in meinem link hat die hd3000 einen deutlich stärkeren unterbau und neuere treiber als die 320m. in deinem ist der unterschied nur noch übertrieben und keine vergleichbarkeit mehr gegeben.
hd3000 @ sandybrige bis zu 3,4 ghz und 8 threads
320m @ core2 duo mit 2,4 ghz und nur zwei threads.
und selbst mit dem überlegenen unterbau und deutlich neueren treibern kann sich die hd3000 kaum behaupten. also selbst aus deinem vergleich sollte klar sein, dass die hd3000 schwächer ist.
wieso kannst du nicht zugeben, dass die hd3000 ebend nicht die schnellste igp ist? arbeitest du für intel oder was ist los?
 
Lübke schrieb:
nein das ist der falsche link. du vergleichst äpfel mit birnen. bereits in meinem link hat die hd3000 einen deutlich stärkeren unterbau und neuere treiber als die 320m. in deinem ist der unterschied nur noch übertrieben und keine vergleichbarkeit mehr gegeben.
hd3000 @ sandybrige bis zu 3,4 ghz und 8 threads
320m @ core2 duo mit 2,4 ghz und nur zwei threads.
und selbst mit dem überlegenen unterbau und deutlich neueren treibern kann sich die hd3000 kaum behaupten. also selbst aus deinem vergleich sollte klar sein, dass die hd3000 schwächer ist.
wieso kannst du nicht zugeben, dass die hd3000 ebend nicht die schnellste igp ist? arbeitest du für intel oder was ist los?


Ich vergleiche stärkstes Modell mit stärkstem Modell. Oder gibt es ein noch schnelleres 320M Exemplar? Ein 2,4 Ghz schneller C2D sollte völlig reichen, um mit der Grafik nicht in ein CPU limitierendes Limit zu rennen. Dafür ist die Grafik einfach noch zu schwach. In aller Regel sollte der Flaschenhals klar die GPU darstellen. Von daher halte ich dein Plattform Gerede übertrieben. In deinem Vergleich taktet die GPU geringer mit gleichzeitig geringerer Bandbreite. Auch wird in deinem Vergleich mit ausgereiften Nvidia Treibern getestet, während Intels IGP einen nicht unerheblichen Sprung hingelegt hat seitdem.

http://h-6.abload.de/img/2372s7p1.png

Jetzt sag bloß das wäre nichts.
 
auch die cpu spielt für die leistung eine rolle. teste z. b. den vantage einfach mal mit nur einem core aktiv gegen sämtliche cores aktiv beim selben system. nach deiner ansicht sollte ja der gleiche wert rauskommen. du wirst überrascht sein...

und zu den treibern: sowas kommt bei jedem amd und jedem nvidia-treiber ebenfalls raus. hier haben wir sogar dreistellige zuwachsraten für sli in 04/2011: http://www.tweakpc.de/news/20872/download-geforce-treiber-270-61-whql-mit-mehr-leistung/

solange du kein vergleichbares system mit vergleichbaren treibern vorweisen kannst, bei dem die hd3000 mit der 320m mithalten oder diese gar übertreffen kann, wirst du mich auch nicht von ihrer angeblichen überlegenheit überzeugen können. aktuell sehe ich die 320m vorne, in kürze wird amd die igp-krone holen und dann vermutlich auch so schnell nicht mehr hergeben.
intel hat gewaltig boden gutgemacht, keine frage, aber man darf auch nicht vergessen, dass amds und nvidias lösungen nur ein auf sparsamkeit getrimmtes bruchstück einer gpu sind und beide nach lust und laune die messlatte anheben können, wobei letztlich natürlich nvidia mangels cpu ausscheidet und amd eben nicht mit sandybridge schritthalten kann.

den igp-markt holt sich intel natürlich ohne mühen, da die grafik mit sandy, ivy, etc. gebundelt ist, da gibt es kein vertun. aber das hat weniger technische gründe. die intel grafik muss ausreichend sein, nicht mehr und nicht weniger.
 
Lübke schrieb:
auch die cpu spielt für die leistung eine rolle. teste z. b. den vantage einfach mal mit nur einem core aktiv gegen sämtliche cores aktiv beim selben system. nach deiner ansicht sollte ja der gleiche wert rauskommen. du wirst überrascht sein...

3dmark Vantage ist ein synthetischer Benchmark, der noch dazu die separaten CPU Leistungstests mit in die Berechnungen des Gesamtscores aufnimmt. Das ist ein ganz schlechter Vergleich von dir. Der P8600 ist außerdem immer noch ein Dualcore.
Lübke schrieb:
und zu den treibern: sowas kommt bei jedem amd und jedem nvidia-treiber ebenfalls raus. hier haben wir sogar dreistellige zuwachsraten für sli in 04/2011: http://www.tweakpc.de/news/20872/download-geforce-treiber-270-61-whql-mit-mehr-leistung/


So ein Schwachsinn. Du kannst Steigerungen von dedizierten Karten nicht auf IGPs übertragen. Erstens ist bei großen Karten das Optimierungspotenzial aufgrund deutlich mehr Recheneinheiten viel viel größer, erst recht mit Multicore! Das übertrifft ja noch dein GMA Verwirrspiel um Längen. zweitens wage ich zu bezweifeln, dass Nvidia große Mühen in ihre olle IGP gesteckt hat. Schau dir doch mal an welche Karten in den changelogs immer Erwähnung finden bei AMD und Nvidia - immer die größeren Karten! Das hat schon seinen Grund. Drittens ist die 320M bereits ein halbes Jahr länger auf dem Markt, die Treiber sollten schon längst ausgereizt sein, falls es überhaupt Steigerungen gab (was ich bezweifle). Auf eine Quelle, die belegt, dass mit Treiberupdates die 320M dieses Jahr noch zugelegt hat warte ich aber sehr gerne von dir. Es ist allerdings sehr zweifelhaft, ob du diese wirst liefern können.

Und hier noch ein Test für dich. Bis auf ein Spiel sehe ich in den anderen Spielen überall die HD3000 vor der 320M. Und das, obwohl der HD3000 performance Treiber erst später releast wurde.
http://www.anandtech.com/show/4205/the-macbook-pro-review-13-and-15-inch-2011-brings-sandy-bridge/8
 
Zuletzt bearbeitet:
Komisch, als meine HD3200 bzw HD 4200 IGPs das eine Treiberupdate erhalten hatten, hatten sie einen massiven Anstieg der fps, z.B. bei Fallout 3 (ja das geht mir so ner IGP mit entsprechend kleiner Auflösung und low details) - also nicht nur auf große Karten.
 
PiPaPa schrieb:
Komisch, als meine HD3200 bzw HD 4200 IGPs das eine Treiberupdate erhalten hatten, hatten sie einen massiven Anstieg der fps, z.B. bei Fallout 3 (ja das geht mir so ner IGP mit entsprechend kleiner Auflösung und low details) - also nicht nur auf große Karten.


Na klingt ja sehr seriös ohne jegliche Angaben. :lol:
 
warte ich bastel dir gleich mal ein Balkendiagramm -auf die stehst du ja offenbar total... :rolleyes:

Das Treiberupdate machte indem Fall den Unterschied zwischen spielbar und unspielbar... Fallout 3 dümpelte mit ca 19-22 fps umher, danach waren 33 bis 38fps drin.
Selbes Ergebnis war bei bei Command & Conquer 3 zu beobachten, wo ich nicht mehr auf 1680x1050 mit niedrigen Details sondern mit mittleren bis hohen Details spielen konnte.

Wenn du es mir nicht glaubst, mir absolut wurst.
 
der vantage machts aber besonders deutlich. du kannst es mit jedem spiel, das von multithread profitiert testen. das gleiche kannst du mit takt machen. die cpu sitzt nicht nur zur zierde auf dem board, sie hat auch ihre aufgaben.

So ein Schwachsinn. Du kannst Steigerungen von dedizierten Karten nicht auf IGPs übertragen. Erstens ist bei großen Karten das Optimierungspotenzial aufgrund deutlich mehr Recheneinheiten viel viel größer, erst recht mit Multicore!

das ist tatsächlich schwachsinn. die treiber werden für eine architektur optimiert, nicht für eine schnittstelle.
und das mit dem sli war nur zur verdeutlichung. sli gibt es schon jahrelang und dennoch lassen sich dreistellige zuwachsraten in einzelen titeln erzielen. nichts anderes also wie in deinem link.

zweitens wage ich zu bezweifeln, dass Nvidia große Mühen in ihre olle IGP gesteckt hat.
das ist wahr und bezweifelt auch keiner. genau darum können sie ja jederzeit die messlatte anheben. nur bringt es ihnen nichts.

damit ist für mich auch alles zum thema gesagt. du kannst gern weiter auf deinen standpunkt beharren aber mich konntest du nicht überzeugen.
 
PiPaPa schrieb:
warte ich bastel dir gleich mal ein Balkendiagramm -auf die stehst du ja offenbar total... :rolleyes:

Sry, wenn ich schon lese "das eine Treiberupdate"....du kannst den genauen Treiber noch nicht einmal benennen.

Lübke schrieb:
der vantage machts aber besonders deutlich. du kannst es mit jedem spiel, das von multithread profitiert testen. das gleiche kannst du mit takt machen. die cpu sitzt nicht nur zur zierde auf dem board, sie hat auch ihre aufgaben.

Der Vantage ist schlicht ungeeignet dafür. Es bringt wenig sich zwanghaft surreale Szenarien auszumalen um sich hier etwas vorzumachen. Die CPU auf Singlecore laufen zu lassen ist echt mit das dümmste was ich seit längerem lesen müsste. Wenn etwas auf einem Kern im Spiel CPU limitierend wirkt, muss dies nicht für 2 Kerne zutreffend sein. Am besten noch die CPU runtertakten. Auf was für Ideen manch einer kommt ist schon sehr erstaunlich.


PiPaPa schrieb:
das ist tatsächlich schwachsinn. die treiber werden für eine architektur optimiert, nicht für eine schnittstelle.

Klar, was gleichzeitig bedeutet, dass eine HD64xxx genauso profitiert wie eine HD68xx. :rolleyesGanz zu schweigen von einer IGP. Sehr einleuchtend, wer hätte das gedacht.
PiPaPa schrieb:
und das mit dem sli war nur zur verdeutlichung. sli gibt es schon jahrelang und dennoch lassen sich dreistellige zuwachsraten in einzelen titeln erzielen. nichts anderes also wie in deinem link.

Eine Verdeutlichung für was? SLI wird alleine durch optimierte Profile für einzelne Spiele immer stärker zulegen könnnen. Das ist hierbei völlig unerheblich weil dies keine Treiberoptimierungen im üblichen Sinne darstellen. Diese sind Multicore spezifisch. Damit wirst du mich nicht überzeugen können.
 
Zurück
Oben