News Weitere Details zur Ivy-Bridge-Grafik

Ja schon werden die GPU's sparsamer, aber das ist wirklich imemr nur ein "Tick". Lass es 10% sein von jeder Generation. Bei Nvidia hat sich das Verhältnis sogar verschlechter. Die GF GTX 460 braucht ca 20% weniger strom und ist nur 10% langsamer als die GTX 560. Letzendlih ist die GTX 560 eigentlich nur eine hochtektete GF GTX 460. Genau so war es auch bei der Geforce der 9. Generation. Die 9800GT war eigentlich nichts anderes als eine 8800GT. Exakt gleich, bloß im BIOS wurde die Lüftersteuerung überarbeitet. Es muss bei den Grafikkarten endlich mal der "Knaller" rauskommen. Gleicher Verbrauch von 100W und doppelte Leistung. Ich bin mal auf die neue Generation gespannt. Laut NVidia soll sich ja das Leistung pro Watt Verhältnis stark verbessern.

Also wenn der Verbrauch der CPU auf die Häfte sinkt, wäre das der Knaller. Da haben die Subnotebooks mit 11 Zoll endlich auch richtig Power.
 
Ich habe das vielleicht nicht ganz verstanden.

Verbraucht jetzt die GPU-Einheit 50% weniger, oder der gesamte Prozessor?

Man wie genial, 10h Laufzeit im MacBook Air? :p

Schade das OLED Display nicht bezahlbar sind in der Größe.....

Und irgendwann können wir auch noch passiv kühlen.... :D
 
Hallo @ all,

der Punkt bei dem Intel AMD und NVidia gleichermaßen überlegen ist, ist Effizienz. Dezidierte GraKas dagegen kümmern sich z.Z. fast nur noch mit Leistung, der Energieverbrauch scheint dabei keine Rolle zu spielen. Die ganze Gamer-Kids sind auch nichts anderes gewöhnt, als daß eine GraKa eine aktive Kühlung benötigt oder gar bis zu drei Slots belegt. Daß die neue GraKa-Generation mehr Watt als die vorherige benötigt, scheint dabei keine Rolle zu spielen solange die FPS stimmen.


Ralf555 schrieb:
Dedizierte Low End GPUs werden zukünftig weniger Sinn machen, weil das Feld die CPUs einnehmen und für Mittelklasse oder High-End GPUs ist Intel noch lange nicht so weit.

ice-breaker schrieb:
Um auch nur annähernd an Nvidia oder AMD ranzukommen, müsste Intel Milliarden in die Forschung stecken, und auch dann würde man noch weit abgeschlagen sein.

Staubwedel schrieb:
Intel ist doch schon mal mit dedizierten Grafikkarten auf die Schnauze gefallen, auch wenns etwas länger her ist.

Allerdings hat Intel genügend Kohle um die besten Leute von AMD und Nvidia wegzukaufen, Oder hat man Angst vorm Kartellamt?


Verstehe nicht warum niemand auf die logische Konsequenz o.g. Erkentnisse kommt. Intel muß lernen auch den Gamer zu bedienen. Da der Otto-Normal-Gamer durchschnittlich sehr jung ist, ist warten keine Option ebenso wie jahrelange Forschung und Entwicklung. Warum also Intel nicht einfach NVidia aufkauft ist mir unverständlich. Die Synergie-Effekte wären gewaltig. NVidia würde von Intel lernen wie man Strom spart, Intel würde lernen wie man vernünftige Grafik auf den Schirm zaubert und vernünftige Treiber programmiert.

Der Nachteil an der Sache: Das wäre der Genickschuß für AMD. Ob sich das angeschlagene Unternehmen dann weiterhin noch halten könnte wäre zumindest fraglich. Und daß AMD stirbt, daß will auch nichtmal der letzte Intel-Fan(boy). Zumindest nicht die mit Verstand.
 
BlackWidowmaker schrieb:
Intel muß lernen auch den Gamer zu bedienen.
Wozu? Intel ist schon lange der Marktführer bei den Grafikchips (= verkaufte Anzahl, nicht Leistung).
Und genau deswegen darf Intel Nvidia nicht übernehmen.
 
Death666Angel schrieb:
Das einzige wodrauf ich sehnsüchtig warte ist endlich ein gutes Konzept dedizierte Grafik und integrierte Grafik parallel im Desktop nutzen zu können. Da hat weder AMD noch Intel was ordentliches geliefert und das gewurschtel mit Lucid Software gefällt mir auch nicht.
Jaja, damals... als es noch die guten alten 3Dfx-Zusatzkarten gab... :)
Da warte ich auch schon lange drauf, dass die Grafikkarte im 2D nur so viel verbraucht, wie "nötig" ist. :cool_alt:
 
BlackWidowmaker schrieb:
Warum also Intel nicht einfach NVidia aufkauft ist mir unverständlich.

Weil die Kartelbehörde da nie im Leben zustimmen wird, denn Intel hat so schon eine marktdominierende Stellung im CPU-Bereich. Würde man Intel dann noch erlauben Nvidia zu kaufen hätte man auch eine marktdominierende Stellung im Grafikchips-Markt, da ist man mit den Notebookchipsätzen immerhin schon stark vertreten.

Ich frage mich warum alle darauf pochen, dass Intel in den "unlukrativen" Markt der High-End-Grafikkarten einsteigen sollen, mit Notebook-Grafikchipsätzen oder integrierten Chipsätzen für z.B. Mainboard lässt sich über die Masse doch viel mehr verdienen. Dieser Sch***vergleich von AMD und Nvidia mit den High-End-Modellen ist doch nur reines Prestige, der Umsatz davon wird gegen den restlichen Umsätz aus dem Low-End-Markt sehr gering sein.
 
GuaRdiaN schrieb:
ich kaufe mir keine neue Graka weil mir die Knete fehlt, sondern weil ich meinen Strom selbst zahle.
Also doch weil dir die Knete fehlt :) nur für die "nebenkosten" halt ...
wobei man in jeder Generation aus weniger elektrischer Leistung mehr Rechenleistung holt, womit man im endeffelt auch jedesmal dort Sparen könnte.

BlackWidowmaker schrieb:
der Punkt bei dem Intel AMD und NVidia gleichermaßen überlegen ist, ist Effizienz.
Tatsächlich? hast du mal ein Test wo die im Performance per Watt verglichen werden?
Wobei Performance muss man wohl Mathematisch nehmen, bei der Grafik selbst kann man gepixel von Intel ja weder mit AMD nocht mit Nvidia Objektiv begutachten.

Intel hat aufjedenfall ein gewisses Know How im Fertigungsprozess, die Frage die ich mir hier stelle, würde Intel aufträge annehmen, könnten sie ein GTX580 design auch in ihren 22nm fertigen ... ?

@Topic,
Jenachdem, wie sie jetzt alles realisieren tippe ich auf 36% Gewinn im P/W bereich.
Die Mischung aus Optimierung,Fertigung,Techniken, bzw. das ein "4700K"? mit 19% Performance gewinn bei gleicher Leistung zum 2700K, weil das ja nicht Proportional bleibt.
Die % entsprechen Schätzungen, keine Goldwage bitte :D
 
@ ExcaliburCasi:

Wenn ich von Intels Effizienz rede, dann ist natürlich nicht die Grafikeffizienz, sondern eher die CPU-Effizienz gemeint. Klammert man 3D-Leistung aber gänzlich aus ist eine Intel iGPU die effizienteste Grafik-Lösung, da sie z.B. wenn man nur Word oder IE benützt, vielleicht mal ein Video abspielt, am wenigsten Strom dafür braucht.

@ice-breaker:

Wie lukrativ oder unlukrativ iGPUs sind, kann man nicht so einfach über Stückzahlen bewerten. Dazu müssten die Konditionen im Detail bekannt sein, die zwischen Intel und seinen OEMs gelten. Doch dies ist nicht mal im Ansatz bekannt, da so etwas zu den best gehüteten Firmengeheimnissen zählt. Andererseits kann man auch jetzt tatsächlichen keinen prozentualen Wert festlegen, was die CPU- und was die GPU-Sektion einer APU wert sind, wenn man beides nur komplett verkauft. Dementsprechend sind es nur Schätzungen und Hochrechnungen von denen wir da reden und keine verläßlichen Zahlen.

Wobei ich Dir andererseits dahingehend Recht geben kann, daß High-End GraKas bzw sogar dedizierte GraKas überhaupt, eine eher geringe Rolle (mengenmäßig) spielen, und dieser Trend sich in Zukunft sogar verstärken wird. Durch neue Konsolengenerationen und einen dadurch belebten GraKa-Markt, sowie durch eine größere Durchdringung von GPU-Computing im Software-Markt, könnte sich aber an den Verhältnissen durchaus was ändern.

@ Topic:

Eine komplette Übernahme NVidias durch Intel ist nur eines der möglichen Szenarien. Ein anderes wäre, die Beendigung der Grabenkämpfe zwischen diesen beiden Firmen und eine verstärkte Zusammenarbeit. Z.B. in Form eines Cooperationsabkommens, das einen Technologie- und Patent-Austausch beinhalten würde.

Daß Intel wie hier erwähnt wurde, das aber im Grunde genommen gar nicht nötig hat, ist klar. Das ist eine der negativen Auswirkungen eines defacto Monopols, daß Randgruppen (Gamer / PowerUser) plötzlich überhaupt nicht mehr bedient werden.

Verzwickte Welt: Man kauft Intel, drückt aber lieber AMD die Daumen. :(
 
BlackWidowmaker schrieb:
@ ExcaliburCasi:

Wenn ich von Intels Effizienz rede, dann ist natürlich nicht die Grafikeffizienz, sondern eher die CPU-Effizienz gemeint. Klammert man 3D-Leistung aber gänzlich aus ist eine Intel iGPU die effizienteste Grafik-Lösung, da sie z.B. wenn man nur Word oder IE benützt, vielleicht mal ein Video abspielt, am wenigsten Strom dafür braucht.

Das würde ich nicht einfach behaupten. Denke mal bspw an die Brazos Plattform.


BlackWidowmaker schrieb:
Eine komplette Übernahme NVidias durch Intel ist nur eines der möglichen Szenarien. Ein anderes wäre, die Beendigung der Grabenkämpfe zwischen diesen beiden Firmen und eine verstärkte Zusammenarbeit. Z.B. in Form eines Cooperationsabkommens, das einen Technologie- und Patent-Austausch beinhalten würde.

Der Marktführer wird die Nr. 2 (Nvidia etwa gleichauf mit AMD) schon allein aus kartellrechtlichen Gründen nicht übernehmen (dürfen).
Und guten Morgen, ein Lizenzabkommen gibt es bereits seit Anfang 2011 : https://www.computerbase.de/news/netzpolitik/intel-zahlt-fuer-patenttausch-mit-nvidia-1-5-mrd-.30042/
 
Ihr tut ja alle so, als hätte Intel bisher nichts brauchbares im GPU Segment.
Aber die HD 3000 war schon ein großer Sprung nach vorne, mit dem ich so ziemlich jedes Spiel spielen kann.
Ja und selbst der Vorgänger, die HD Graphics, reicht einem Kumpel von mir vollkommen aus.

Und wenn Ivy Bridge da noch einen drauf setzt, dann wird das die meisten Leute auf Erden zufrieden stellen.
 
Zuletzt bearbeitet:
Athlonscout schrieb:

OK, kann mich errinern die News gelesen zu haben, hatte sie aber nicht mehr in Errinerung. Offensichtlich reicht die Zusammenarbeit bei weitem nicht aus. Denn schlicht gesagt NVidia verheizt zu viel Energie, Intel kriegt keine vernünftige Grafik hin, geschweige denn einen passenden Treiber.

Wobei wir hier nur von Spielegrafik reden, für alles andere ist mittlerweile aber eine Intel iGPU durchaus brauchbar. Natürlich von GPU-Computing und anderen Nischenlösungen wie Multimonitoring usw. mal abgesehen.

Muß jetzt grad selber über das von mir geschriebene lachen. Klingt ein bißchen wie "was haben die Römer je für uns getan?" :D
 
@athlonscout
Danke, dass wenigstens einer in diesem Thread an diese News gedacht hat. Hatte fast schon die Hoffnung aufgegeben, bis zu diesem Post. Intel wird wohl dank nVidia in den nächsten Jahren seine Grafikchips massiv verbessern können. Meiner Meinung nach war das ein großer Fehler von nVidia. Aber wer weiß, was man sich da intern erhofft.

BlackWidowmaker schrieb:
OK, kann mich errinern die News gelesen zu haben, hatte sie aber nicht mehr in Errinerung. Offensichtlich reicht die Zusammenarbeit bei weitem nicht aus. Denn schlicht gesagt NVidia verheizt zu viel Energie, Intel kriegt keine vernünftige Grafik hin, geschweige denn einen passenden Treiber.
Die enge Zusammenarbeit reicht bei weitem nicht aus? So etwas braucht einfach Zeit. Wieviele neue Grafikchips kamen denn raus, seit diesem Bekanntwerden der Zusammenarbeit? Ich würde mal sogar behaupten selbst bei Ivy-Bridge wird noch nicht viel Know-How von nVidia in die Entwickling mit eingeflossen sein, da die Entwicklung einfach schon zu weit war. Okay, bei den Treiber sind sie wirklich etwas lahm, aber da nVidias Grakaarchitektur nun mal anders ist, als Intels werden sie in diesem Bereich dort wohl auch nicht so sehr von der Zusammenarbeit profitieren, nehme ich jetzt einfach mal an.
 
kaigue schrieb:
Ihr tut ja alle so, als hätte Intel bisher nichts brauchbares im GPU Segment.
Aber die HD 3000 war schon ein großer Sprung nach vorne, mit dem ich so ziemlich jedes Spiel spielen kann.
Ja und selbst der Vorgänger, die HD Graphics, reicht einem Kumpel von mir vollkommen aus.

Und wenn Ivy Bridge da noch einen drauf setzt, dann wird das die meisten Leute auf Erden zufrieden stellen.


Für Intel ist oder war das ein riesen Sprung. Es konnte nicht alles auf einmal verbessert werden. Alleine das verbesserte AF zeigt Intels Bemühen im GPU Bereich. Die ganzen Mühen zahlen sich endlich aus. Besonders gespannt bin ich auf Haswell.
 
Zurück
Oben