Test Test: Nvidia GeForce GTX 470

LordLeon schrieb:
ich PERSÖNLICH (soll keine Verallgemeinerung werden)
hatte bisher sehr, sehr schlechte Erfahrungen mit dem Catalyst und mit ATI...
BSDs auf nem Notebook (HD4570), Treibercraches auf nem Rechner (HD4850) und "abrauchen" der ganzen Karte (HD2900XT)...
Ja - wegen dieser Probleme hat Ati auch die Treiberpflege auch jetzt selber in die Hand genommen und liefert dies mit den Catalyst Treibern aus - allerdings muss man auch hier aufpassen da 3 Hersteller das Angebot von Ati nicht angenommen haben an dem Update-Programm teilzunehmen:
http://www.hartware.de/news_48500.html
AMD hat den Herstellern diese Treiber-Unterstützung angeboten und die allermeisten machen mit, drei aber nicht. Die Treiber-Updates werden sich demnach nicht auf Notebooks von Sony, Toshiba und Panasonic installieren lassen. Diese drei Hersteller haben sich entschlossen, nicht an diesem Treiberprogramm teilzunehmen.
 
@BestPower²TDP

Erm 2008 war ich noch nciht hier, darum weis ich das nicht ^^

Aber ich fühl mich gezwungen dich aufzuklären, woher meine Einstellung zu dem Thema aktuell kommt:

2008:
Intel stellt das Projekt Larrabee vor, mit dem Ziel in den Grafiksektor (Diskrete Karten) wieder einzusteigen.

immernoch 2008:
Intel fragt (nach einigung hinter geschlossenen Türen) beim Kartellamt einen Kauf von NV an. Der Antrag wird abgelehnt. (Begründung: zu viele gemeinsame Geschäftsbereiche bzw zu große Marktdominanz auf den gemeinsamen bereichen.)

2008/2009:
NV steigt freiwillig (!!) aus dem Chipsatzmarkt aus

2009:
Intel entzieht NV eine bereits vergebene x86 Lizenz, NV versucht keine schritte einzuleiten um auf anderem Wege eine zu bekommen

2009:
Larrabee wird offiziell eingestellt (inoffiziell machen mitarbeiter aussagen wie: die teams existieren immernoch. wir warten gespannt darauf, das das projekt in die neue runde geht)

2010: eine klare trennung des ion von den intel prozessoren erfolgt

immernoch 2010: onboard grafik fällt angeblich aus dem portofolie von nv

immernoch 2010: mitteilung von nv, das es in diesem jahr keine neue mobilen grafikchips geben wird.

--------

Damit sind auf wudnersame weise fast alle punkte verschwunden, die dem kartellamt bei einem kauf aufstockten .... its magic ;)

mMn werden wir 2011 die überraschende mitteilung einer übername/fusion erhalten. ist für mich halt keinen abgesang wert, solche geplanten transaktionen, da es für mich nichts mit einem untergang der firma zu tun hat, wenn man gezielt darauf hin arbeitet ...
 
Man konnte bei ATI ja gut sehen, wie ihnen AMD GESCHADET hat...
Diese Fusion wäre aber eine Wettbewerbskatastrophe... den Intel hat nochmal ne ganze andere Gewichtsklasse als ATI,AMD und Nvidia zusammen... wenn die NVidia schlucken und "aufpeppen", dann sehe ich fanboygeschwätzfrei absolut schwarz für ATI...
 
@Neo_Xsendra Larrabee wurde eingestellt? kannst du vielleicht einen link dazu angeben? soweit ich weiss haben die beschlossen, die karte nicht auf den markt zu bringen, da sie vermutilch zu langsam war - aber die wollten doch an einem Larrabee 2 arbeiten, oder?

und woher kommt denn das gerede das Intel NV kaufen will? hatten sie nicht das angebot und haben es ausgeschlagen?
die wuerden sicher nicht millionen in die entwicklung einer grafikkarte stecken, wenn sie NV kaufen wollten.
zudem wird der reine grakamarkt ohnehin ein problem bekommen, wenn erstmal modelle wie Fusion ausgereift sind. fur highend hat Intel dann Larrabee X am start und da der modular aufgebaut wird koennen sie bei bedarf auch eine mittelklasse karte draus machen.
 
Zuletzt bearbeitet:
Also von freiwilligem Ausstieg aus dem Chipsatzgeschäft kann gar keine Rede sein:
http://www.heise.de/newsticker/meld...h-nicht-mehr-fuer-AMD-Prozessoren-877786.html
Schon seit AMD und Intel ihre jeweiligen Pläne für die Einführung von CPU-GPU-Kombiprozessoren ab Anfang 2010 beziehungsweise 2011 angekündigt haben, ist klar, dass sich Nvidia im Chipsatzgeschäft neu positionieren muss – schließlich sind die GeForce-Grafikkerne im Chipsatz ein wichtiges Argument für die Nvidia-Chipsätze. Doch bei Intels LGA1156-Prozessoren und auch beim kommenden Atom "Pine Trail" ist nur noch ein externer PCIe-Anschluss vorhanden, es fehlt also eine Schnittstelle, über die ein Grafikkern schnell genug auf das gemeinsam mit der CPU genutzte RAM zugreifen könnte.

Schon 2008 war klar dass Nvidia wohl kaum eine Chance haben wird den Fuss in der Tür zu lassen mit ihrem Geschäftsmodell:
http://www.heise.de/newsticker/meld...-Chipsatz-Markt-neu-positionieren-187068.html

Die neu Positionierung haben sie nicht geschafft - also orientieren sie sich eben neu. Und nach dem was sie mit Fermi präsentieren, wird sich auch Intel überlegen welche Kompetenz sie sich da eigentlich einkaufen würden. Gross, schwer zu produzieren und zu stromhungrig war auch Larabee und führte zur Einstellung - das also können sie schon selber.
 
Das können sie sicherlich selber... würde Intel es WIRKLICH drauf anlegen im GPU-Markt einzusteigen, wäre das sicherlich auch möglich, nur ne Übernahme von NVidia würde eben die Basics erledigen und den relativ hohen Intitialkapitalaufwand wenn man in ne neue Sparte geht verringern...
NVidia wäre mit Intels Kapital und Chip-Know-How sicherlich ein sehr ernst zu nehmender Gegner für ATI...
Ob Intel dieses Gefecht aber austragen will oder sich lieber auf seinen unglaublich mächtigen CoreI beschränkt bleibt abzuwarten... Nebenbei möchte ich noch anmerken, dass sich all meine Aussagen auf den Endkundenmarkt beschränken, industriell ist sowohl NVidia, als auch Intel sehr gut aufgestellt und gerade dort könnte eine Kooperation gewaltige Leistungssprünge versprechen...

Oder AMD kauft einfach NVidia auch noch...
Schmeißt die dann mit ati zu ATidia zusammen...
Und die bringen dann die ATidia Gedeon HD 650 GTX XT

Diese Branche ermüdet einen irgendwann auch...
 
und den relativ hohen Intitialkapitalaufwand wenn man in ne neue Sparte geht verringern...
:evillol:
Ich bezweifle dass es ein Schnäppchen wäre Nvidia zu kaufen - Und Grafikeinheiten produziert Intel auch schon. Die Sparte müsste also nicht neu erfunden werden. Und ob das Nvidia KnowHow den Kauf der ganzen überschneidenden und konkurrierenden Sparten Wert ist bezweifle ich stark ;)
Ich vermute viel mehr dass Intel das Personal angraben wird um das KnowHow zu erwerben - weil das könnte nach dem Kauf von Nvidia ebenfalls abwandern und man hätte genau das was man braucht nicht bekommen. Da sehe ich auch die Ursachen für den Streit zwischen Nvidia und Intel:
http://www.intelsinsides.com/page/com_14.html
feature_image15.jpg
 
@raubwanze

nv kann mit einem möglichen b-spin die verlustleistung und den ausschuss deutlich senken, auch in 40 nm, demnach brauchen sie für eine 475 und eine 485 keinen shrink, um die taktraten zu erhöhen, oder die kosten zu senken.

@Complication

ich nenne das einstellen der entwicklung "freiwilligen aussteig" aber das ist halt ansichtssache.

und doch der kauf würde für intel sinn machen. für sie springt dabei heraus:
-kompetentes personal für große grafik-chips
-kompetente software entwickler für diskrete karte
-wertfolle patente.

und es macht sin, ne eigene abteilung den den larrabee zu entwickeln, wenn man in den gmaer grafikmarkt will und dann trotzdem einen hersteller zu übernehmen. allerding macht es nur sinn die abteilung so schnell in den winterschlaf zu schicken, wenn die übername sonst daran scheitern würde. (wie gesagt, ist ne aussage von nem intel mitarbeiter, das die abteilung auf unbestimmte zeit stillgelegt sit und die mitarbeiter zeitweilig auf andere projekte verteilt wurden, aber auf "abruf" stehen, um das projekt wieder aufzunehmen.

wenn man das alles als ganzes betrachtet ergibt es halt erschreckenderweise nur sinn, wenn man die auflagen des kartellamts von 2008 mit betrachtet.

und btw: das angebot wurde nciht ausgeschlagen. die aktionäre haben zugestimmt für eine prämie und den anteiligen wandel in intel-aktien und auch die führungsspitze schien mit dem entsprechenden angebot durchaus einverstanden. nur das kartellamt sagte "so aber nicht"
 
Neo_Xsendra schrieb:
und doch der kauf würde für intel sinn machen. für sie springt dabei heraus:
-kompetentes personal für große grafik-chips
-kompetente software entwickler für diskrete karte
-wertfolle patente.

Die beiden ersten Punkte bekomme ich günstiger indem ich das Schlüsselpersonal mit Geld locke. zudem ist nicht gesagt dass das Personal bleibt wenn ich den Laden kaufe.
Human Resources spielen in Übernahme Kalkulationen eine untergeordnete Rolle da diese sich innerhalb kürzester Zeit verändern können und auch günstiger zu bekommen sind.

Und die Mehr-Kompetenz des Personals ist mit der zuletzt abgelieferten Arbeit doch schon zweifelhaft. Das kann Intel selber, geht aber nicht den "Stromverbrauch ist egal" Weg den Nvidia eingeschlagen hat.
 
lt NV ist der gf100 ja der letzte monsterchip und mit dem abschluss dieses projektes ist ja auch der vater aller monsterchips die leitung über die entwicklung los.

aber du hast schon recht, das personal könnten sie theoretisch mit geld locken.

und btw kann intel übrigens nicht selbst. die treiber ihrer grafiklösungen sind schlicht bescheiden und die architektur ist ... naja das einzig positive daran ist das sie günstig ist. aber sie besitzt keinerlei potential.

abgesehen davon, kauft man sich mit dem namen nv unzählige kunden ;)

so nun aber genug ot XD

ich freu mich schon auf die ersten nciht referenz design varianten der 470.
sollte irgendjemand auf die idee kommen das design mit den "luft rauspusten" zu übernehmen und einfach nen größeren lüfter zu verwenden, wäre ich höchst beeindruckt (und vermutlich sein kunde XD)
ich bin auch mal echt gespannt, was bein nächsten treiberupdate rauskommt ... kann steht das eig an?
 
BTW, weil ichs grade gesehen habe: die GTX 470 ist mit 3,6 Sone unter last und 1,4 Sone im Idle EXAKT so laut wie die 6800GT die aktuell in meinem Rechner Werkelt ...
ich hatte mir schon echte Sorgen gemacht nach den ganzen tests XD aber das ist (für meine verhältnisse) echt verträglich ^^
 
Wo hast du denn die 3,6 sone unter Last her?
Alle Tests die ich gesehen habe und sone messen haben über 6 sone für die 470 angegeben unter Last(Furmark)
 
hab ich bei pcg hardware gelesen eben (heise sagt sogar es wären nur 1,6 sone, aber ist wohl anderer abstand)

und bitte nicht verwechseln ^^ die 6 sone stammen von der 480 ^^
 
Jetzt sag du mir mal welches Spiel so auslastet wie Furmark und der Karte derart viel abeverlangt.
 
Eve Online mit paar Tweaks, hab damit sogar schon mal fast ne 8800GT (g92) abgeschossen^^


gruß
 
erm comli?

du hast aber schon alles dabei gelesen oder?

Spielelast (wie bei andern test auch) **
PCGAMES
GTX 480 --> 6,9 Sone
GTX 470 --> 3,4 Sone
HD 5870 --> 3,6 Sone

Furmark
GTX 480 --> 11,9 Sone
GTX 470 --> 6,7 Sone
HD 5870 --> 6,4 Sone

GAMERSOGLOBAL
zum Vergleich, die ATI HD5870 ist im Leerlauf mit 0,5 Sone fast unhörbar und erreicht selbst unter Last nur 3,6 Sone. NVidias GTX470 bleibt zwar mit 1,3 Sone im Ruhemodus und 3,4 Sone unter Last etwas leiser, gerade die wichtige Lautstärke im Desktopbetrieb

Damit ist sie nur im Idle lauter als Die 5870 und ansonsten vergleichbar. (Die 3,6 Sone bei der 6800 GT sind ja auch Game last und nicht Furmark)

**
http://www.gamestar.de/hardware/tests/grafikkarten/pcie/2313890/nvidia_geforce_gtx_470_p5.html
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index14.php
http://www.gamersglobal.de/news/20516
 
Deswegen schreibe ich doch von Anfang an Furmark dazu - die Gamelast werte haben Null Aussage. Bei Vergleichen muss man schon was vergleichbares nehmen.
Die Gamelast ist je nach Szenario sehr schwankend und je nach Game ebenso=Muster ohne Wert.
Was zählt zum Vergleich ist Furmark da immer selbe Last reproduzierbar entsteht.
 
Zurück
Oben