Test GeForce GTX 480 im Test: Nvidias neues Grafik-Flaggschiff sucht die Extreme

ATI könnte rein Performancemäßig die GTX480 pulverisieren.
Etwas mehr Shader etwas mehr Takt, mehr Pixelfüllrate, etwas größerer Tesselator und schön wäre ATI (womöglich bei immernoch geringerem Verbrauch vorne).
ATI könnte eigentlich mit der gleichen Achitekur bei 28nm genauso weitermachen und den sicheren Weg gehen.
Eine neue Architektur wäre nur in Hinsicht für GPGPU nötig, hoffentlich wird die auf Anhieb was.
Vielleicht gibts ja wieder ne TestlaufKarte in 40nm mit neuer Architektur.
 
Allgemein überzeugt mich DX11 noch weniger als DX10 die optik wird für meine augen so gut wie gar nicht verbessert bei rapide runtergehenden fps , das was versprochen wurde durch DX11 wurde in keinster weise eingehalten meiner ansicht nach. (dazu gehören bessere optik bei besserer performance) vllt liegt es aber auch daran wie die programmierer damit umgehen
 
Naja mal sehen wie sich DX11 noch entwickelt^^

Wie kann es eigentlich sein, dass, obwohl NV über Jahre den Graka Markt dominiert hat, jetzt die Karten so schlecht sind? Ich mein die hatten doch genug Geld um das ganze zu Entwickeln oder täusche ich mich da?^^
 
Tja das fragen sich wohl sehr viele momentan , ich denke niemand hatte erwartet das die Nvidia serie trotz 5 monate mehr zeit dermaßen schlecht abschneidet.
Nvidia hat mehr Geld als Ati ya durch höhere Marktanteile halt
Da gabs mal nen bild wo der chef von nvidia die karte hochgehalten hat , gut das se nicht an war sonst hätte der jetzt verbrennungen 3ten grades
 
Zuletzt bearbeitet:
rooney723 schrieb:
Naja mal sehen wie sich DX11 noch entwickelt^^

Wie kann es eigentlich sein, dass, obwohl NV über Jahre den Graka Markt dominiert hat, jetzt die Karten so schlecht sind? Ich mein die hatten doch genug Geld um das ganze zu Entwickeln oder täusche ich mich da?^^

Denke nicht, dass die nV Karten sooo schlecht sind! Das Problem ist halt der Fertigungsprozess mit gewagten 3 Billionen Transistoren. Mut hat nV bewiesen aber für die heutige Fertigung (ob nm oder Kühllösungen) zu weit voraus! So gesehen hat nV den Job gut gemacht aber das ist ähnlich wie mit Crysis. Die Engine ist z.B. seiner Zeit auch zu weit voraus ;)
 
Die Effekte bei Metro 2033 sind doch eh das NonPlus ultra. Mit directx11 tesselation Blur Effekten, HBOA usw..usw.. da sieht man schon nen Unterschied.
 
Schaffe , also ich hab das game durch und es gab nie passagen wo man wirklich sehenswerte unterschiede erkannt hat , durch dx 11 leidet nur die performance
 
Das Problem ist halt der Fertigungsprozess mit gewagten 3 Billionen Transistoren.
Es sind 3 Milliarden Transistoren.

Mal sehen ob Nvidia noch was optimieren kann, ich denke aber nicht dass sich noch so viel ändert an der Performance.
Gerade in 2D ist die Verlustleistung eine Frechheit. Dass nicht mal die aktuellste Karte das Energieproblem so halbwegs in den Griff bekommt, ist wirklich schade.
 
Es liegt daran das Nvidia mit ihrem Theoriewissen gegen das praktische issen von Ati bei neuen Prozessgrößen nicht ankommt. Wenn man dann noch so arrogant ist und sich nicht wie bisher alles abschaut sondern immer meint die Probleme gäbe es nicht kommt sowas dabei raus.....

In der Automobilindustrie muss auch jeder Designer darauf achten, das das was er entwirft auch produzierbar ist. Nvidia schiebt das jetzt auf Tsmc... so macht ein unfähiger Bauleiter das auch, sitzt Monatelange rum und kümmert sich um nichts um dann später die Schuld auf andere zu schieben.

Eventuell kann man die Leistungsaufnahme noch senken indem man es schafft den Chip so zu ändern das man weniger Spannung braucht... aber das es ja laut Nvidia keine Probleme gibt und die sich mit ihrem Meisterwerk so brüsten...

Wenn Ati humor häte, hätten sie direkt eine HD5890 angekündigt als die Fermi daten raus waren :lol:


Zitat Nvidia.de

Standard-Abmessungen der Grafikkarte:
Breite 4.376 inches (111 mm)
Länge 10.5 inches (267 mm)
Bedarf an Steckplätzen Single-Slot
 
Zuletzt bearbeitet:
Ja aber laut Nvidia.de ist die GTX480 ja auch im 3 Way SLI zu gebrauchen. ( Was ich jedoch stark bezweifle )
Edit : Geil Zitat vom Catalyst Maker ( Twitter ) : The only thing that "blew us away" was the heat coming out of the video card and the sound of the fan."" lolz
 
Schaffe , also ich hab das game durch und es gab nie passagen wo man wirklich sehenswerte unterschiede erkannt hat , durch dx 11 leidet nur die performance

Teilweise sehr hochauflösende Texturen, optisch ealistischere Oberflächen, Blur Effekte, Tiefenunschärfe machen schon einiges her, auch wenn teilweise zuviel Blur und zuiel tiefenunschäre/Bewegungsunschärfe verwendet wird.=(.
Matschge Texturen treffen teilweise auf sehr hoch aufgelöste, aber man kann nicht alles perfekt machen.
Grafishc trotzdem ein Kracher.

3Wege SLI mit einer GTX480 ist denke ich thermisch gar nicht möglich. SLI ist schon gefährlich. Wie gesagt nur in den zertifizierten gehäusen möglich.^^
Außer man erbaut richtig fette Lüfter. Besser Wasserkühlung, wobei es beim 3Wege SLI eh mehr als einen Radiator braucht, da gehendie Kosten ja ins unermessliche.
 
Zuletzt bearbeitet:
ich mein nicht den Very High modus der bringt sehbare grafische besserungen , ich meine den DX11 modus der bringt so gut wie keine sehbaren verbesserungen der haut nur deine fps rapide runter und ja die Grafik ist schon klasse
Sli bzw 3-Way Sli ist meines erachtens auch mit den Zertifizierten gehäuse mit dem referenz design nicht möglich ausser man dreht die lüfter noch höher = ohrschädigend (kein scherz^^)
 
Zuletzt bearbeitet:
Schaffe89 schrieb:
3Wege SLI mit einer GTX480 ist denke ich thermisch gar nicht möglich. SLI ist schon gefährlich. Wie gesagt nur in den zertifizierten gehäusen möglich.^^
Außer man erbaut richtig fette Lüfter. Besser Wasserkühlung, wobei es beim 3Wege SLI eh mehr als einen Radiator braucht.

Sowieso wären die Anschaffungskosten viel zu hoch bzw. die Stromkosten die das nach sich zieht. Ausserdem müsste man dann ja nen extrem gutes NT haben. Also wenn überhaupt dann nur mit Wakü zu realisieren. Ich glaub das ist sogar für Enthusiasten nen bisschen zu viel Geld...
@highendKlaus wtf die Lüfter gehen noch lauter? :lol:
 
Zuletzt bearbeitet:
na bestimmt ^^ wenn die bei 100% lüfter auf fast 100°C gehn je nach gehäuse auch mehr dann seh ich für die karte ja mal sowas von schwarz
echt mal wenn ich dran denke .. hätt ich die 5870er net nach paar tagen bekommen durch glück hätt ich 4 monate auf die Nvidias gewartet
 
Zuletzt bearbeitet:
bin mal gespannt auf die ersten Verkaufszahlen der GTX 480/70 . Die GTX 480 wird bestimmt wie blei in den Regalen liegen bleiben...
 
Hallo zusammen,

@ HighEndKlaus

Gamerkarten machen nur noch einen Geringen Teil des Nvidia-Umsatzes aus! Zum Beispiel mit SoC-Chips bzw. Lösungen. Zum Beispiel die Chips des iPhone sollen von Nvidia sein. Ein weiteres Beispiel ist die Hardware des Microsoft Zune-Handys welche ebenfalls von Nvidia ist. Schau dir einfach mal die Quartalsbilanzen von denen an, dann siehst du, was Gamerkarten noch ausmachen bei denen.

@ Schaffe89

Ich habe sogar Bedenken, ob SLI-Pärchen, egal ob GTX 470 oder 480, überhaupt vernünftig möglich ist, wenn ich bedenke, daß z. B. bei hartware.de die Karte bei offenem Aufbau 112 Grad erreichte und nur mittels eines Schnellen Resets vor dem Nirvana gerettet werden konnte! Schau dir mal die GTX 480 genauer an, die hat ja jetzt schon massive Heatpipes! Soviel Optimierungsspielraum, abgesehen von Wasserkühlung, ist da mit Sicherheit auch nicht mehr vorhanden.

@ rooney723

Ganz deiner Meinung, bei vielen kommt ja noch hinzu, daß ein Neues NT ansteht wenn man eine dieser Karten kaufen will. Wenn man den Aufpreis der Karten gegenüber den vergleichbaren ATI-Produkten nimmt, sind das locker 150 - 200 Euro Preisunterschied! Für 10 - 15 % Performancegewinn, Maximal! Dazu noch den immensen Stromverbrauch und das schlechte Gefühl im Nacken, wie lange eine solche Karte bei diesen Temperaturen wohl durch hält!

@ Wattebaellchen

Das hat mit TSMC ganz sicher gar nichts zu tun, das Problem liegt ganz klar im Design begraben. Ich kann mich noch an die Geforce 8800 bzw. den Ur-G80 erinnern, der im IDLE auch ca. 60 Watt verbrauchte, was erst durch einen Refresh Chip in Form der G200b behoben werden konnte. Wobei der G80 damals zumindest im 3D Betrieb noch akzeptablen Stromverbrauch hatte im Gegensatz zu den beiden Neuen NV-Monstren.

So long...
 
Zuletzt bearbeitet:
Ja das würd ich net so sagen.. die werden schon weggehen wenn halt die 5870 net da sind , nur werden se halt denk ich mal gut verfügbar sein , und irgendwelche fan boys werden die holen bzw benchmark geile leute^^
das ist mir klar das gamer karten nicht mehr soviel ausmachen aber trotzdem macht es was aus und es wird ein herber rückschlag für nvidia werden
 
Luxmanl525 schrieb:
@ rooney723

wie lange eine solche Karte bei diesen Temperaturen wohl durch hält!

.
Vermutlich nicht sehr lange wobei Nvidia da ja zahlen muss. Ist ja nen Garantie Fall wenn ich mich nicht ganz irre oder?
BTW : Microsoft Zune ist doch nen MP3 Player ( nen Freund hat einen ) und nur in den USA erhältlich?
 
Nvidia muss die karte klar zurücknehmen wenn se durchbrennt weil die kühlung der karte nicht reicht und da kommts auch nicht aufs gehäuse an die karten müssen ja für den alltags gebrauch gewappnet sein , wir haben momentan nicht mal sommer ich will die karten mal dort sehen^^
 
Wobei das Sommer argument eigentlich quatsch ist, da man im Winter ja die Heizung anhat. ich denke das die Karten das nicht aushalten so hohe Temps ( selbst wenns nicht die max Temps sind ) können halt nicht gesund sein auf dauer....
 
Zurück
Oben